Les industriels du plastique contre-attaquent

BASF, Dow, Total, Shell, ExxonMobil, LyondellBasell, Suez et Veolia comptent parmi les 30 membres fondateurs de cette nouvelle alliance internationale « pour l’élimination des déchets plastiques ». On y retrouve donc de grands producteurs de matières plastiques, des entreprises d’emballages et des acteurs de la gestion des déchets. En somme, des entreprises qui fabriquent, utilisent, vendent ou recyclent des plastiques. L’alliance sera dotée d’un milliard de dollars, avec pour objectif d’atteindre 1,5 milliard de dollars d’ici cinq ans.

« Les plastiques sont des matériaux efficaces qui peuvent économiser des ressources, favoriser la santé et la sécurité et faciliter la vie de nos concitoyens, estime Martin Brudermüller, président du Board et directeur des technologies chez BASF SE. Ces bénéfices pourraient être réduits à néant si les plastiques et leurs déchets ne sont ni utilisés, ni éliminés, ni recyclés de façon responsable. »

Priorité aux infrastructures de gestion des déchets

La pollution plastique est avant tout une problématique de gestion des déchets et des eaux usées. L’alliance mettra donc sa priorité sur le développement d’infrastructures pour collecter les déchets et les orienter vers leur recyclage prioritaire dans les grandes zones urbaines. Elle mise également sur l’innovation pour améliorer la valorisation des plastiques en fin de vie.

L’alliance compte par ailleurs sur l’éducation et l’engagement des gouvernements, des entreprises et des communautés pour les inciter à l’action. Enfin, elle participera au nettoyage des zones les plus polluées, en particulier les dix fleuves considérés comme les plus pollués par l’ONG Ocean Conservancy.

Cette nouvelle alliance vient compléter les fonds déjà alloués par l’initiative Clean Oceans dotée de deux milliards d’euros et lancée en octobre dernier par la Banque européenne d’investissement (BEI), l’agence française de développement (AFD) et le groupe KfW. Parmi beaucoup d’autres, elle s’ajoute également à l’Engagement Mondial de la Nouvelle Économie des Plastiques.

CES2019 : un clavier entièrement reconfigurable

Inventé par Nemeio, une start-up financée par le groupe LDLC, ce clavier possède 81 touches personnalisables, grâce à l’usage d’encre électronique, technologie répandue dans les liseuses. De nombreuses configurations prédéfinies- qwerty, azerty, alphabet cyrillique ou japonais, raccourcis propres à des logiciels-métiers… – sont disponibles dans la bibliothèque fournie. Des pictogrammes et symboles spécifiques peuvent être importés si besoin. Un concept novateur qui a été récompensé au dernier salon CES à Las Vegas.

C’est la souplesse du smartphone qui a inspiré les équipes de Nemeio. «La configuration ou la langue d’un clavier de smartphone peut être rapidement modifiée, au contraire de celle d’un clavier PC, qui demeure figée, indique Jasmine Marchetti, responsable de projet au sein du département R&D du groupe LDLC. Certains professionnels, comme les traducteurs, sont donc contraints d’utiliser plusieurs claviers. Les webdesigners ou les graphistes, quant à eux, collent des gommettes sur leur clavier et utilisent au quotidien de 30 à 40 raccourcis, ce qui intensifie la charge mentale.»

Une commercialisation après l’été 2019

Le clavier de Nemeio est conçu pour leur faciliter la tâche : une configuration peut être asservie à un logiciel et s’active automatiquement à l’ouverture dudit logiciel. En pratique, ce clavier, compatible Windows/MacOS/Linux, est à vocation fixe – il se branche via un câble USB-C – ou nomade, via Bluetooth. Il contient par conséquent une batterie et une mémoire capable de stocker une trentaine de configurations, sélectionnables via deux boutons. «L’écran e-paper, situé sous les touches transparentes, ne consomme de l’énergie qu’au moment du changement d’image, explique Jasmine Marchetti.  Le bandeau LED qui lui est associé sert à modifier l’intensité de l’éclairage.»

La parallaxe est un autre paramètre réglable : chaque utilisateur adoptant une posture variable devant son clavier, les caractères et symboles affichés doivent rester visibles. En matière d’ingénierie, le principal challenge a été de reproduire le système, mécanique ou à membrane, équipant les claviers classiques et mis en œuvre lorsque les touches sont pressées puis relâchées. Habituellement, un tel système se déploie sur toute la surface occupée par les touches. Il était inadapté dans le cas présent, du fait de la transparence des touches. « Afin de préserver le chemin de l’affichage produit par l’écran e-paper, nous avons dû déporter ce système, sans nuire à son efficacité et aux sensations haptiques, proches de celles d’un clavier de PC portable» poursuit Jasmine Marchetti. Les explications s’arrêtent là, secret de fabrication oblige. La campagne de financement participatif, elle, se prépare, sur Kickstarter ou Indiegogo. La commercialisation est prévue après l’été 2019, à un prix situé entre 300 et 500 €. Une coquette somme, mais ce clavier s’adresse avant tout aux pros, bien que des particuliers puissent aussi être intéressés.

FIC 2019 : des menaces de plus en plus complexes

En 2018, les exposants et les experts présents au FIC évoquaient principalement les risques concernant les téléphones mobiles et les objets connectés. Le patron de l’Agence nationale de la sécurité des systèmes d’information (ANSSI) avouait aussi sa grande crainte : le sabotage.

Dans une interview accordée à Industrie & Technologies au moment de l’édition 2018, Guillaume Poupard déclarait : « quand on s’attaque au monde du transport, on peut vite avoir des effets absolument dramatiques y compris sur les vies humaines ».

Des attaques astucieuses

Un an plus tard, les problématiques restent les mêmes. Elles s’accentuent même étant donné que les connexions entre appareils et entreprises ne cessent de se multiplier. Pour le cabinet spécialisé dans les risques numériques Wavestone,  « si en 2018, les cyberattaques se sont caractérisées par un maintien du nombre de ransomware et par des incidents de plus faible visibilité, impactant majoritairement les données clients des entreprises (Marriott, Facebook, T-Mobile…), la tendance pour 2019 va vers une multiplication d’attaques de plus en plus astucieuses, pernicieuses et complexes. »

Ce constat est partagé par de nombreux experts et décideurs. « De nouvelles faiblesses matérielles ont été révélées et des recherches ont mis en évidence les utilisations potentielles de l’intelligence artificielle pour créer des cyberattaques plus puissantes », peut-on lire dans la 14e édition du « Global Risks Report » du Forum économique mondial (WEF).

RGPD oblige, le FIC 2019 a surtout parlé du « Security by design », la sécurité prise en compte dès la conception des produits. C’est en effet l’un des nouveaux principes du règlement général sur la protection des données à caractère personnel.

Des attaquants de très haut niveau

« Les données personnelles doivent être sécurisées dès la conception des produits. Pour cela, nous devons faire en sorte que la transformation numérique soit aussi une transformation culturelle », a précisé Richard Lizurey, Directeur Général de la Gendarmerie Nationale.

« Le nombre de cibles augmente également rapidement, car le numérique est partout aujourd’hui. Il est donc très difficile d’être optimiste et de se dire que tout ça ne va pas se terminer par une catastrophe avec de vrais impacts, non seulement sur nos données, mais aussi sur la sécurité de nos concitoyens », reconnait Guillaume Poupard.

Cette prise de conscience est d’autant plus nécessaire qu’on « observe des attaquants de très haut niveau, probablement des États », signale le patron de l’ANSSI. Comme l’an passé, il a rappelé ces doutes : « une infrastructure critique qui soit gravement attaquée, sabotée, détruite par une attaque informatique. Bien malin celui qui peut se convaincre que cela n’arrivera pas ».

Une dalle LCD peut en cacher une autre

Le salon CES, qui s’est achevé il y a quelques jours à Las Vegas, a donné à voir un florilège des technologies en vogue ou à venir sur le marché des téléviseurs à écran plat : OLED, 8K, microLED… A cette liste s’ajoute désormais le sigle Dual Cell, du fait de l’industriel chinois Hisense, quatrième producteur mondial de TV. Un écran Dual Cell est équipé de deux dalles LCD superposées, technique qui procurerait de bien meilleurs contrastes que ce dont est capable usuellement un affichage à cristaux liquides. Et ce n’est pas un prototype. «Il sera vendu en Chine dès cette année, sous la dénomination commerciale ULED XD, confirme Damien Neymarc, responsable marketing de Hisense en France. La commercialisation en Europe est prévue en 2020.»

Vu de l’extérieur, cet écran de 65 pouces ressemble à beaucoup d’autres : il arbore une dalle LCD en ultra haute définition (3840×2160 pixels), désormais assez classique. Il emploie également des «boîtes quantiques» qui enrichissent la reproduction des couleurs et se répandent dans les téléviseurs haut de gamme. La différence vient de l’incorporation d’un second panneau à cristaux liquides, situé entre le rétroéclairage (constitué de plusieurs centaines de LEDs tapissant le dos de l’écran) et la dalle en ultra haute définition qui affiche l’image finale.

Cette dalle invisible, de définition Full HD (1920×1080 pixels), agit comme un masque dynamique dont les 2 millions de zones indépendantes bloquent ou laissent passer la lumière du rétroéclairage, selon l’intensité lumineuse souhaitée dans l’image.

Un contraste de 200 000:1

Cette astuce corrigerait la principale lacune des écrans LED/LCD, comparés aux écrans OLED dont les pixels sont auto-émissifs : à cause de la lumière du rétroéclairage qui filtre même quand les pixels sont éteints, les noirs ne sont jamais pleinement noirs, ce qui nuit in fine au contraste. Grâce à la dalle LCD supplémentaire à l’oeuvre dans Dual Cell, «la luminosité d’un pixel noir (donc éteint) n’est que de 0,0018 candéla par mètre-carré (cd/m²)», selon Damien Neymarc. Certes, une dalle OLED produit un niveau de noir si infime qu’il n’est pas mesurable. Mais le téléviseur ULED XD profite quant à lui d’une forte luminosité annoncée à 2900 cd/m², ce qui reste hors d’atteinte de l’OLED, et par conséquent d’un contraste de 200 000:1 (rapport entre le niveau de blanc maximal et le niveau de noir maximal), a priori excellent.

Ce procédé de fabrication engendre naturellement un surcoût, sur lequel Hisense ne livre pas d’information. Au moins connaît-on la surconsommation électrique, «de l’ordre de 15%», estime Damien Neymarc. En ce qui concerne son prix, le téléviseur ULED XD se positionnera sur un segment haut de gamme. La technologie Dual Cell trouvera-elle sa place entre le LCD, démocratisé, et l’OLED, aujourd’hui «premium» mais de plus en plus abordable ? Ou n’a-t-elle aucun avenir ? Réponse dans quelques années dans nos salons.

Une intelligence artificielle bon marché ?

Selon l’étude « Sizing the prize » de PWC, le PIB mondial pourrait croître de 14 % d’ici 2030 grâce à l’IA. Les gains de productivité engendrés par les technologies d’intelligence artificielle devraient représenter la moitié des bénéfices économiques attendus. Tous les secteurs et toutes les entreprises seront d’une manière ou d’une autre impactés par l’IA.

Lors du dernier Consumer Electronics Show (CES), Intel a annoncé qu’il s’associait avec Facebook pour développer une nouvelle puce d’IA. Dénommée NNP-I (Nervana Neural Processor for Inference), elle permettrait de déployer le machine learning de manière plus efficace et à moindre coût. Le fondeur a déclaré que la puce serait compatible avec les principaux logiciels d’IA. Mais l’accord avec le réseau social confirme que ce projet ne peut se faire sans l’expertise d’ingénieurs spécialisés dans les programmes d’IA.

Des cartes graphiques pour l’IA

Sa puce est destinée à accélérer l’inférence, c’est-à-dire la capacité d’un réseau neuronal de catégoriser automatiquement les données en fonction des données apprises.

Pour Intel, cette annonce confirme son intention de ne plus être distancé par la concurrence : la start-up britannique Graphcore (qui a récemment levé 200 millions de dollars d’investissements), des entreprises chinoises (Cambricon, Horizon Robotics et Bitmain), Google et Amazon. Mais surtout Nvidia.

Lorsque Nvidia a inventé l’architecture de traitement parallèle CUDA (Compute Unified Device Architecture) il y a près de dix ans, personne n’était sûr de leur intérêt. Utiliser une carte graphique pour exécuter des tâches spécifiques semblait improbable.

Aujourd’hui, les GPU dominent dans de nombreux domaines, depuis les applications traditionnelles comme la 3D et le rendu vidéo, jusqu’à l’intelligence artificielle…

Caméra pilotée par l’IA

Les calculs nécessaires au deep learning ne sont en effet pas optimisés avec des processeurs classiques. Les résultats sont meilleurs avec des puces qui divisent les calculs, ce qui inclut les cartes graphiques (GPU) dont c’est la spécialité de… Nvidia. Résultat, cette entreprise vend énormément de GPU haut de gamme pour l’intelligence artificielle.

La sortie de la puce d’Intel est prévue pour le second semestre 2019. Cela coïncidera avec les projets de Facebook. Pour le réseau social, cet accord confirme son intérêt de développer des casques de réalité virtuelle et des enceintes intelligentes. C’est le cas de Portal qui devrait être mis en vente en novembre aux États-Unis. Cet appareil, en forme de tablette, intègre une caméra optimisée par l’IA pour faire un panoramique, zoomer et recadrer l’image.

Lasers et univers primitif

Peu après le Big Bang, notre univers était dans un état très chaud, dense et désordonné. Il s’est depuis refroidi et étendu jusqu’à atteindre un état plus ordonné. Dans les années 70, le physicien anglais Tom Kibble a suggéré que, lors de son refroidissement, l’univers s’est organisé en patchs indépendants. Chaque patch d’univers a évolué indépendamment de ses voisins et a développé des structures uniques. Chacun de ces patchs a ensuite grandi puis touché ses voisins ce qui a créé des frontières structurelles visibles dans l’univers d’aujourd’hui. Ces domaines, nommés « défauts topologiques », sont souvent présents sous deux formes : vortex et anti-vortex. La théorie de Tom Kibble prédit et explique la formation de ces défauts durant le processus de refroidissement et plus particulièrement comment leur formation dépend de la vitesse à laquelle l’univers s’est refroidi.

Cependant, il nous est impossible de vérifier la théorie de Tom Kibble sur notre univers car cela nécessiterait des temps d’observation bien au-delà du millénaire. Dans les années 80, un autre physicien, Wojciech Zurek a prédit l’observation de la théorie de Kibble comme étant possible en laboratoire, en étudiant le comportement de refroidissement de superfluides par exemple.

En utilisant les lasers couplés comme support d’études, un groupe de l’Institut Weizmann a démontré qu’il était possible d’observer et d’étudier le mécanisme de Kibble-Zurek. Ceux-ci ont utilisé un ensemble d’une dizaine de lasers indépendants qu’ils ont ensuite couplés, de sorte que, pour assurer la survie du groupe de lasers, ceux-ci soient forcés de se coordonner. On dit alors que les lasers sont « en phase ». Tout comme notre univers après le Big Bang, les lasers partent donc d’un état désordonné et évoluent vers un état ordonné. Cependant, durant le processus de synchronisation, des domaines appelés défauts topologiques dissipatifs, présents sous forme de vortex ou d’anti-vortex, se forment et demeurent stables dans le temps, comme prédit par la théorie de Tom Kibble. Ici, les vortex et anti-vortex sont des défauts de synchronisation de la phase des lasers. Des lasers parfaitement synchronisés auraient tous la même phase, c’est-à-dire que les creux et les bosses du champ électromagnétique de chaque laser arrivent en même temps en un point donné de l’espace. Si des défauts topologiques apparaissent, ces creux et bosses ne sont plus synchronisés.

En plus de son apport certain au domaine de la physique expérimentale, ce travail permet notamment de lier deux domaines de la recherche qui interagissent peu, la physique des lasers et la cosmologie.

Rédacteur : Arnaud Courvoisier, doctorant à l’Institut Weizmann

Source : www.diplomatie.gouv.fr

Le vol d’informations personnelles à partir de vos mouvements de doigts sur un écran tactile est une réalité

Les grands noms de l’industrie font souvent appel à des sous-traitants qui fournissent un service, tel que le service après-vente. Concernant les écrans tactiles, les pièces de remplacement peuvent provenir de ce type de sous-traitants. Cependant, il a été démontré que des logiciels malveillants peuvent se cacher dans le code de ces pièces de rechange.

L’objectif du Dr. Yossi Oren a été d’utiliser ce qu’on appelle une méthode de machine learning, qui consiste en un programme d’intelligence artificielle capable d’apprendre automatiquement à partir des informations qu’il analyse. Cela concerne la conception, l’analyse, le développement et l’implémentation de méthodes permettant à une machine (au sens large) de remplir des tâches complexes à l’aide de moyens algorithmiques plus classiques.
Le Dr. Oren a présenté ses résultats lors du deuxième symposium international sur la cybersécurité, la cryptographie et le machine learning (CSCML), qui s’est déroulé les 21-22 juin 2018 à Beer-Sheva en Israël. Les résultats ont été publiés dans la revue scientifique Springer. L’équipe de chercheurs comprend les étudiants de premier cycle de BGU, Moran Azran, Niv Ben-Shabat et Tal Shkonik.
Cette analyse a été réalisée afin d’évaluer la quantité d’information que les hackers pourraient soutirer à partir de l’observation et de la prédiction des interactions que nous avons avec nos écrans. Dans ce contexte, un hacker pourrait mettre au point des attaques plus spécifiques et efficaces. Par exemple, l’attaquant peut savoir quand il doit voler des informations à l’utilisateur ou « insérer » des touches malveillantes.

Pour quantifier les informations qui peuvent être obtenues en interagissant avec un écran tactile, le Dr. Yossi Oren et son équipe ont analysé les interactions d’un utilisateur classique : ils en ont ainsi enregistré plus de 160, exécutant différentes tâches dans des applications spécifiquement créées pour l’étude.
Plus précisément, les chercheurs ont conduit leur expérimentation sur un groupe de quarante étudiants de troisième année de BGU. Les sujets étaient tenus de remplir un questionnaire personnel comprenant des questions telles que l’âge, le sexe et la main tenant habituellement le téléphone portable, ainsi que la manière dont le sujet tient le téléphone portable (ex : à deux mains), la dernière fois qu’il a joué sur son téléphone portable ou encore la dernière fois qu’il a pris un café. De plus, on a demandé aux sujets s’ils connaissaient certains jeux.

Dans la deuxième étape de l’expérience, chaque sujet a été invité à enregistrer quatre sessions d’interactions tactiles différentes sur le téléphone de test. Tout d’abord, les sujets ont été invités à jouer au jeu « Color Infinity ». L’objectif de ce jeu est de passer une balle à travers divers obstacles. Le jeu entraîne des touches rapides et courtes sur l’écran. Ensuite, les sujets devaient jouer à un jeu appelé « Briques ». L’objectif de ce jeu est de déplacer les briques d’une certaine couleur au moment où la couleur de la brique change. Ce jeu induit des touches continues sur l’écran. Lorsque les sujets ont fini de jouer, ils ont été invités à lancer le navigateur web du téléphone et à effectuer une recherche sur internet en tapant le mot « Facebook » dans la barre de recherche du navigateur. Enfin, les sujets ont été invités à rentrer dans une application e-mail sur le téléphone portable et à envoyer un e-mail comprenant un objet et une ligne de texte.
Les chercheurs ont ensuite utilisé une méthode machine learning pour déterminer la vélocité, la durée et les intervalles de touche sur des téléphones LG Nexus Android spécialement modifiés.
Selon les chercheurs, l’apprentissage de la machine a été capable de déterminer le contexte d’activité de l’utilisateur à partir des données tactiles fournies, avec un taux de prédiction de plus de 92% parmi les 4 contextes d’activité évalués.

En utilisant cette analyse de façon défensive, les ingénieurs ou spécialistes de la cyber-sécurité pourraient être en mesure d’arrêter des attaques, en identifiant les anomalies dans l’utilisation typique d’un téléphone par un utilisateur et en prévenant l’utilisation non autorisée ou malveillante d’un téléphone.

Rédacteur : Henri-Baptiste Marjault, doctorant à l’Université hébraïque de Jérusalem

Source : www.diplomatie.gouv.fr

Mesurer le monde quantique

Afin de développer les technologies quantiques qui promettent de révolutionner le monde de demain, il est nécessaire d’acquérir de profondes connaissances sur les lois de la mécanique quantique, ainsi que de développer des instruments capables de mesurer de tels phénomènes. C’est dans ce but qu’une équipe de chercheurs de l’Université Bar-Ilan, dirigée par Prof. Aviad Frydman et Prof. Beena Kalisky, ont développé un instrument capable de mesurer les effets associés aux transitions de phases quantiques, phénomène physique qui sera au cœur de ces technologies du futur.

Les transitions de phases dites classiques sont observables chaque jour par le commun des mortels. Faites bouillir de l’eau ou bien faites fondre un glaçon et vous observerez une transition de phase. En d’autres termes, il s’agit d’un changement de l’état (liquide, solide, gazeux) ou bien des propriétés d’un matériau. Si les transitions de phase qui nous sont familières se produisent lorsque l’on change la température d’un matériau, il est notamment possible d’observer de telles transitions en changeant la pression exercée sur celui-ci ou bien le champ magnétique qui l’entoure. Si les transitions de phases qui ont lieu dans l’eau de vos pâtes ou dans votre verre de pastis sont bien comprises car décrites très justement par la physique classique, les transitions de phases qui se produisent dans le monde microscopique nécessitent l’emploi des lois de la mécanique quantique pour être décrites précisément.

Dans ce monde microscopique, les familières bulles de vapeur deviennent par exemple des fluctuations quantiques dans le champ magnétique émis par les matériaux qui changent de phase. La compréhension du comportement de ces « bulles quantiques » est au cœur d’un vaste sujet de recherche. À l’aide d’un microscope capable de détecter des champs magnétiques extrêmement faibles, l’équipe de l’Université Bar-Ilan est parvenue à imager ces fluctuations quantiques pour la première fois, nous en apprenant plus sur ces phénomènes physiques fondamentaux, ouvrant ainsi la voie à l’analyse de systèmes quantiques complexes.

Rédacteur : Arnaud Courvoisier, doctorant à l’Institut Weizmann

Source : www.diplomatie.gouv.fr

Ocean Cleanup : un rêve brisé en deux

Fin d’année difficile pour Ocean Cleanup et son jeune créateur, le Boyan Slat, qui promettait « le plus grand nettoyage de l’histoire ». Le 29 décembre, une fracture a été localisée à une extrémité de cette barrière flottante (baptisée Système 001) en forme de U de 600 mètres. Une partie d’un flotteur et des cadres stabilisateurs se sont détachés. Une section de 18 mètres de long à la fin du U s’était rompue. Pas à cause d’une forte tempête, mais à cause de l’usure des matériaux.

Cette barrière comporte une « jupe » de trois mètres de long pour recueillir les déchets dans l’eau (principalement des macro plastiques, c’est-à-dire les déchets suffisamment gros pour être perçu à l’œil nu). Une fois le U rempli, un navire de soutien venait ramasser les déchets et les ramenait à terre.

Grand comme trois fois la France !

Selon la start-up, leur tube n’aurait pas résisté aux assauts répétés de l’océan. Fort heureusement, les déchets qui avaient été récupérés ne sont pas retournés à l’eau. Le tube est actuellement remorqué jusqu’à Hawaii pour y être réparé et modernisé.

Fin d’un rêve qui avait séduit des donateurs et des entreprises ? 40 millions de dollars avaient été récoltés en novembre pour tenter de récupérer une partie de l’énorme volume de déchets (73 000 tonnes selon des estimations) se trouvant au large des côtes de l’Amérique du Nord. C’est ce qu’on appelle le « septième continent », grand comme trois fois la France !

Autre mauvaise nouvelle : la start-up a signalé que le filet qu’elle utilisait ne capturait finalement pas grand-chose. Pour de nombreux océanologues, ce n’est pas surprenant. Des chercheurs avaient indiqué que l’océan démolirait facilement un tube de plastique de 600 mètres de long. Par ailleurs, cette solution ne pourrait récupérer qu’une fraction des déchets, c’est-à-dire ceux à la surface de l’eau.

Changer les mentalités

Une autre solution est actuellement testée.  Le Waterfront Partnership of Baltimore a déployé deux roues (équipées de globes oculaires géants) qui soulèvent les déchets hors de l’eau et les jettent dans des barges. 1 000 tonnes de déchets ont ainsi été récupérées.

L’échec de Ocean Cleanup confirme que le plastique dans les océans reste un problème extrêmement difficile à résoudre. On peut toujours dépenser des millions d’euros dans des projets, cela restera toujours moins efficace qu’un changement de mentalités !

Revue du web #120 spéciale CES 2019 : les vidéos les plus étonnantes

La « voiture à pattes » signée Hyundai

Mi-voiture, mi-robot, elle roule, elle marche et elle rampe !

 

Le casque de moto high tech

Fini les angles morts !

 

Le taxi autonome hélicoptère

Signé Safran, ce véhicule hybride est promis à un bel avenir de VTC volant.

 

La moto autonome de BMW

Après la voiture sans chauffeur, la moto sans pilote…

 

Le smartphone à écran pliable de Royole

Ouvert, il ressemble à une tablette. Fermé, c’est un smartphone classique. Doté d’une dalle flexible de 7,8 pouces, le dernier né de Royole a fait sensation lors du CES.

 

La télévision enroulable de LG

Le téléviseur LG Signature Oled TV R enroulable peut-être commandé à la voix et disparaître à l’envi, un atout indéniable pour les passionnés de design intérieur.

Par I. B.

84 milliards d’euros de catastrophes naturelles en 2018

Ouragans, tsunamis, tempêtes, cyclones : 2018 n’a pas fait figure d’exception en termes de catastrophes naturelles. Le tsunami indonésien du 22 décembre dernier est emblématique des épisodes météorologiques catastrophiques qui ont frappé le monde cette année. Provoqué par une éruption volcanique, le tsunami a causé la mort de plusieurs centaines de victimes et engendré de très lourds dégâts matériels.

C’est sur ce point que l’ONG britannique Christian Aid a focalisé ses recherches. Dans son rapport, Christian Aid montre que le coût des catastrophes naturelles atteint plusieurs dizaines de milliards d’euros. Ces sommes sont liées aux destructions souvent très lourdes engendrées par ces épisodes météorologiques violents.

Palme d’or pour les ouragans Florence et Michael

Les catastrophes naturelles les plus coûteuses ont eu lieu dans l’hémisphère nord, à l’instar de l’ouragan Florence. En septembre 2018, cet ouragan de catégorie 3 a balayé le sud-est des États-Unis, frappant violemment la Caroline du Nord. La Caroline du Sud, la Floride et la Virginie ont elles aussi été touchées par la catastrophe, mais de façon moindre. En tout, plus de cinquante personnes sont décédées durant cet ouragan. En plus du nombre de victimes qui fait de Florence un véritable drame, la catastrophe est également financière. Selon les chiffres révélés par le gouverneur de Caroline du Nord, l’ouragan a causé 17 milliards de dollars de dégâts, ce qui en fait la catastrophe naturelle la plus coûteuse de 2018.

Avec Florence, Michael, qui a frappé l’Amérique début octobre 2018, fait partie des ouragans les plus dévastateurs que les États-Unis aient connus durant leur histoire. Cette fois-ci, c’est l’extrême nord-est de la Floride, le Panhandle, qui a été touché. Les vents qui ont atteint jusqu’à 245 km/h ont causé la mort de 45 personnes sur le territoire américain. Des pays d’Amérique centrale ont eux aussi été touchés par l’ouragan Michael. En effet, 13 personnes sont décédées au Honduras, au Nicaragua et au Salvador. L’ouragan a également laissé sur son passage 15 milliards de dollars de détériorations. Selon l’ONG Christian Aid, les émissions de gaz à effet de serre directement imputables à l’homme ont eu pour conséquence d’intensifier la violence de ces épisodes météorologiques en faisant des catastrophes naturelles sans précédent.

Chine, Japon : là encore les catastrophes naturelles coûtent des milliards

En Chine, ce sont les intempéries dues à la mousson qui ont été catastrophiques. De nombreuses inondations ont ravagé le pays aux mois de juin et d’août. Dès les premières pluies diluviennes, le gouvernement avait déclaré l’état d’urgence alors que 15 personnes étaient mortes. Le niveau des inondations a également atteint des niveaux faramineux dans la région du Xinjiang, y causant 20 morts. Selon les autorités, les crues incontrôlables du mois de juin ont coûté plus de 3,9 milliards de dollars à la Chine. Au mois d’août, ce sont 4,5 milliards de dollars supplémentaires qui se sont ajoutés à la note pour des raisons similaires.

Au Japon, les très fortes chaleurs estivales ont mis la santé des habitants à rude épreuve. Plus de 30.000 personnes ont été admises à l’hôpital pour des crises cardiaques au mois d’août. 105 personnes n’ont pas survécu à ces attaques dans la seule ville de Tokyo, ce qui est un cas inédit pour la capitale nippone. Cet épisode de chaleur intense a suivi les inondations dues à la mousson du mois de juin. Celles-ci avaient causé 230 morts et provoqué plus de 7 milliards de dollars de dégâts. Enfin, le typhon Jebi, le plus violent de ces 25 dernières années a balayé le pays au mois d’août. Il a provoqué au moins 2,3 milliards de dollars de dégâts, notamment en inondant l’aéroport d’Osaka.

Filmer le cerveau pour mieux comprendre le sommeil

Le sommeil paradoxal est un état de sommeil particulier pendant lequel l’activité cérébrale est proche de celle de l’éveil tout en étant associée à une inhibition de l’activité musculaire. Il se caractérise notamment par des mouvements oculaires rapides et a longtemps été considéré comme uniquement impliqué dans les rêves et les processus émotionnels. Cependant, de récentes études ont montré qu’il jouait également un rôle majeur dans la plasticité neuronale de l’hippocampe, c’est-à-dire la capacité des neurones à reconfigurer leurs connexions.

Afin de mieux comprendre le fonctionnement du cerveau pendant le sommeil paradoxal, des chercheurs de l’unité Inserm 979 « Physique des ondes pour la Médecine », dirigée par Mickaël Tanter au sein de l’Institut Langevin (ESPCI Paris/CNRS) et récemment labellisée Accélérateur de recherche technologique « Ultrasons biomédicaux » en collaboration avec le laboratoire Neuroscience Paris-Seine (Sorbonne Université/CNRS/Inserm), ont étudié l’activité cérébrale chez le rat pendant son sommeil. Pour cela, ils ont couplé la technique d’électroencéphalographie (EEG), qui enregistre l’activité électrique des neurones, avec une technique d’imagerie par ultrasons ultrarapides appelée fUS (pour functional ultrasound). Cette technique innovante, développée par l’équipe de Mickaël Tanter, permet de visualiser avec une grande précision les variations des flux sanguins liés à l’activité neuronale dans l’ensemble du cerveau de rats éveillés et en mouvement.

L’équipe de recherche a observé que le sommeil paradoxal chez le rat est associé à une forte augmentation du débit sanguin dans le cerveau, se présentant sous forme de vagues qui atteignent d’abord les régions sous-corticales et se déplacent ensuite le long de l’hippocampe puis du cortex. En comparaison, les phases de sommeil non paradoxal et de réveil chez le rat inactif présentent des volumes sanguins cérébraux relativement bas.

Cette hyperactivité vasculaire lors du sommeil paradoxal est caractérisée par deux phases : l’une proche de ce qui est observé lors d’un enregistrement chez un rat en activité, et l’autre inconnue jusqu’alors, composée d’augmentations soudaines du débit sanguin que les chercheurs ont appelées « poussées vasculaires ». Ces dernières qui durent en moyenne 5 à 30 secondes, peuvent perdurer pendant 1 minute dans les régions corticales et sont particulièrement puissantes dans l’hippocampe.

Les chercheurs ont réussi à identifier un signal électrique dans l’hippocampe (zone cruciale pour la mémoire) caractéristique de ces pics d’augmentation du débit sanguin. Ce signal – des oscillations gamma à haute fréquence – est ordinairement observé chez un rat éveillé. Leur intensité lors du sommeil paradoxal est directement corrélée à celle de la poussée vasculaire, ce qui suggère que ces oscillations locales pourraient contrôler le débit vasculaire de l’ensemble du cerveau. «Cette information est cruciale, précise Antoine Bergel, co-auteur de l’étude, car elle permet de cibler des régions du cerveau très précises potentiellement impliquées dans la genèse de ces événements vasculaires intenses». Les scientifiques ont également constaté qu’il existait, durant le sommeil paradoxal, un phénomène de synchronisation vasculaire entre des aires cérébrales éloignées les unes des autres (cortex, hippocampe, et thalamus) bien plus important que dans tout autre état de sommeil ou d’éveil.

Ces travaux présentent les tout premiers films du cerveau entier durant le sommeil paradoxal et confirment l’intérêt des ultrasons neurofonctionnels pour la recherche fondamentale en neurosciences. A l’heure actuelle, la technique fUS reste difficile à appliquer chez l’être humain adulte. Cependant, il est d’ores et déjà possible de confirmer ces résultats chez le nouveau-né, tout en considérant que l’extrapolation à la physiologie humaine doit se faire avec prudence. Ces résultats représentent néanmoins une avancée majeure pour la compréhension du couplage entre activité électrique et vasculaire (un phénomène impliqué dans nombre de pathologies humaines comme les accidents vasculaires cérébraux ou l’épilepsie) et questionnent notre compréhension du sommeil paradoxal, dont la fonction reste inconnue.

Source : CNRS

CES 2019 : les innovations technologiques à retenir

Las Vegas a été le centre du monde high-tech. La ville a aussi été la capitale de la french tech puisque 414 entreprises françaises, dont 376 startups, ont exposé leurs innovations. Mais le CES a été, encore une fois, l’occasion d’annonces tonitruantes (ou d’effets d’annonce…) des poids lourds américains (à l’exception d’Apple).

Cette année, le thème principal a été l’aide à la vie autonome et les commande vocale et d’être assistés plus facilement.

Fréquence cardiaque et clim’

Il y a quelques jours, un cadre d’Amazon indiquait qu’Alexa était installée sur plus de 100 millions d’appareils construits par le géant du e-commerce ou ses partenaires. De son côté, Google a indiqué que sa solution était intégrée à des millions de smartphones Android. Après, rien ne prouve que le service est utilisé (il n’y a que Google qui le sait)…

Quoiqu’il en soit, 3500 marques ont développé des services autour de l’assistant vocal d’Amazon contre 1500 pour celui de Google.

Le CES a eu des faux airs de salon automobile. Les voitures sont de plus en plus présentes dans des stands. Ainsi Mercedes-Benz a dévoilé l’un de ses véhicules de prochaine génération, la Mercedes CLA 2020. Son coupé sera doté de nombreuses fonctions dites « intelligentes ». Par exemple, l’enregistrement de la fréquence cardiaque par une montre connectée permettra d’optimiser la climatisation. Les commandes sont prévues pour le troisième trimestre ou quatrième trimestre 2019.

Mercedes Benz

De son côté, Hyundai a présenté un nouveau concept de véhicule qui pourrait faciliter l’accès aux victimes de catastrophes naturelles. Cette « voiture à pied » utilise des jambes articulées pour se déplacer en dehors des routes après des inondations, des incendies et des tremblements de terre.

Changement climatique

La conduite autonome ne se limite plus aux voitures et aux camions. John Deere a encore une fois présenté sa moissonneuse-batteuse autonome qui peut être programmée à l’aide d’un GPS. Selon le fabricant, elle peut rester sur une trajectoire préétablie sans osciller de plus de 2,5 centimètres. Deux caméras à l’intérieur de la moissonneuse-batteuse surveillent également la qualité des semences et du grain récoltés.

Évidemment, les écrans plats ont fait l’objet de nombreuses annonces. Ce salon n’a pas été l’occasion de constater de réelles améliorations de la qualité de l’image, même si le 8K a fait l’objet de nombreuses démonstrations. Résultat, l’innovation se trouve ailleurs : la finesse des écrans, des dalles pliables ou enroulables (pour les téléviseurs, mais aussi pour des smartphones)…

Royole

Enfin, la protection de l’environnement a été à l’honneur. Sept startups ont été récompensées en tant qu’innovateurs du changement climatique. Elles ont présenté des idées novatrices sur la façon dont la technologie peut aider à conserver l’énergie et à assainir l’environnement .

Citons Blue Whale Company pour sa vanne intelligente détectant les fuites et la surconsommation dans les conduites, GoSun Fusion et son cuiseur solaire hybride qui permet de cuisiner jour et nuit avec uniquement de l’énergie solaire ou encore Lumi’in Flex et son lampadaire solaire à LED intelligent adaptable sur n’importe quel modèle.

Philippe Richard

95% de renouvelables en France est possible techniquement et économiquement selon l’ADEME

« Dès lors qu’on cherche à optimiser les coûts de production de l’électricité et réduire son coût pour le consommateur, l’étude de l’ADEME aboutit à une part très importante des EnR dans le système électrique français » souligne l’agence étatique dans son communiqué de presse.  « Pour le consommateur, l’augmentation progressive de la part des EnR dans le mix électrique permet de faire baisser le coût total de l’électricité jusqu’environ 90 €/MWh hors taxe sur le long terme (à comparer au coût actuel, près de 100 €/MWh), ceci malgré l’augmentation prévisible du prix des énergies fossiles et du CO2. Cette estimation prend en compte tous les coûts du système électrique (production, réseau, stockage, importation…) et garantit l’équilibre offre-demande horaire pour les sept années météorologiques testées. »

Ce niveau d’énergie renouvelable très élevé ne manque pas de susciter un débat relatif au maintien de la stabilité du réseau, aujourd’hui réalisé grâce à l’inertie des groupes tournants. Il s’avère que c’est techniquement possible, et à un coût très marginal. De nombreuses études réalisées par des experts en Australie, aux USA, en Allemagne et dans d’autres pays du monde parviennent à des conclusions similaires.  « L’étude estime que même avec 87% d’EnR en Europe continentale en 2050, il est possible, pour un très faible coût, de prendre en compte le niveau d’inertie minimum que se fixe le gestionnaire de réseau irlandais Eirgrid pour les prochaines années (lequel est confronté à cette problématique en raison de l’insularité du pays et d’un taux d’EnR élevé) » affirme l’ADEME.  A quel coût?  « Moins d’1 €/MWh  » estime l’organisme d’état, soit 0,1 c€/kWh. Autrement dit, rien du tout.  Maintenir un réseau électrique insulaire (Irlande) est plus difficile qu’au niveau du continent européen en raison des interconnexions électriques.  Donc ce qui est possible avec les normes irlandaises l’est a fortiori à l’échelle du continent européen électriquement interconnecté.

L’étude montre que les batteries des voitures électriques, dans le cadre de l’approche V2G-G2V (Vehicule-to-Grid / Grid-to-vehicule) peuvent jouer un rôle clé pour offrir de la flexibilité électrique. 10 millions de voitures électriques avec une puissance de charge / injection de seulement 3 kW l’unité, c’est 30 GW. Le potentiel est donc énorme. La puissance appelée moyenne en France est de 60 GW.

« Il s’agit de peser sur le débat à venir et d’éclairer les choix jusqu’en 2060  »   souligne le président de l’ADEME, Arnaud Leroy, un proche d’Emmanuel Macron, en introduction du rapport.  « Il ne s’agit pas de prétendre décider une fois pour toutes les choix d’investissements pour les quarante prochaines années, mais bien de s’assurer qu’un choix fait aujourd’hui ne va pas faire peser des coûts indus à nos enfants et petitsenfants quelques dizaines d’années plus tard.  »

L’étude montre par ailleurs que construire de nouveaux réacteurs en France constitue un non-sens économique.  En outre l’EPR finlandais pourrait subir de nouveaux retards.  « L’achèvement des tests de mise en service n’a pas progressé conformément au calendrier mis à jour », a déclaré en octobre 2018 la compagnie d’électricité finlandaise Teollisuuden Voima (TVO). Le projet de gigacentrale solaire d’EDF au Maroc (825 MW)  pourra être réalisé bien plus rapidement.

40% de renouvelables en 2030 ? L’objectif est très modeste comparativement à celui de l’Espagne ou d’autres pays du monde. La France serait-elle condamnée à faire presque deux fois moins bien que  son voisin ibérique ? Selon le PDG du groupe français Neoen, passer « en 5 ans » à 50% de renouvelables (dont 30% de solaire + éolien et 15% d’hydroélectricité) est tout à fait possible. Quand on veut, on peut.

Des robots pour transporter les larves de corail sur les récifs

Le réchauffement climatique affecte déjà sérieusement de nombreuses créatures vivant dans les océans. Les deux dernières années, la grande barrière de corail australienne a connu des épisodes massifs de blanchiment dus à une eau anormalement chaude. Pour éviter que ces épisodes répétitifs ne tuent les coraux qui ont mis des années à se développer, les scientifiques ont réhabilité des robots « rangers », utilisés pour protéger les coraux contre les étoiles de mer à couronne d’épines, afin qu’ils aident à la dissémination des larves de coraux vers les zones de récifs à restaurer.

La reproduction des coraux, dans une grande majorité des cas, passe par une ponte synchrone lors de laquelle un grand nombre de cellules reproductrices mâles et femelles sont libérées dans l’eau en un temps très court. Cette ponte a lieu seulement une ou deux nuits par an et ne dure que quelques heures par nuit. Lorsque les gamètes mâles et femelles se rencontrent, l’œuf se développe pour former une larve, appelée planula. Certaines espèces de coraux libèrent directement leurs larves dans l’eau après une fécondation interne. Dans ces deux types de fécondation, ce sont ces larves libérées dans le milieu et naturellement transportées par les courants qui vont permettre la régénération de récifs ou la colonisation de nouveaux substrats assurant également le brassage génétique entre différentes localisations géographiques.

Les chercheurs de l’Université de la Croix du Sud (Southern Cross University – SCU) et de l’Université de Technologie du Queensland (Queensland University of Technology – QUT), dirigés par le professeur Peter Harrison, et le professeur Matthew Dunbabin, vont utiliser des robots afin d’aider les larves dans cette phase critique du cycle de vie des coraux. Les scientifiques vont tout d’abord collecter des centaines de milliers de cellules reproductrices lors de la ponte synchrone, qu’ils vont rassembler dans d’immenses enclos flottants sur les récifs. Une fois les larves formées, elles seront confiées aux robots qui les transporteront vers les sites ciblés, afin qu’elles forment de nouvelles colonies. Au bout de trois ans, ces coraux seront capables de se reproduire par ponte synchrone, complétant leur cycle de vie.

Deux ou trois robots ont été mis à contribution pour la ponte synchrone de l’été 2018 (fin novembre), robots qui avaient été développés à l’origine pour reconnaître et tuer les étoiles de mer à couronne d’épines, ces prédateurs invasifs de coraux. Les chercheurs estiment que ce coup de main artificiel devrait multiplier par cent la survie des polypes, base élémentaire d’une nouvelle colonie de coraux, après la fixation de la larve sur un support.

Source : www.diplomatie.gouv.fr

De la vie artificielle quantique a été créée dans le cloud

Ce protocole de vie artificielle créé par les chercheurs de l’UPV reproduit les comportements biologiques propres aux systèmes vivants tels que la mutation, l’interaction entre individus, la naissance et la mort. Il s’agit de la première conception expérimentale d’un algorithme quantique de vie artificielle qui suit les lois darwiniennes de l’évolution.

Chaque modèle d’organismes correspond à une unité de vie quantique et chacune d’elle est composée de deux cubes qui agissent respectivement comme génotype et phénotype. Le génotype contient l’information sur le type d’unité vivante présent et qui se transmet de génération en génération. Le phénotype contient les caractéristiques liées aux gènes, mais aussi à l’environnement des individus.

Cette expérimentation représente une réelle consolidation de la théorie de la vie artificielle quantique. L’enjeu à présent est de complexifier le prototype, de réaliser des émulsions quantiques plus précises et de parvenir à la suprématie quantique. La prochaine étape est donc de rajouter des caractéristiques : processus de robotique quantique, critères de genre, systèmes quantiques intelligents. Ce travail n’est que le début d’un futur caractérisé par l’auto-apprentissage des machines, l’intelligence artificielle et la vie artificielle.

Rédacteurs : Cécile Malavaud – Margot Buzaré

Source : www.diplomatie.gouv.fr

Une nouvelle salle immersive en réalité virtuelle pour les opérations nucléaires

Presage 2 est le nom de la toute nouvelle salle d’immersion en réalité virtuelle dont vient de s’équiper le CEA Marcoule. Cet équipement répond tout particulièrement aux besoins de la Direction de l’énergie nucléaire du CEA et, notamment, aux projets de démantèlement menés à Marcoule. L’étape de simulation et d’immersion constitue un véritable atout pour la préparation amont des interventions de démantèlement en milieu irradiant et donc hostile : étude et choix des meilleurs scenarii, vérification de la faisabilité d’opérations techniques, mais aussi formation des opérateurs notamment pour le pilotage de robots téléopérés.

Composée de deux murs d’image haute définition (4K), cette salle immersive offre une vision stéréoscopique et intègre de nombreux équipements et fonctionnalités : réalité augmentée, bras à retour d’effort, capture de mouvement, casques immersifs, son interactif, etc.  Cette technologie est animée grâce à une brique logicielle baptisée « Idrop », développée par le CEA, qui offre une approche globale d’une opération en milieu ionisant, et inclut en particulier la prise en compte de la dosimétrie pour les opérateurs et pour les matériels.

Les usages de cette salle immersive pour le CEA sont multiples : reconstruction de locaux en 3D, simulation d’intervention manuelle ou téléopérée, cartographie de dosimétrie, visite virtuelle d’installation, vérification de conception, formation des opérateurs, sécurité.

L’arrivée de « PRESAGE 2 » à Marcoule témoigne de l’importance de la digitalisation des procédés mis en œuvre pour la conduite des projets nucléaires. Elle est aussi une opportunité pour les entreprises régionales de la filière nucléaire, qui sont susceptibles d’y avoir accès dans le cadre des grands marchés de démantèlement passés par le CEA.

Source : cea

Des composants optiques capables d’optimiser le transport de l’énergie lumineuse

L’optique non imageante, ou optique anidolique, est une branche de l’optique qui vise à concevoir des dispositifs tels que lentilles ou miroirs, réfléchissant ou réfractant la lumière émise depuis une source. Il ne s’agit donc pas de reconstituer l’image de la source mais bien d’orienter la lumière sur des trajets choisis. « En appliquant les lois d’optique de Descartes, le défi est de calculer la forme d’une lentille ou d’un miroir de façon à concentrer la lumière exactement là où l’on veut » explique Boris Thibert, enseignant-chercheur UGA au Laboratoire Jean Kuntzmann de Grenoble. Les applications principales concernent la conception de fours solaires, de lampadaires, de phares de voitures, et plus généralement l’optimisation de zones d’éclairage et la réduction de la pollution lumineuse.

Optimiser le transport de la lumière : un problème mathématique

Il existe plusieurs variantes des problèmes inverses de modélisation de miroirs ou de lentilles, en fonction de la géométrie de la source lumineuse et de la cible à éclairer. L’équation principale qui régit ces problèmes d’optique non imageante est une équation de conservation d’énergie qui est une équation de type Monge-Ampère. C’est une équation aux dérivées partielles non linéaire, beaucoup étudiée en géométrie, mais difficile à résoudre numériquement. Dans un certain nombre de cas, cette équation se ramène à un problème de transport optimal. Le transport optimal est un domaine très actif des mathématiques depuis les années 1990, et a été notamment au cœur des recherches de Cédric Villani et Alessio Figalli, des mathématiciens récompensés récemment par des médailles Fields. Le transport optimal intervient en mathématiques fondamentales, mais est aussi utilisé pour formuler des problèmes venant de domaines très variés, de la chimie quantique au machine learning en passant aussi par l’optique.

De la théorie à la fabrication

Ces dernières années, des méthodes géométriques, appelées semi-discrètes, ont été utilisées pour discrétiser et résoudre numériquement des problèmes de transport optimal. Les premières mises en œuvre algorithmiques nécessitaient malheureusement un temps de calcul absolument prohibitif. Dans un travail récent, qui sera publié prochainement dans le Journal of the European Mathematical Society, Jun Kitagawa (Université du Michigan), Quentin Mérigot (Université Paris-Sud) et Boris Thibert (Université Grenoble Alpes) ont développé et analysé mathématiquement un algorithme permettant en principe de résoudre des problèmes de transport optimal de très grandes tailles. « Le transport optimal est un problème qui nous intéresse depuis de nombreuses années, Quentin Mérigot et moi » raconte Boris Thibert « Nous avons, avec Jun Kitagawa, proposé et analysé un algorithme qui permet de résoudre des problèmes de transport optimal dans un cadre général. Il s’agissait d’un travail théorique. Le travail avec Jocelyn Meyron a consisté à adapter cet algorithme pour construire des miroirs et des lentilles. Ce n’est pas si fréquent en mathématiques de produire des objets. Là, nous sommes allés jusqu’à la réalisation de lentilles et de miroirs. »

Un algorithme générique

Et c’est l’aboutissement de ce travail qui fait l’objet de la publication des chercheurs dans la revue Transactions on Graphics. Leur méthode permet de traiter plusieurs problèmes d’optique anidolique (sources ponctuelles ou parallèles, miroirs ou lentilles, composants convexes ou concaves, champs proches ou lointains) de manière unifiée, précise et complètement automatique. Les résultats ont été validés par des expériences numériques mais aussi par la création de prototypes physiques. Un premier travail de reformulation mathématique et surtout de développement informatique conséquent permet de traiter des cibles lumineuses lointaines. L’article introduit également une approche itérative permettant de traiter des cibles plus réalistes, dites en champ proche, en partant de la solution du champ lointain. Les chercheurs ont ainsi réussi à fabriquer une lentille qui, éclairée par une lumière parallèle uniforme comme celle du soleil, projette sur un mur l’image du caractère japonais Hikari, qui signifie lumière.

Des composants optiques d’une précision étonnante

Le même algorithme permet en réalité de définir la forme d’une lentille ou d’un miroir capable de transformer une lumière parallèle et uniforme en n’importe quelle image. « Au départ, en 2010, une entreprise nous avait contactés pour travailler sur l’automatisation de la construction des phares de voiture. Nous avons collaboré avec eux plusieurs années et travaillé en parallèle sur des problèmes de transport optimal et d’optique non imageante. Nous sommes finalement arrivés à un résultat très précis, au-delà des attentes initiales » conclut Boris Thibert.

Source :  cnrs

Fin des soutiens aux centrales charbon en Europe en 2025

Le projet de règlement définit les conditions à vérifier pour que les centrales thermiques puissent bénéficier des subventions publiques accordées dans le cadre des mécanismes de capacité. Ces mécanismes visent à rémunérer les producteurs d’électricité qui maintiennent en veille des centrales thermiques pour garantir que l’approvisionnement en électricité soit suffisant pour répondre aux pics de consommation. Ces « générateurs de pics » sont considérés comme essentiels pour maintenir l’équilibre du réseau électrique en période de pointe de consommation et éviter les coupures de courant, en particulier en hiver. Ils ne seraient pas rentables sans le soutien de l’État.

Le règlement en construction instaure une limite d’émissions de 550 grammes de CO2 par kilowattheure (kWh) d’électricité produite. Les nouvelles centrales qui émettent davantage de CO2 et démarrant leurs opérations après l’entrée en vigueur de la nouvelle législation ne pourront pas participer aux mécanismes de capacité. Les centrales électriques déjà en fonctionnement et émettant plus de 550 grammes de CO2  par kWh et 350 kg de CO2 en moyenne par an et par kilowatt installé ne pourront plus participer aux mécanismes de capacité après le 1er juillet 2025.

Des dérogations pour les contrats signés avant 2020

« Aujourd’hui, nous avons signé la fin du charbon en Europe », s’est félicité sur Twitter Miguel Arias Cañete, le commissaire européen au climat. « Les mécanismes de capacité ne seront plus utilisés comme subventions cachées aux combustibles fossiles très polluants, ce qui aurait été à l’encontre de nos objectifs pour le climat. » Cette disposition vise à aider l’Union européenne à atteindre ses objectifs climatiques pris dans l’Accord de Paris

La Pologne a toutefois obtenu  « une clause d’antériorité ». Elle protège les contrats signés avec les producteurs d’énergie dans le cadre du système de capacité avant le 31 décembre 2019. « C’est une faille énorme – voire même un tunnel – dans lequel les États membres comme la Pologne et la Grèce vont se ruer pour profiter des douze mois restants », s’alarme Roland Joebstl, du Bureau européen de l’environnement (BEE).

Prix Roberval : « Géomatique » parmi les finalistes !

Que recouvre le domaine de la géomatique ?

A l’origine, il s’agit de la fusion entre les termes géographie et informatique, autrement dit tout ce que l’informatique a pu apporter dans l’utilisation des données géolocalisées, c’est-à-dire disposant de coordonnées géographiques. En fait, ce terme recouvre actuellement toutes les techniques de mesures topographiques (topométrie de terrain, photogrammétrie et lasergrammétrie, géodésie spatiale), et celles de leur gestion (avec tout le domaine des systèmes d’information géographique, les SIG, et l’informatique très spécialisée qui s’y rattache) et de leur représentation (cartographie sur écrans et parfois encore sur papier, un volet artistique qui rend aisée la compréhension visuelle des extractions de données).

Quelles sont les principales applications ?

Le domaine historique, dont l’importance est toujours aussi grande, c’est le métier du géomètre ainsi que celui du fournisseur de données géographiques de référence (l’IGN en France), ainsi désigné car le terme de cartographe ne décrit plus bien ce secteur. De nouveaux domaines se sont ajoutés : de nombreuses applications grand public, comme le guidage GNSS (extension du GPS) pour les véhicules, les géoportails permettant aux administrations et aux élus de communiquer avec les citoyens, le géomarketing, qui permet d’optimiser les implantation commerciales, ou encore les fonctions nouvelles sur smartphones, basées sur les calculs à partir des images, permettant par exemple de mesurer facilement un appartement.

Quels sont les grands enjeux à venir de la géomatique ?

Continuer à s’ouvrir vers le grand public, car toute nouvelle application de ce type rencontre un nombre d’usagers sans commune mesure avec les utilisateurs techniques traditionnels, et cela redimensionne complètement les possibilités offertes. Actuellement, tous les développements sont portés par une utilisation de plus en plus intensive de l’informatique, dont la quasi-absence de limites de capacités mémoire rend possibles des traitements extrêmement complexes.

La géomatique est-il un secteur porteur pour les ingénieurs ?

Extrêmement porteur ! Ce secteur manque durablement d’ingénieurs malgré l’accroissement régulier des effectifs formés dans ce domaine. Tous ces développements informatiques évoqués ne sont, en fait, limités que par le trop faible nombre d’ingénieurs disponibles… Les deux principales spécialisations qui actuellement font le plus défaut sont celle de géomètre dans le secteur privé, géomètre-expert et ingénieur spécialiste de la mesure, et le spécialiste en SIG capable de programmer des développements sur mesure, avec des connaissances à la fois en géomatique générale et en programmation informatique.

>> Découvrez la rubrique « Géomatique » 

>> Découvrez un article de la rubrique Géomatique en remplissant ce formulaire !

 

Ingénieur géographe dès 1977 puis professeur des universités depuis 1991, Michel Kasser a dirigé l’ESGT de 91 à 99, puis l’ENSG de 2003 à 2011. Il s’est spécialisé dans les aspects physiques et techniques de la géomatique, en particulier la géodésie et la photogrammétrie.

Des failles de sécurité brouillent la 5G

Mis en œuvre depuis l’introduction de la norme 3G, l’AKA (Authentication and Key Agreement) est toujours pointé du doigt.

Dans un rapport, une équipe du Laboratoire d’informatique Loria –  en collaboration avec des chercheurs de l’École Polytechnique Fédérale de Zurich et l’Université de Dundee et le Centre National sur la Cybersécurité de Sarrebruck – démontre que le protocole présente de sérieuses faiblesses.

Basé principalement sur la cryptographie symétrique et un numéro de séquence (SQN), le protocole AKA est chargé d’assurer la sécurité entre les utilisateurs mobiles et les stations de base. Il était auparavant exploité par les dispositifs de surveillance, tels que le StingRay, utilisés par des services de police…

Un kit à 1000 €

Conscient des risques, l’organisme en charge des normes de téléphonie mobile, le 3GPP, a amélioré AKA avant le déploiement de la 5G. Ce protocole intègre le cryptage asymétrique randomisé pour protéger les identifiants.

Problème, avec un kit (un logiciel, un lecteur de carte à puce et le logiciel OpenLTE), soit environ 1000 € et un ordinateur portable, il serait possible de multiplier les actions malveillantes.

« Nous montrons que l’apprentissage partiel de SQN conduit à une nouvelle classe d’attaques sur la vie privée », ont écrit les chercheurs. Bien que l’attaquant ait besoin de commencer avec une fausse station de base, l’opération peut continuer « même lorsque les abonnés s’éloignent de la zone d’attaque ».

Bien que l’attaque se limite à la surveillance de l’activité de l’abonné – nombre d’appels, SMS, localisation, etc. – plutôt que d’espionner le contenu des appels, les chercheurs pensent que c’est pire que les problèmes AKA précédents comme StingRay, car ceux-ci ne sont efficaces que lorsque l’utilisateur est à portée d’une fausse base.

Un attaquant pourrait utiliser le protocole AKA pour localiser et suivre les téléphones à proximité. La deuxième vulnérabilité est que les versions vulnérables d’AKA peuvent entraîner la facturation malveillante de certains utilisateurs lorsqu’ils utilisent des réseaux 5G.

Des failles sur les premiers réseaux 5G…

Or, les applications de la 5G devraient être très larges. Une récente analyse sur l’Internet des objets (IoT) prévoit que d’ici 2025, le nombre de dispositifs passera de 7 milliards à 21,5 milliards. Leur montée en puissance augmentera inévitablement la surface d’attaque avec la 5G.

Les auteurs ont déclaré avoir informé 3GPP, la GSM Association, les fournisseurs Huawei, Nokia et Ericsson et les opérateurs Deutsche Telekom et Vodafone UK.

La GSMA et la 3GPP ont annoncé que des mesures correctives seront entreprises pour les générations futures. Toutefois, les premières implémentations de la 5G souffriront probablement de cette vulnérabilité…

Forum Innovation du Cetim : les startups, l’avenir de l’industrie mécanique

Une quarantaine de startups étaient présentes le 6 décembre 2018 pour le premier Forum Innovation du Cetim, à Senlis. En tant que membre de l’Alliance pour l’Industrie du futur, le Cetim soutient l’innovation et le progrès dans les entreprises mécaniques.

Les startups étaient réunies dans différents espaces selon les solutions qu’elles proposent : innovations sur les composants, les données, le matériel et la robotique. Au cours de la journée, chaque représentant de startup a présenté ses technologies lors de pitchs de 10 minutes, avant de rencontrer les industriels intéressés. Des conférences étaient aussi organisées afin de questionner l’innovation en terme de financements et de propriété industrielle.

Philippe Lubineau, directeur de la recherche au Cetim, souhaite favoriser les liens entre les jeunes entreprises et les industriels. Il explique : « Les partenariats avec les startups permettent aux entreprises de s’approprier les technologies de l’industrie du futur et de profiter de la transition numérique pour créer de nouvelles opportunités. » Une collaboration avantageuse pour chacun des partis car elle offre aux startups un moyen de se développer tout en modernisant l’industrie mécanique.

Pour Justin Doucerain, commercial chez la startup Siatech qui propose des systèmes de commande main-libre pour les machines de levage, ce Forum est l’occasion d’élargir son réseau, voire de déclencher de la vente. « Nous sommes venus ici pour rencontrer des constructeurs mais aussi par curiosité, pour découvrir de nouveaux systèmes. J’ai vu par exemple des technologies en robotique qui pourraient être utile dans notre domaine. »

Techniques de l’Ingénieur a aussi assisté au Forum avec sa caméra et a accompagné les startups participantes et les organisateurs de la journée.

Alexandra Vépierre

Village de la Chimie des Sciences de la Nature et de la Vie

Les entreprises ont et auront de plus en plus besoin de chimistes de tous niveaux, dans des domaines d’activités et de compétences de plus en plus nombreux. Au Village, consacré aux Sciences de la Chimie, les entreprises montrent concrètement les carrières d’avenir qu’elles peuvent offrir ; leurs professionnels présents, de la recherche à la production, témoignent de l’intérêt des métiers auxquels ils ont été formés et de leur enthousiasme à les exercer.

La diversité des secteurs professionnels représentés au Village montre la grande variété des secteurs d’activité ayant besoin de chimistes.

Le Village a permis de créer de réels partenariats et un lieu d’’échanges extrêmement riches entre le monde de l’éducation et le monde de l’entreprise ; entre les professionnels de l’entreprise, tous niveaux confondus de l’opérateur au chercheur, et les acteurs de l’éducation pour toutes les filières de formation accédant aux métiers présentés, du Lycée à l’Université et aux Grandes Ecoles, avec les académies, les associations de parents d’élèves et de responsables familiaux.

Nous sommes certains que nous pouvons offrir aux futurs diplômés l’information et les témoignages qui leurs permettront de bâtir leur projet d’avenir et de démarrer leur vie professionnelle.

C’est pour cela que participent au Village tous les majors de la profession mais aussi toutes les entreprises, jusqu’à la start-up, qui considère que le choix des filières de formation doit s’effectuer auprès des jeunes jusqu’aux études supérieures pour couvrir toute l’étendue des compétences dont elles ont et auront besoin.

Sont aussi présents toutes les écoles dont les cursus concernent les métiers des Sciences de la Chimie (chimie, biologie, …), les universités et les écoles d’ingénieurs, directement ou par l’intermédiaire de la Fédération Gay Lussac.

La formation par alternance et plus particulièrement l’apprentissage a aussi une place prépondérante au Village. l’AFI24, CFA hors murs, y présente toutes les filières de formations professionnalisantes, filières qui s’imposent comme des voies d’excellence pour l’insertion professionnelle.

En complément, les jeunes peuvent participer à des ateliers spécifiques animés par des professionnels de l’insertion (Union Nationale des Associations Françaises des Ingénieurs Chimistes, de la Société Chimique de France…). De plus, grâce à une mobilisation de la branche professionnelle de la Chimie (FRANCE CHIMIE ILE de France et FRANCE CHIMIE) et des entreprises présentes, ils sont informés des possibilités de stages et des emplois possibles parmi des entreprises présentes ou plus largement celles concernées par cette Science.

Enfin, des partenariats ont été mis en place avec UNIVERSCIENCE, nouveau partenariat pour 2019, la SFC, la Fondation de la Maison de la Chimie, le Collège de France et l’Académie des Sciences, favorisant la participation de plus en plus importante de scientifiques de très haut niveau venant, à travers conférences et témoignages, communiquer leur enthousiasme et montrer tout le potentiel des Sciences de la Chimie.

2018/2019 a une importance toute particulière pour la Chimie : L’Education Nationale a souhaité que cette année scolaire soit l’année de la Chimie de « l’Ecole à l’Université ». En outre 2019 est l’année des 150 ans du Tableau Périodique des Eléments Chimiques (proclamée par l’ONU), et à Paris se dérouleront le 47ème Congrès Mondial de l’Union Internationale de Chimie Pure et Appliquée (UICPA) ainsi que des Olympiades Internationales de la Chimie.

Venez participer vous aussi à cette belle histoire ! 

Nous sommes prêts à vous accueillir au Village pour vous apporter toutes les précisions nécessaires à votre avenir professionnel.

France Chimie Île-de-France

La Corée inaugure une ville artificielle connectée pour le transport autonome

A Hwaseong, à une heure au sud de Séoul, K-city est à présent opérationnelle. Cette ville artificielle dédiée au développement des transports autonomes s’étale sur 320 ha – soit presque trois fois les 130 ha de l’installation Mcity de l’université du Michigan – et a coûté près de 10 millions d’euros d’investissement. Inaugurée fin novembre par la Korea Transportation Safety Authority (KOTSA) et par KT (ex-Korea Telecom), elle comprend cinq environnements d’essais : autoroutes, rue de centre-ville, route de banlieue, parc de stationnement et installations collectives. On peut y trouver de nombreuses situations de circulation telles que des barrières de péage, des tunnels, des carrefours, des pistes cyclables, des rues de différentes largeurs, des routes abîmées et des chantiers ou encore des passages piétons.

Entièrement connectée

Les réseaux de communication et les systèmes avancés de contrôle de véhicule ont été déployés et développées conjointement par Samsung Electronics, KT et Hyundai Motors. Plusieurs réseaux sont disponibles tels que 5G, 4G LTE et V2X (Vehicule-to-Everything) qui permet la communication des véhicules entre eux et avec différentes infrastructures routières. Le site accueille déjà plusieurs entreprises, universités et centres de recherches qui viennent y tester leurs solutions liées aux transports autonomes. A l’occasion de l’inauguration, une démonstration du système « 5G remote cockpit » a été dévoilée : un système qui permet de contrôler des situations routières en temps réel avec une communication entre les véhicules, les appareils mobiles et les infrastructures routières. En cas d’urgence, le système peut intervenir sur la situation pour prévenir les accidents. Un système V2I (Vehicle-to-infrastructure) a aussi été présenté, il permet un contrôle visuel de la situation sur les routes en temps réel en associant la 5G à des caméras haute définition. Le premier opérateur mobile du pays, SK Telecom a aussi profité de cette journée pour annoncer le développement d’une option où l’utilisateur du véhicule autonome fourni son point de départ et sa destination pour appeler un véhicule et une technologie de détection de l’environnement routier via une caméra fixée sur la voiture qui permet de mettre à jour les données de cartes routières de l’entreprise.

Des tests dans le monde entier

Cet intérêt sur la voiture autonome n’est pas nouveau en Corée où des solutions sont déjà testées en environnement réel, généralement portée par des véhicules Hyundai. Le gouvernement coréen s’est particulièrement investi sur ces développements en ayant récemment assoupli les règles d’obtention de permis de conduite autonome sur route ouverte avec une seule personne physique nécessaire à l’intérieure et la possibilité de proposer des véhicules sans volant ni pédale. Mais la Corée n’est évidemment pas le seul pays à développer des solutions. On assiste réellement à un engouement mondial (tant des constructeurs de véhicules que des acteurs de l’IA et des télécommunications) où les tests grandeurs natures se multiplient, notamment sur des zones bien balisées comme les aéroports où les campus universitaires et technologiques. Parmi les dernières annonces marquantes, on peut par exemple citer le fournisseur internet russe Yandex et ses taxis sans conducteurs sur le campus technologique d’Innopolis où encore la zone de tests routiers Astazero en Suède qui a été équipée en 5G pendant un an (2018).

Un pas de plus vers les ordinateurs quantiques

Les ordinateurs les plus puissants d’aujourd’hui permettent de réaliser des calculs très complexes. Cependant, il n’est pas possible de résoudre les problèmes (nombreux) où le nombre de solutions possibles croît exponentiellement. Comment résoudre ces problèmes ? En créant des ordinateurs quantiques !

Aujourd’hui, les bits, unités de mesure de base en informatique, peuvent exister sous deux formes seulement : 0 et 1. Or les bits quantiques peuvent exister dans des états qui correspondent à 0 et 1 à la fois : c’est la superposition quantique. Cependant, ces états superposés peuvent exister seulement s’ils ne sont pas mesurés ou observés. Par conséquent, les qubits (bits quantiques) doivent à la fois être isolés et interagir avec de nombreux autres qubits.

Une solution prometteuse consiste à construire de petits systèmes de qubits reliés entre eux par des liens optiques. L’information stockée dans un qubit est transférée à un autre qubit par le biais d’un photon, particule élémentaire composant la lumière. Un tel système présente deux obstacles conséquents : un photon transporte une très faible quantité d’énergie et les systèmes minuscules contenant les qubits interagissent peu avec de la lumière si faible.

Le Prof. Dayan et son équipe à l’Institut Weizmann essaient, comme plusieurs équipes dans le monde, de trouver une solution à ces obstacles. Ils ont réussi, pour la première fois, à créer une porte logique dans laquelle un photon et un atome échangent automatiquement l’information qu’ils transportent.

Le principe est le suivant : le photon transporte un qubit et l‘atome, qui est un système quantique, est un autre qubit. Chaque fois qu’ils se rencontrent, ils échangent automatiquement et systématiquement leurs informations. Cette porte logique peut donc être utilisée pour échanger de l’information à la fois à l’intérieur de et entre ordinateurs quantiques. Cette porte ne nécessite pas de contrôle extérieur et peut par conséquent être utilisée pour créer de larges réseaux. Un pas de plus vers les ordinateurs quantiques !

Rédactrice : Odélia Teboul, doctorante à l’Université hébraïque de Jérusalem

Source : www.diplomatie.gouv.fr

La première ferme d’hydroliennes fluviales est sur le Rhône

Les quatre turbines d’Hydroquest immergées dans le Rhône, à Caluire-et-Cuire, dans la métropole de Lyon, sont désormais raccordées au réseau Enedis par le producteur d’électricité renouvelable Hydrowatt. Voie Navigable de France a accordé à ces turbines une concession de 18 ans. Coût d’investissement : 1,7 million d’euros. Le syndicat des énergies renouvelables (SER) veut y voir « les débuts prometteurs d’une nouvelle filière industrielle et propice à l’export, car adaptée aussi bien aux besoins énergétiques croissants des pays industrialisés que des pays émergents ».

Cette ferme totalise une puissance de 320 kilowatts et permettra de produire 1 gigawattheure d’électricité par an. Soit de quoi alimenter 400 foyers en électricité, hors chauffage. Les turbines de ces hydroliennes immergées dans l’eau convertissent l’énergie cinétique du courant fluvial en électricité, ensuite exportée à terre pour être consommée.

Une nouvelle filière à développer

Les hydroliennes ont été fabriquées à Cherbourg (Manche) par les Constructions mécaniques de Normandie (CMN) et assemblées au port Edouard Herriot de Lyon, avant d’être acheminées par voie d’eau. Le SER vante les mérites de cette énergie renouvelable et abondante qui « offre également une production électrique extrêmement prédictible ». Les différentes technologies existantes « présentent l’avantage de ne pas générer de pollution, qu’il s’agisse d’émissions de gaz à effet de serre ou de polluants pour l’eau », selon l’organisme. Le SER ajoute qu’ « après l’installation des turbines, les coûts d’exploitation et de main-d’œuvre sont faibles ».

Plusieurs acteurs français sont présents sur ce jeune marché et divers centres de recherche se consacrent avec les industriels et les développeurs à ces nouvelles énergies renouvelables. « La géographie du territoire français, avec de nombreux fleuves et des zones de forts courants marins, lui offre de nombreuses opportunités d’expérimenter ces technologies et d’exploiter ses ressources pour produire de l’énergie », assure le SER.

Un soutien gouvernemental à confirmer

HydroQuest souhaite lancer une nouvelle filière industrielle française. L’entreprise déploiera l’année prochaine un parc de 39 hydroliennes au pied du barrage de Génissiat dans l’Ain pour une puissance installée de 2 mégawatts, en partenariat avec la Compagnie nationale du Rhône (CNR).

L’hydrolien n’est pas inclus dans la programmation pluriannuelle de l’énergie (PPE). Le SER demande donc au Gouvernement « de confirmer son soutien à la filière ». Cela passe par le fait de donner « dès maintenant des perspectives de développement en France à moyen terme, en mer comme dans les fleuves ». Ce schéma traditionnel de développement des énergies renouvelables par soutien public participera à la baisse des coûts et à l’amélioration des technologies. Il donnera aussi la visibilité nécessaire pour « mobiliser des investisseurs et financeurs, progresser sur leur référencement technique et ainsi préparer la réussite de leur développement commercial, en France et à l’étranger », prévient le SER.

La France se dote d’un plan d’adaptation au changement climatique

Les sujets consacrés à la lutte contre le changement climatique parlent avant tout d’atténuation, via la baisse des émissions de gaz à effet de serre. Mais une facette est toute aussi importante : celle de l’adaptation. En effet, quels que soient les résultats à venir des nouveaux engagements, les émissions de gaz à effet de serre passées rendent inéluctables des impacts réels auxquels la France doit se préparer. Inondations, submersion, crues, cyclones, vagues de chaleurs, sécheresse, incendies et précipitations sont des mots avec lesquels il va falloir se familiariser.

Dans cette perspective, la France se dote d’un deuxième Plan national d’adaptation au changement climatique (PNACC-2) pour la période 2018-2022. Ce nouveau plan comprend 58 actions réparties selon six domaines d’action : gouvernance et pilotage, connaissance et information, prévention et résilience, adaptation et préservation des milieux, vulnérabilité de filières économiques, et renforcement de l’action internationale. Le PNACC-2 se base sur une hausse future de la température moyenne de la Terre de 2 °C par rapport à l’ère préindustrielle, en cohérence avec les objectifs de l’Accord de Paris. Il n’exclut pas des scénarios plus pessimistes. Le suivi des actions sera assuré par une commission spécialisée du Conseil national de la transition écologique (CNTE).

Lumière sur la prévention et la résilience

Il s’agit avant tout de « protéger les Français des risques liés aux catastrophes dépendant des conditions climatiques ». En particulier, d’ici 2050, la moitié des espaces naturels français métropolitains seront soumis au risque incendie élevé. Pour les protéger, le gouvernement va acquérir 6 nouveaux avions bombardier d’eau..

Les risques étant amenés à se développer, le gouvernement entend aussi renforcer la vigilance météo. À cette fin, cinq nouveaux radars seront déployés d’ici 2021. Le système d’alerte et d’information des populations sera étendu en outre-mer avec un premier dispositif de 15 sirènes déployé dès 2019 aux Antilles.

Selon les projections les plus pessimistes, la France pourrait connaître des canicules de 90 jours tous les ans d’ici 2100. « Sans amélioration du bâti, le taux d’équipement des logements français en climatisation passerait de 4 à 30 % d’ici 2050 », note le ministère. Par ailleurs, la hausse du niveau de la mer pourrait atteindre 1 mètre d’ici la fin du siècle en France : 19 800 km de routes et 2 000 km de voies ferrées seraient alors régulièrement inondés. Le plan compte donc faire un point complet des normes et référentiels techniques pour les infrastructures afin de prendre en compte le climat futur.

Préparer le secteur économique

Le changement climatique va impacter fortement plusieurs filières économiques. Le gouvernement entend identifier les filières les plus à risque pour définir les meilleures mesures d’accompagnement à mettre en place. En particulier, le risque incendie et la hausse des températures menacent le secteur forestier. Pour accompagner le secteur, le PNACC-2 compte créer de nouveaux outils d’aide à la décision, notamment pour aider les professionnels à choisir les meilleures essences à planter.

Par ailleurs, le tourisme littoral, en outre-mer et en montagne, fera l’objet de réflexions et de mise en place de plans d’actions pour l’adaptation des activités au changement climatique. Enfin, l’Europe dédie des fonds spécifiques à l’adaptation au changement climatique. Toutefois, sur les 298 millions d’euros consacrés, seuls 2 % ont été dépensés et 36 % programmés. Le gouvernement lancera donc une étude sur les freins à la mobilisation locale de ces fonds européens.

Coup dur pour les constructeurs automobiles : les nouvelles normes des émissions pour les véhicules diesel sont jugées trop élevées

Une marge de manœuvre de 110% pour les émissions

Dans un arrêt rendu le 13 décembre, le Tribunal de l’Union européenne a tranché en faveur des maires des villes de Bruxelles, Madrid et Paris à la suite d’un recours déposé pour contester le règlement modifiant la norme Euro 6 sur les émissions de gaz polluants des voitures.

En 2017, la Commission européenne avait fixé de nouvelles normes d’émissions d’oxydes d’azote (NOx) pour les essais d’homologation de voitures neuves en condition réelle de conduite. Cette nouvelle dérogation donnait une marge de manœuvre aux fabricants de voitures de 110 % pour les émissions de NOx (et de 50% à partir de 2020). En d’autres termes, le plafond théorique légal d’émission de NOx passait de 80 mg/km à 168 mg/km (puis à 120 mg/km en 2020).

Le tribunal annule donc partiellement le règlement en estimant que cette autorisation d’émettre deux fois plus d’oxydes d’azote (NOx) pour les tests de pollution est illégal et ajoute que la Commission n’est pas compétente pour modifier les limites d’émission Euro 6. La cour de justice européenne accorde un an à la Commission Européenne pour revoir les critères d’homologation et mettre en place une nouvelle règlementation.

Une règle qui s’inscrit dans le contexte du “dieselgate”

Cette tolérance législative avait suscité l’indignation des différents acteurs des sphères associatives et politiques sensibles à l’écologie. Comment se justifie-t-elle ?

Ces nouvelles normes pour l’homologation des voitures neuves, s’inscrivent dans le contexte particulier du scandale du « dieselgate », où plusieurs constructeurs automobiles avaient délibérément minoré les émissions de NOx lors des tests d’homologation des véhicules diesel. Le législateur européen avait alors modifié la norme Euro 6, en vigueur depuis 2014, pour éviter que la fraude ne se reproduise : lors de la mise en place des nouveaux tests d’homologation des véhicules européens, il a été décidé que ceux-ci intègreraient désormais des essais en conditions de conduite réelle. Or dans ces conditions, les mesures d’émissions de NOx sont nettement supérieures aux limites fixées par la norme Euro 6. L’industrie automobile a alors réclamé l’application de seuils de tolérance pour s’acclimater à ces nouvelles méthodes de calculs. La commission européenne a pris note de la demande et a ajouté au règlement une marge d’erreur appelée « facteur de conformité » afin de permettre aux constructeurs de s’adapter progressivement à la nouvelle forme Euro 6. De cette façon, les nouveaux modèles ont été autorisés à émettre jusqu’à 110 % de plus de monoxyde d’azote (NOx) que ce que la norme leur impose.

La cour de justice européenne affirme aujourd’hui dans son arrêt que ces limites fixées par la norme Euro 6 « constituent un élément essentiel de ce règlement, non modifiable par la Commission, et que ledit règlement prévoit que ces limites doivent être respectées en conditions de conduite réelles et, par conséquent, lors des essais RDE ». Les constructeurs automobiles devront donc répondre à la future norme, plus stricte.

L’Europe interdit plusieurs plastiques à usage unique

LUnion européenne prévoit des interdictions pures et simples d’objets en plastique à usage unique, lorsque des solutions de remplacement sont facilement disponibles et peu coûteuses. Elles s’appliqueront aux bâtonnets de coton-tige, couverts (fourchettes, couteaux, cuillères et baguettes), assiettes, pailles, touillettes pour boissons, contenants alimentaires et gobelets en polystyrène, avec ou sans couvercles, et aux tiges pour ballons en plastique. Ces objets seront remplacés par des alternatives produites à partir de matériaux plus durables. Les plastiques dits oxo-dégradables – ils contiennent un additif qui les dégrade en micro-fragments non biodégrables – seront également interdits. Le texte laisse au bon vouloir des États-membres l’établissement de mesures nationales pour réduire la consommation des récipients alimentaires et des gobelets en autres résines que le polystyrène expansé. « Cette nouvelle Directive européenne constitue un premier pas inédit pour sortir de notre culture du tout jetable », se félicite Laura Châtel, responsable du plaidoyer à Zero Waste France. En revanche, l’association dénonce « les pressions pour diminuer l’ambition du texte ». En particulier, le Parlement avait introduit un objectif de réduction de la consommation des gobelets et contenants alimentaires en plastiques de 25 %. Il a été retiré.

De nouvelles obligations pour les producteurs

Des objectifs spécifiques concernent les bouteilles. En premier lieu, les fabricants devront attacher le bouchon aux bouteilles plastiques d’ici 2024. À l’horizon de 2030, ils devront intégrer 30% de plastiques recyclés dans toutes les bouteilles de boisson, avec une étape intermédiaire à 25% pour les seules bouteilles en PET en 2025. Cette obligation en est accompagnée d’une autre : celle de collecter 90 % des bouteilles plastiques en 2029.

Les fabricants sont dans le viseur de l’Europe. Sur le principe du « pollueur-payeur », de nouveaux régimes de responsabilité élargie du producteur (REP) verront le jour pour les emballages, les mégots de cigarettes et les filets de pêche. Les fabricants devront prendre en charge les coûts de gestion et de nettoyage des déchets et les mesures de sensibilisation du public.

L’Union européenne prévoit par ailleurs de nouvelles exigences en matière d’étiquetage. Les étiquettes des protections hygiéniques, lingettes humides et ballons devront afficher clairement des informations relatives aux consignes de tri, à l’impact nocif de ces produits en cas d’abandon dans la nature et à la présence de matières plastiques dans ces produits.

L’accord provisoire doit maintenant être officiellement approuvé par le Parlement européen et le Conseil d’ici au printemps 2019. Ensuite, les États membres devront transposer les règles pour une entrée en vigueur en 2021.