84 milliards d’euros de catastrophes naturelles en 2018

Ouragans, tsunamis, tempêtes, cyclones : 2018 n’a pas fait figure d’exception en termes de catastrophes naturelles. Le tsunami indonésien du 22 décembre dernier est emblématique des épisodes météorologiques catastrophiques qui ont frappé le monde cette année. Provoqué par une éruption volcanique, le tsunami a causé la mort de plusieurs centaines de victimes et engendré de très lourds dégâts matériels.

C’est sur ce point que l’ONG britannique Christian Aid a focalisé ses recherches. Dans son rapport, Christian Aid montre que le coût des catastrophes naturelles atteint plusieurs dizaines de milliards d’euros. Ces sommes sont liées aux destructions souvent très lourdes engendrées par ces épisodes météorologiques violents.

Palme d’or pour les ouragans Florence et Michael

Les catastrophes naturelles les plus coûteuses ont eu lieu dans l’hémisphère nord, à l’instar de l’ouragan Florence. En septembre 2018, cet ouragan de catégorie 3 a balayé le sud-est des États-Unis, frappant violemment la Caroline du Nord. La Caroline du Sud, la Floride et la Virginie ont elles aussi été touchées par la catastrophe, mais de façon moindre. En tout, plus de cinquante personnes sont décédées durant cet ouragan. En plus du nombre de victimes qui fait de Florence un véritable drame, la catastrophe est également financière. Selon les chiffres révélés par le gouverneur de Caroline du Nord, l’ouragan a causé 17 milliards de dollars de dégâts, ce qui en fait la catastrophe naturelle la plus coûteuse de 2018.

Avec Florence, Michael, qui a frappé l’Amérique début octobre 2018, fait partie des ouragans les plus dévastateurs que les États-Unis aient connus durant leur histoire. Cette fois-ci, c’est l’extrême nord-est de la Floride, le Panhandle, qui a été touché. Les vents qui ont atteint jusqu’à 245 km/h ont causé la mort de 45 personnes sur le territoire américain. Des pays d’Amérique centrale ont eux aussi été touchés par l’ouragan Michael. En effet, 13 personnes sont décédées au Honduras, au Nicaragua et au Salvador. L’ouragan a également laissé sur son passage 15 milliards de dollars de détériorations. Selon l’ONG Christian Aid, les émissions de gaz à effet de serre directement imputables à l’homme ont eu pour conséquence d’intensifier la violence de ces épisodes météorologiques en faisant des catastrophes naturelles sans précédent.

Chine, Japon : là encore les catastrophes naturelles coûtent des milliards

En Chine, ce sont les intempéries dues à la mousson qui ont été catastrophiques. De nombreuses inondations ont ravagé le pays aux mois de juin et d’août. Dès les premières pluies diluviennes, le gouvernement avait déclaré l’état d’urgence alors que 15 personnes étaient mortes. Le niveau des inondations a également atteint des niveaux faramineux dans la région du Xinjiang, y causant 20 morts. Selon les autorités, les crues incontrôlables du mois de juin ont coûté plus de 3,9 milliards de dollars à la Chine. Au mois d’août, ce sont 4,5 milliards de dollars supplémentaires qui se sont ajoutés à la note pour des raisons similaires.

Au Japon, les très fortes chaleurs estivales ont mis la santé des habitants à rude épreuve. Plus de 30.000 personnes ont été admises à l’hôpital pour des crises cardiaques au mois d’août. 105 personnes n’ont pas survécu à ces attaques dans la seule ville de Tokyo, ce qui est un cas inédit pour la capitale nippone. Cet épisode de chaleur intense a suivi les inondations dues à la mousson du mois de juin. Celles-ci avaient causé 230 morts et provoqué plus de 7 milliards de dollars de dégâts. Enfin, le typhon Jebi, le plus violent de ces 25 dernières années a balayé le pays au mois d’août. Il a provoqué au moins 2,3 milliards de dollars de dégâts, notamment en inondant l’aéroport d’Osaka.

Filmer le cerveau pour mieux comprendre le sommeil

Le sommeil paradoxal est un état de sommeil particulier pendant lequel l’activité cérébrale est proche de celle de l’éveil tout en étant associée à une inhibition de l’activité musculaire. Il se caractérise notamment par des mouvements oculaires rapides et a longtemps été considéré comme uniquement impliqué dans les rêves et les processus émotionnels. Cependant, de récentes études ont montré qu’il jouait également un rôle majeur dans la plasticité neuronale de l’hippocampe, c’est-à-dire la capacité des neurones à reconfigurer leurs connexions.

Afin de mieux comprendre le fonctionnement du cerveau pendant le sommeil paradoxal, des chercheurs de l’unité Inserm 979 « Physique des ondes pour la Médecine », dirigée par Mickaël Tanter au sein de l’Institut Langevin (ESPCI Paris/CNRS) et récemment labellisée Accélérateur de recherche technologique « Ultrasons biomédicaux » en collaboration avec le laboratoire Neuroscience Paris-Seine (Sorbonne Université/CNRS/Inserm), ont étudié l’activité cérébrale chez le rat pendant son sommeil. Pour cela, ils ont couplé la technique d’électroencéphalographie (EEG), qui enregistre l’activité électrique des neurones, avec une technique d’imagerie par ultrasons ultrarapides appelée fUS (pour functional ultrasound). Cette technique innovante, développée par l’équipe de Mickaël Tanter, permet de visualiser avec une grande précision les variations des flux sanguins liés à l’activité neuronale dans l’ensemble du cerveau de rats éveillés et en mouvement.

L’équipe de recherche a observé que le sommeil paradoxal chez le rat est associé à une forte augmentation du débit sanguin dans le cerveau, se présentant sous forme de vagues qui atteignent d’abord les régions sous-corticales et se déplacent ensuite le long de l’hippocampe puis du cortex. En comparaison, les phases de sommeil non paradoxal et de réveil chez le rat inactif présentent des volumes sanguins cérébraux relativement bas.

Cette hyperactivité vasculaire lors du sommeil paradoxal est caractérisée par deux phases : l’une proche de ce qui est observé lors d’un enregistrement chez un rat en activité, et l’autre inconnue jusqu’alors, composée d’augmentations soudaines du débit sanguin que les chercheurs ont appelées « poussées vasculaires ». Ces dernières qui durent en moyenne 5 à 30 secondes, peuvent perdurer pendant 1 minute dans les régions corticales et sont particulièrement puissantes dans l’hippocampe.

Les chercheurs ont réussi à identifier un signal électrique dans l’hippocampe (zone cruciale pour la mémoire) caractéristique de ces pics d’augmentation du débit sanguin. Ce signal – des oscillations gamma à haute fréquence – est ordinairement observé chez un rat éveillé. Leur intensité lors du sommeil paradoxal est directement corrélée à celle de la poussée vasculaire, ce qui suggère que ces oscillations locales pourraient contrôler le débit vasculaire de l’ensemble du cerveau. «Cette information est cruciale, précise Antoine Bergel, co-auteur de l’étude, car elle permet de cibler des régions du cerveau très précises potentiellement impliquées dans la genèse de ces événements vasculaires intenses». Les scientifiques ont également constaté qu’il existait, durant le sommeil paradoxal, un phénomène de synchronisation vasculaire entre des aires cérébrales éloignées les unes des autres (cortex, hippocampe, et thalamus) bien plus important que dans tout autre état de sommeil ou d’éveil.

Ces travaux présentent les tout premiers films du cerveau entier durant le sommeil paradoxal et confirment l’intérêt des ultrasons neurofonctionnels pour la recherche fondamentale en neurosciences. A l’heure actuelle, la technique fUS reste difficile à appliquer chez l’être humain adulte. Cependant, il est d’ores et déjà possible de confirmer ces résultats chez le nouveau-né, tout en considérant que l’extrapolation à la physiologie humaine doit se faire avec prudence. Ces résultats représentent néanmoins une avancée majeure pour la compréhension du couplage entre activité électrique et vasculaire (un phénomène impliqué dans nombre de pathologies humaines comme les accidents vasculaires cérébraux ou l’épilepsie) et questionnent notre compréhension du sommeil paradoxal, dont la fonction reste inconnue.

Source : CNRS

CES 2019 : les innovations technologiques à retenir

Las Vegas a été le centre du monde high-tech. La ville a aussi été la capitale de la french tech puisque 414 entreprises françaises, dont 376 startups, ont exposé leurs innovations. Mais le CES a été, encore une fois, l’occasion d’annonces tonitruantes (ou d’effets d’annonce…) des poids lourds américains (à l’exception d’Apple).

Cette année, le thème principal a été l’aide à la vie autonome et les commande vocale et d’être assistés plus facilement.

Fréquence cardiaque et clim’

Il y a quelques jours, un cadre d’Amazon indiquait qu’Alexa était installée sur plus de 100 millions d’appareils construits par le géant du e-commerce ou ses partenaires. De son côté, Google a indiqué que sa solution était intégrée à des millions de smartphones Android. Après, rien ne prouve que le service est utilisé (il n’y a que Google qui le sait)…

Quoiqu’il en soit, 3500 marques ont développé des services autour de l’assistant vocal d’Amazon contre 1500 pour celui de Google.

Le CES a eu des faux airs de salon automobile. Les voitures sont de plus en plus présentes dans des stands. Ainsi Mercedes-Benz a dévoilé l’un de ses véhicules de prochaine génération, la Mercedes CLA 2020. Son coupé sera doté de nombreuses fonctions dites « intelligentes ». Par exemple, l’enregistrement de la fréquence cardiaque par une montre connectée permettra d’optimiser la climatisation. Les commandes sont prévues pour le troisième trimestre ou quatrième trimestre 2019.

Mercedes Benz

De son côté, Hyundai a présenté un nouveau concept de véhicule qui pourrait faciliter l’accès aux victimes de catastrophes naturelles. Cette « voiture à pied » utilise des jambes articulées pour se déplacer en dehors des routes après des inondations, des incendies et des tremblements de terre.

Changement climatique

La conduite autonome ne se limite plus aux voitures et aux camions. John Deere a encore une fois présenté sa moissonneuse-batteuse autonome qui peut être programmée à l’aide d’un GPS. Selon le fabricant, elle peut rester sur une trajectoire préétablie sans osciller de plus de 2,5 centimètres. Deux caméras à l’intérieur de la moissonneuse-batteuse surveillent également la qualité des semences et du grain récoltés.

Évidemment, les écrans plats ont fait l’objet de nombreuses annonces. Ce salon n’a pas été l’occasion de constater de réelles améliorations de la qualité de l’image, même si le 8K a fait l’objet de nombreuses démonstrations. Résultat, l’innovation se trouve ailleurs : la finesse des écrans, des dalles pliables ou enroulables (pour les téléviseurs, mais aussi pour des smartphones)…

Royole

Enfin, la protection de l’environnement a été à l’honneur. Sept startups ont été récompensées en tant qu’innovateurs du changement climatique. Elles ont présenté des idées novatrices sur la façon dont la technologie peut aider à conserver l’énergie et à assainir l’environnement .

Citons Blue Whale Company pour sa vanne intelligente détectant les fuites et la surconsommation dans les conduites, GoSun Fusion et son cuiseur solaire hybride qui permet de cuisiner jour et nuit avec uniquement de l’énergie solaire ou encore Lumi’in Flex et son lampadaire solaire à LED intelligent adaptable sur n’importe quel modèle.

Philippe Richard

95% de renouvelables en France est possible techniquement et économiquement selon l’ADEME

« Dès lors qu’on cherche à optimiser les coûts de production de l’électricité et réduire son coût pour le consommateur, l’étude de l’ADEME aboutit à une part très importante des EnR dans le système électrique français » souligne l’agence étatique dans son communiqué de presse.  « Pour le consommateur, l’augmentation progressive de la part des EnR dans le mix électrique permet de faire baisser le coût total de l’électricité jusqu’environ 90 €/MWh hors taxe sur le long terme (à comparer au coût actuel, près de 100 €/MWh), ceci malgré l’augmentation prévisible du prix des énergies fossiles et du CO2. Cette estimation prend en compte tous les coûts du système électrique (production, réseau, stockage, importation…) et garantit l’équilibre offre-demande horaire pour les sept années météorologiques testées. »

Ce niveau d’énergie renouvelable très élevé ne manque pas de susciter un débat relatif au maintien de la stabilité du réseau, aujourd’hui réalisé grâce à l’inertie des groupes tournants. Il s’avère que c’est techniquement possible, et à un coût très marginal. De nombreuses études réalisées par des experts en Australie, aux USA, en Allemagne et dans d’autres pays du monde parviennent à des conclusions similaires.  « L’étude estime que même avec 87% d’EnR en Europe continentale en 2050, il est possible, pour un très faible coût, de prendre en compte le niveau d’inertie minimum que se fixe le gestionnaire de réseau irlandais Eirgrid pour les prochaines années (lequel est confronté à cette problématique en raison de l’insularité du pays et d’un taux d’EnR élevé) » affirme l’ADEME.  A quel coût?  « Moins d’1 €/MWh  » estime l’organisme d’état, soit 0,1 c€/kWh. Autrement dit, rien du tout.  Maintenir un réseau électrique insulaire (Irlande) est plus difficile qu’au niveau du continent européen en raison des interconnexions électriques.  Donc ce qui est possible avec les normes irlandaises l’est a fortiori à l’échelle du continent européen électriquement interconnecté.

L’étude montre que les batteries des voitures électriques, dans le cadre de l’approche V2G-G2V (Vehicule-to-Grid / Grid-to-vehicule) peuvent jouer un rôle clé pour offrir de la flexibilité électrique. 10 millions de voitures électriques avec une puissance de charge / injection de seulement 3 kW l’unité, c’est 30 GW. Le potentiel est donc énorme. La puissance appelée moyenne en France est de 60 GW.

« Il s’agit de peser sur le débat à venir et d’éclairer les choix jusqu’en 2060  »   souligne le président de l’ADEME, Arnaud Leroy, un proche d’Emmanuel Macron, en introduction du rapport.  « Il ne s’agit pas de prétendre décider une fois pour toutes les choix d’investissements pour les quarante prochaines années, mais bien de s’assurer qu’un choix fait aujourd’hui ne va pas faire peser des coûts indus à nos enfants et petitsenfants quelques dizaines d’années plus tard.  »

L’étude montre par ailleurs que construire de nouveaux réacteurs en France constitue un non-sens économique.  En outre l’EPR finlandais pourrait subir de nouveaux retards.  « L’achèvement des tests de mise en service n’a pas progressé conformément au calendrier mis à jour », a déclaré en octobre 2018 la compagnie d’électricité finlandaise Teollisuuden Voima (TVO). Le projet de gigacentrale solaire d’EDF au Maroc (825 MW)  pourra être réalisé bien plus rapidement.

40% de renouvelables en 2030 ? L’objectif est très modeste comparativement à celui de l’Espagne ou d’autres pays du monde. La France serait-elle condamnée à faire presque deux fois moins bien que  son voisin ibérique ? Selon le PDG du groupe français Neoen, passer « en 5 ans » à 50% de renouvelables (dont 30% de solaire + éolien et 15% d’hydroélectricité) est tout à fait possible. Quand on veut, on peut.

Des robots pour transporter les larves de corail sur les récifs

Le réchauffement climatique affecte déjà sérieusement de nombreuses créatures vivant dans les océans. Les deux dernières années, la grande barrière de corail australienne a connu des épisodes massifs de blanchiment dus à une eau anormalement chaude. Pour éviter que ces épisodes répétitifs ne tuent les coraux qui ont mis des années à se développer, les scientifiques ont réhabilité des robots « rangers », utilisés pour protéger les coraux contre les étoiles de mer à couronne d’épines, afin qu’ils aident à la dissémination des larves de coraux vers les zones de récifs à restaurer.

La reproduction des coraux, dans une grande majorité des cas, passe par une ponte synchrone lors de laquelle un grand nombre de cellules reproductrices mâles et femelles sont libérées dans l’eau en un temps très court. Cette ponte a lieu seulement une ou deux nuits par an et ne dure que quelques heures par nuit. Lorsque les gamètes mâles et femelles se rencontrent, l’œuf se développe pour former une larve, appelée planula. Certaines espèces de coraux libèrent directement leurs larves dans l’eau après une fécondation interne. Dans ces deux types de fécondation, ce sont ces larves libérées dans le milieu et naturellement transportées par les courants qui vont permettre la régénération de récifs ou la colonisation de nouveaux substrats assurant également le brassage génétique entre différentes localisations géographiques.

Les chercheurs de l’Université de la Croix du Sud (Southern Cross University – SCU) et de l’Université de Technologie du Queensland (Queensland University of Technology – QUT), dirigés par le professeur Peter Harrison, et le professeur Matthew Dunbabin, vont utiliser des robots afin d’aider les larves dans cette phase critique du cycle de vie des coraux. Les scientifiques vont tout d’abord collecter des centaines de milliers de cellules reproductrices lors de la ponte synchrone, qu’ils vont rassembler dans d’immenses enclos flottants sur les récifs. Une fois les larves formées, elles seront confiées aux robots qui les transporteront vers les sites ciblés, afin qu’elles forment de nouvelles colonies. Au bout de trois ans, ces coraux seront capables de se reproduire par ponte synchrone, complétant leur cycle de vie.

Deux ou trois robots ont été mis à contribution pour la ponte synchrone de l’été 2018 (fin novembre), robots qui avaient été développés à l’origine pour reconnaître et tuer les étoiles de mer à couronne d’épines, ces prédateurs invasifs de coraux. Les chercheurs estiment que ce coup de main artificiel devrait multiplier par cent la survie des polypes, base élémentaire d’une nouvelle colonie de coraux, après la fixation de la larve sur un support.

Source : www.diplomatie.gouv.fr

De la vie artificielle quantique a été créée dans le cloud

Ce protocole de vie artificielle créé par les chercheurs de l’UPV reproduit les comportements biologiques propres aux systèmes vivants tels que la mutation, l’interaction entre individus, la naissance et la mort. Il s’agit de la première conception expérimentale d’un algorithme quantique de vie artificielle qui suit les lois darwiniennes de l’évolution.

Chaque modèle d’organismes correspond à une unité de vie quantique et chacune d’elle est composée de deux cubes qui agissent respectivement comme génotype et phénotype. Le génotype contient l’information sur le type d’unité vivante présent et qui se transmet de génération en génération. Le phénotype contient les caractéristiques liées aux gènes, mais aussi à l’environnement des individus.

Cette expérimentation représente une réelle consolidation de la théorie de la vie artificielle quantique. L’enjeu à présent est de complexifier le prototype, de réaliser des émulsions quantiques plus précises et de parvenir à la suprématie quantique. La prochaine étape est donc de rajouter des caractéristiques : processus de robotique quantique, critères de genre, systèmes quantiques intelligents. Ce travail n’est que le début d’un futur caractérisé par l’auto-apprentissage des machines, l’intelligence artificielle et la vie artificielle.

Rédacteurs : Cécile Malavaud – Margot Buzaré

Source : www.diplomatie.gouv.fr

Une nouvelle salle immersive en réalité virtuelle pour les opérations nucléaires

Presage 2 est le nom de la toute nouvelle salle d’immersion en réalité virtuelle dont vient de s’équiper le CEA Marcoule. Cet équipement répond tout particulièrement aux besoins de la Direction de l’énergie nucléaire du CEA et, notamment, aux projets de démantèlement menés à Marcoule. L’étape de simulation et d’immersion constitue un véritable atout pour la préparation amont des interventions de démantèlement en milieu irradiant et donc hostile : étude et choix des meilleurs scenarii, vérification de la faisabilité d’opérations techniques, mais aussi formation des opérateurs notamment pour le pilotage de robots téléopérés.

Composée de deux murs d’image haute définition (4K), cette salle immersive offre une vision stéréoscopique et intègre de nombreux équipements et fonctionnalités : réalité augmentée, bras à retour d’effort, capture de mouvement, casques immersifs, son interactif, etc.  Cette technologie est animée grâce à une brique logicielle baptisée « Idrop », développée par le CEA, qui offre une approche globale d’une opération en milieu ionisant, et inclut en particulier la prise en compte de la dosimétrie pour les opérateurs et pour les matériels.

Les usages de cette salle immersive pour le CEA sont multiples : reconstruction de locaux en 3D, simulation d’intervention manuelle ou téléopérée, cartographie de dosimétrie, visite virtuelle d’installation, vérification de conception, formation des opérateurs, sécurité.

L’arrivée de « PRESAGE 2 » à Marcoule témoigne de l’importance de la digitalisation des procédés mis en œuvre pour la conduite des projets nucléaires. Elle est aussi une opportunité pour les entreprises régionales de la filière nucléaire, qui sont susceptibles d’y avoir accès dans le cadre des grands marchés de démantèlement passés par le CEA.

Source : cea

Des composants optiques capables d’optimiser le transport de l’énergie lumineuse

L’optique non imageante, ou optique anidolique, est une branche de l’optique qui vise à concevoir des dispositifs tels que lentilles ou miroirs, réfléchissant ou réfractant la lumière émise depuis une source. Il ne s’agit donc pas de reconstituer l’image de la source mais bien d’orienter la lumière sur des trajets choisis. « En appliquant les lois d’optique de Descartes, le défi est de calculer la forme d’une lentille ou d’un miroir de façon à concentrer la lumière exactement là où l’on veut » explique Boris Thibert, enseignant-chercheur UGA au Laboratoire Jean Kuntzmann de Grenoble. Les applications principales concernent la conception de fours solaires, de lampadaires, de phares de voitures, et plus généralement l’optimisation de zones d’éclairage et la réduction de la pollution lumineuse.

Optimiser le transport de la lumière : un problème mathématique

Il existe plusieurs variantes des problèmes inverses de modélisation de miroirs ou de lentilles, en fonction de la géométrie de la source lumineuse et de la cible à éclairer. L’équation principale qui régit ces problèmes d’optique non imageante est une équation de conservation d’énergie qui est une équation de type Monge-Ampère. C’est une équation aux dérivées partielles non linéaire, beaucoup étudiée en géométrie, mais difficile à résoudre numériquement. Dans un certain nombre de cas, cette équation se ramène à un problème de transport optimal. Le transport optimal est un domaine très actif des mathématiques depuis les années 1990, et a été notamment au cœur des recherches de Cédric Villani et Alessio Figalli, des mathématiciens récompensés récemment par des médailles Fields. Le transport optimal intervient en mathématiques fondamentales, mais est aussi utilisé pour formuler des problèmes venant de domaines très variés, de la chimie quantique au machine learning en passant aussi par l’optique.

De la théorie à la fabrication

Ces dernières années, des méthodes géométriques, appelées semi-discrètes, ont été utilisées pour discrétiser et résoudre numériquement des problèmes de transport optimal. Les premières mises en œuvre algorithmiques nécessitaient malheureusement un temps de calcul absolument prohibitif. Dans un travail récent, qui sera publié prochainement dans le Journal of the European Mathematical Society, Jun Kitagawa (Université du Michigan), Quentin Mérigot (Université Paris-Sud) et Boris Thibert (Université Grenoble Alpes) ont développé et analysé mathématiquement un algorithme permettant en principe de résoudre des problèmes de transport optimal de très grandes tailles. « Le transport optimal est un problème qui nous intéresse depuis de nombreuses années, Quentin Mérigot et moi » raconte Boris Thibert « Nous avons, avec Jun Kitagawa, proposé et analysé un algorithme qui permet de résoudre des problèmes de transport optimal dans un cadre général. Il s’agissait d’un travail théorique. Le travail avec Jocelyn Meyron a consisté à adapter cet algorithme pour construire des miroirs et des lentilles. Ce n’est pas si fréquent en mathématiques de produire des objets. Là, nous sommes allés jusqu’à la réalisation de lentilles et de miroirs. »

Un algorithme générique

Et c’est l’aboutissement de ce travail qui fait l’objet de la publication des chercheurs dans la revue Transactions on Graphics. Leur méthode permet de traiter plusieurs problèmes d’optique anidolique (sources ponctuelles ou parallèles, miroirs ou lentilles, composants convexes ou concaves, champs proches ou lointains) de manière unifiée, précise et complètement automatique. Les résultats ont été validés par des expériences numériques mais aussi par la création de prototypes physiques. Un premier travail de reformulation mathématique et surtout de développement informatique conséquent permet de traiter des cibles lumineuses lointaines. L’article introduit également une approche itérative permettant de traiter des cibles plus réalistes, dites en champ proche, en partant de la solution du champ lointain. Les chercheurs ont ainsi réussi à fabriquer une lentille qui, éclairée par une lumière parallèle uniforme comme celle du soleil, projette sur un mur l’image du caractère japonais Hikari, qui signifie lumière.

Des composants optiques d’une précision étonnante

Le même algorithme permet en réalité de définir la forme d’une lentille ou d’un miroir capable de transformer une lumière parallèle et uniforme en n’importe quelle image. « Au départ, en 2010, une entreprise nous avait contactés pour travailler sur l’automatisation de la construction des phares de voiture. Nous avons collaboré avec eux plusieurs années et travaillé en parallèle sur des problèmes de transport optimal et d’optique non imageante. Nous sommes finalement arrivés à un résultat très précis, au-delà des attentes initiales » conclut Boris Thibert.

Source :  cnrs

Fin des soutiens aux centrales charbon en Europe en 2025

Le projet de règlement définit les conditions à vérifier pour que les centrales thermiques puissent bénéficier des subventions publiques accordées dans le cadre des mécanismes de capacité. Ces mécanismes visent à rémunérer les producteurs d’électricité qui maintiennent en veille des centrales thermiques pour garantir que l’approvisionnement en électricité soit suffisant pour répondre aux pics de consommation. Ces « générateurs de pics » sont considérés comme essentiels pour maintenir l’équilibre du réseau électrique en période de pointe de consommation et éviter les coupures de courant, en particulier en hiver. Ils ne seraient pas rentables sans le soutien de l’État.

Le règlement en construction instaure une limite d’émissions de 550 grammes de CO2 par kilowattheure (kWh) d’électricité produite. Les nouvelles centrales qui émettent davantage de CO2 et démarrant leurs opérations après l’entrée en vigueur de la nouvelle législation ne pourront pas participer aux mécanismes de capacité. Les centrales électriques déjà en fonctionnement et émettant plus de 550 grammes de CO2  par kWh et 350 kg de CO2 en moyenne par an et par kilowatt installé ne pourront plus participer aux mécanismes de capacité après le 1er juillet 2025.

Des dérogations pour les contrats signés avant 2020

« Aujourd’hui, nous avons signé la fin du charbon en Europe », s’est félicité sur Twitter Miguel Arias Cañete, le commissaire européen au climat. « Les mécanismes de capacité ne seront plus utilisés comme subventions cachées aux combustibles fossiles très polluants, ce qui aurait été à l’encontre de nos objectifs pour le climat. » Cette disposition vise à aider l’Union européenne à atteindre ses objectifs climatiques pris dans l’Accord de Paris

La Pologne a toutefois obtenu  « une clause d’antériorité ». Elle protège les contrats signés avec les producteurs d’énergie dans le cadre du système de capacité avant le 31 décembre 2019. « C’est une faille énorme – voire même un tunnel – dans lequel les États membres comme la Pologne et la Grèce vont se ruer pour profiter des douze mois restants », s’alarme Roland Joebstl, du Bureau européen de l’environnement (BEE).

Prix Roberval : « Géomatique » parmi les finalistes !

Que recouvre le domaine de la géomatique ?

A l’origine, il s’agit de la fusion entre les termes géographie et informatique, autrement dit tout ce que l’informatique a pu apporter dans l’utilisation des données géolocalisées, c’est-à-dire disposant de coordonnées géographiques. En fait, ce terme recouvre actuellement toutes les techniques de mesures topographiques (topométrie de terrain, photogrammétrie et lasergrammétrie, géodésie spatiale), et celles de leur gestion (avec tout le domaine des systèmes d’information géographique, les SIG, et l’informatique très spécialisée qui s’y rattache) et de leur représentation (cartographie sur écrans et parfois encore sur papier, un volet artistique qui rend aisée la compréhension visuelle des extractions de données).

Quelles sont les principales applications ?

Le domaine historique, dont l’importance est toujours aussi grande, c’est le métier du géomètre ainsi que celui du fournisseur de données géographiques de référence (l’IGN en France), ainsi désigné car le terme de cartographe ne décrit plus bien ce secteur. De nouveaux domaines se sont ajoutés : de nombreuses applications grand public, comme le guidage GNSS (extension du GPS) pour les véhicules, les géoportails permettant aux administrations et aux élus de communiquer avec les citoyens, le géomarketing, qui permet d’optimiser les implantation commerciales, ou encore les fonctions nouvelles sur smartphones, basées sur les calculs à partir des images, permettant par exemple de mesurer facilement un appartement.

Quels sont les grands enjeux à venir de la géomatique ?

Continuer à s’ouvrir vers le grand public, car toute nouvelle application de ce type rencontre un nombre d’usagers sans commune mesure avec les utilisateurs techniques traditionnels, et cela redimensionne complètement les possibilités offertes. Actuellement, tous les développements sont portés par une utilisation de plus en plus intensive de l’informatique, dont la quasi-absence de limites de capacités mémoire rend possibles des traitements extrêmement complexes.

La géomatique est-il un secteur porteur pour les ingénieurs ?

Extrêmement porteur ! Ce secteur manque durablement d’ingénieurs malgré l’accroissement régulier des effectifs formés dans ce domaine. Tous ces développements informatiques évoqués ne sont, en fait, limités que par le trop faible nombre d’ingénieurs disponibles… Les deux principales spécialisations qui actuellement font le plus défaut sont celle de géomètre dans le secteur privé, géomètre-expert et ingénieur spécialiste de la mesure, et le spécialiste en SIG capable de programmer des développements sur mesure, avec des connaissances à la fois en géomatique générale et en programmation informatique.

>> Découvrez la rubrique « Géomatique » 

>> Découvrez un article de la rubrique Géomatique en remplissant ce formulaire !

 

Ingénieur géographe dès 1977 puis professeur des universités depuis 1991, Michel Kasser a dirigé l’ESGT de 91 à 99, puis l’ENSG de 2003 à 2011. Il s’est spécialisé dans les aspects physiques et techniques de la géomatique, en particulier la géodésie et la photogrammétrie.

Des failles de sécurité brouillent la 5G

Mis en œuvre depuis l’introduction de la norme 3G, l’AKA (Authentication and Key Agreement) est toujours pointé du doigt.

Dans un rapport, une équipe du Laboratoire d’informatique Loria –  en collaboration avec des chercheurs de l’École Polytechnique Fédérale de Zurich et l’Université de Dundee et le Centre National sur la Cybersécurité de Sarrebruck – démontre que le protocole présente de sérieuses faiblesses.

Basé principalement sur la cryptographie symétrique et un numéro de séquence (SQN), le protocole AKA est chargé d’assurer la sécurité entre les utilisateurs mobiles et les stations de base. Il était auparavant exploité par les dispositifs de surveillance, tels que le StingRay, utilisés par des services de police…

Un kit à 1000 €

Conscient des risques, l’organisme en charge des normes de téléphonie mobile, le 3GPP, a amélioré AKA avant le déploiement de la 5G. Ce protocole intègre le cryptage asymétrique randomisé pour protéger les identifiants.

Problème, avec un kit (un logiciel, un lecteur de carte à puce et le logiciel OpenLTE), soit environ 1000 € et un ordinateur portable, il serait possible de multiplier les actions malveillantes.

« Nous montrons que l’apprentissage partiel de SQN conduit à une nouvelle classe d’attaques sur la vie privée », ont écrit les chercheurs. Bien que l’attaquant ait besoin de commencer avec une fausse station de base, l’opération peut continuer « même lorsque les abonnés s’éloignent de la zone d’attaque ».

Bien que l’attaque se limite à la surveillance de l’activité de l’abonné – nombre d’appels, SMS, localisation, etc. – plutôt que d’espionner le contenu des appels, les chercheurs pensent que c’est pire que les problèmes AKA précédents comme StingRay, car ceux-ci ne sont efficaces que lorsque l’utilisateur est à portée d’une fausse base.

Un attaquant pourrait utiliser le protocole AKA pour localiser et suivre les téléphones à proximité. La deuxième vulnérabilité est que les versions vulnérables d’AKA peuvent entraîner la facturation malveillante de certains utilisateurs lorsqu’ils utilisent des réseaux 5G.

Des failles sur les premiers réseaux 5G…

Or, les applications de la 5G devraient être très larges. Une récente analyse sur l’Internet des objets (IoT) prévoit que d’ici 2025, le nombre de dispositifs passera de 7 milliards à 21,5 milliards. Leur montée en puissance augmentera inévitablement la surface d’attaque avec la 5G.

Les auteurs ont déclaré avoir informé 3GPP, la GSM Association, les fournisseurs Huawei, Nokia et Ericsson et les opérateurs Deutsche Telekom et Vodafone UK.

La GSMA et la 3GPP ont annoncé que des mesures correctives seront entreprises pour les générations futures. Toutefois, les premières implémentations de la 5G souffriront probablement de cette vulnérabilité…

Forum Innovation du Cetim : les startups, l’avenir de l’industrie mécanique

Une quarantaine de startups étaient présentes le 6 décembre 2018 pour le premier Forum Innovation du Cetim, à Senlis. En tant que membre de l’Alliance pour l’Industrie du futur, le Cetim soutient l’innovation et le progrès dans les entreprises mécaniques.

Les startups étaient réunies dans différents espaces selon les solutions qu’elles proposent : innovations sur les composants, les données, le matériel et la robotique. Au cours de la journée, chaque représentant de startup a présenté ses technologies lors de pitchs de 10 minutes, avant de rencontrer les industriels intéressés. Des conférences étaient aussi organisées afin de questionner l’innovation en terme de financements et de propriété industrielle.

Philippe Lubineau, directeur de la recherche au Cetim, souhaite favoriser les liens entre les jeunes entreprises et les industriels. Il explique : « Les partenariats avec les startups permettent aux entreprises de s’approprier les technologies de l’industrie du futur et de profiter de la transition numérique pour créer de nouvelles opportunités. » Une collaboration avantageuse pour chacun des partis car elle offre aux startups un moyen de se développer tout en modernisant l’industrie mécanique.

Pour Justin Doucerain, commercial chez la startup Siatech qui propose des systèmes de commande main-libre pour les machines de levage, ce Forum est l’occasion d’élargir son réseau, voire de déclencher de la vente. « Nous sommes venus ici pour rencontrer des constructeurs mais aussi par curiosité, pour découvrir de nouveaux systèmes. J’ai vu par exemple des technologies en robotique qui pourraient être utile dans notre domaine. »

Techniques de l’Ingénieur a aussi assisté au Forum avec sa caméra et a accompagné les startups participantes et les organisateurs de la journée.

Alexandra Vépierre

Village de la Chimie des Sciences de la Nature et de la Vie

Les entreprises ont et auront de plus en plus besoin de chimistes de tous niveaux, dans des domaines d’activités et de compétences de plus en plus nombreux. Au Village, consacré aux Sciences de la Chimie, les entreprises montrent concrètement les carrières d’avenir qu’elles peuvent offrir ; leurs professionnels présents, de la recherche à la production, témoignent de l’intérêt des métiers auxquels ils ont été formés et de leur enthousiasme à les exercer.

La diversité des secteurs professionnels représentés au Village montre la grande variété des secteurs d’activité ayant besoin de chimistes.

Le Village a permis de créer de réels partenariats et un lieu d’’échanges extrêmement riches entre le monde de l’éducation et le monde de l’entreprise ; entre les professionnels de l’entreprise, tous niveaux confondus de l’opérateur au chercheur, et les acteurs de l’éducation pour toutes les filières de formation accédant aux métiers présentés, du Lycée à l’Université et aux Grandes Ecoles, avec les académies, les associations de parents d’élèves et de responsables familiaux.

Nous sommes certains que nous pouvons offrir aux futurs diplômés l’information et les témoignages qui leurs permettront de bâtir leur projet d’avenir et de démarrer leur vie professionnelle.

C’est pour cela que participent au Village tous les majors de la profession mais aussi toutes les entreprises, jusqu’à la start-up, qui considère que le choix des filières de formation doit s’effectuer auprès des jeunes jusqu’aux études supérieures pour couvrir toute l’étendue des compétences dont elles ont et auront besoin.

Sont aussi présents toutes les écoles dont les cursus concernent les métiers des Sciences de la Chimie (chimie, biologie, …), les universités et les écoles d’ingénieurs, directement ou par l’intermédiaire de la Fédération Gay Lussac.

La formation par alternance et plus particulièrement l’apprentissage a aussi une place prépondérante au Village. l’AFI24, CFA hors murs, y présente toutes les filières de formations professionnalisantes, filières qui s’imposent comme des voies d’excellence pour l’insertion professionnelle.

En complément, les jeunes peuvent participer à des ateliers spécifiques animés par des professionnels de l’insertion (Union Nationale des Associations Françaises des Ingénieurs Chimistes, de la Société Chimique de France…). De plus, grâce à une mobilisation de la branche professionnelle de la Chimie (FRANCE CHIMIE ILE de France et FRANCE CHIMIE) et des entreprises présentes, ils sont informés des possibilités de stages et des emplois possibles parmi des entreprises présentes ou plus largement celles concernées par cette Science.

Enfin, des partenariats ont été mis en place avec UNIVERSCIENCE, nouveau partenariat pour 2019, la SFC, la Fondation de la Maison de la Chimie, le Collège de France et l’Académie des Sciences, favorisant la participation de plus en plus importante de scientifiques de très haut niveau venant, à travers conférences et témoignages, communiquer leur enthousiasme et montrer tout le potentiel des Sciences de la Chimie.

2018/2019 a une importance toute particulière pour la Chimie : L’Education Nationale a souhaité que cette année scolaire soit l’année de la Chimie de « l’Ecole à l’Université ». En outre 2019 est l’année des 150 ans du Tableau Périodique des Eléments Chimiques (proclamée par l’ONU), et à Paris se dérouleront le 47ème Congrès Mondial de l’Union Internationale de Chimie Pure et Appliquée (UICPA) ainsi que des Olympiades Internationales de la Chimie.

Venez participer vous aussi à cette belle histoire ! 

Nous sommes prêts à vous accueillir au Village pour vous apporter toutes les précisions nécessaires à votre avenir professionnel.

France Chimie Île-de-France

La Corée inaugure une ville artificielle connectée pour le transport autonome

A Hwaseong, à une heure au sud de Séoul, K-city est à présent opérationnelle. Cette ville artificielle dédiée au développement des transports autonomes s’étale sur 320 ha – soit presque trois fois les 130 ha de l’installation Mcity de l’université du Michigan – et a coûté près de 10 millions d’euros d’investissement. Inaugurée fin novembre par la Korea Transportation Safety Authority (KOTSA) et par KT (ex-Korea Telecom), elle comprend cinq environnements d’essais : autoroutes, rue de centre-ville, route de banlieue, parc de stationnement et installations collectives. On peut y trouver de nombreuses situations de circulation telles que des barrières de péage, des tunnels, des carrefours, des pistes cyclables, des rues de différentes largeurs, des routes abîmées et des chantiers ou encore des passages piétons.

Entièrement connectée

Les réseaux de communication et les systèmes avancés de contrôle de véhicule ont été déployés et développées conjointement par Samsung Electronics, KT et Hyundai Motors. Plusieurs réseaux sont disponibles tels que 5G, 4G LTE et V2X (Vehicule-to-Everything) qui permet la communication des véhicules entre eux et avec différentes infrastructures routières. Le site accueille déjà plusieurs entreprises, universités et centres de recherches qui viennent y tester leurs solutions liées aux transports autonomes. A l’occasion de l’inauguration, une démonstration du système « 5G remote cockpit » a été dévoilée : un système qui permet de contrôler des situations routières en temps réel avec une communication entre les véhicules, les appareils mobiles et les infrastructures routières. En cas d’urgence, le système peut intervenir sur la situation pour prévenir les accidents. Un système V2I (Vehicle-to-infrastructure) a aussi été présenté, il permet un contrôle visuel de la situation sur les routes en temps réel en associant la 5G à des caméras haute définition. Le premier opérateur mobile du pays, SK Telecom a aussi profité de cette journée pour annoncer le développement d’une option où l’utilisateur du véhicule autonome fourni son point de départ et sa destination pour appeler un véhicule et une technologie de détection de l’environnement routier via une caméra fixée sur la voiture qui permet de mettre à jour les données de cartes routières de l’entreprise.

Des tests dans le monde entier

Cet intérêt sur la voiture autonome n’est pas nouveau en Corée où des solutions sont déjà testées en environnement réel, généralement portée par des véhicules Hyundai. Le gouvernement coréen s’est particulièrement investi sur ces développements en ayant récemment assoupli les règles d’obtention de permis de conduite autonome sur route ouverte avec une seule personne physique nécessaire à l’intérieure et la possibilité de proposer des véhicules sans volant ni pédale. Mais la Corée n’est évidemment pas le seul pays à développer des solutions. On assiste réellement à un engouement mondial (tant des constructeurs de véhicules que des acteurs de l’IA et des télécommunications) où les tests grandeurs natures se multiplient, notamment sur des zones bien balisées comme les aéroports où les campus universitaires et technologiques. Parmi les dernières annonces marquantes, on peut par exemple citer le fournisseur internet russe Yandex et ses taxis sans conducteurs sur le campus technologique d’Innopolis où encore la zone de tests routiers Astazero en Suède qui a été équipée en 5G pendant un an (2018).

Un pas de plus vers les ordinateurs quantiques

Les ordinateurs les plus puissants d’aujourd’hui permettent de réaliser des calculs très complexes. Cependant, il n’est pas possible de résoudre les problèmes (nombreux) où le nombre de solutions possibles croît exponentiellement. Comment résoudre ces problèmes ? En créant des ordinateurs quantiques !

Aujourd’hui, les bits, unités de mesure de base en informatique, peuvent exister sous deux formes seulement : 0 et 1. Or les bits quantiques peuvent exister dans des états qui correspondent à 0 et 1 à la fois : c’est la superposition quantique. Cependant, ces états superposés peuvent exister seulement s’ils ne sont pas mesurés ou observés. Par conséquent, les qubits (bits quantiques) doivent à la fois être isolés et interagir avec de nombreux autres qubits.

Une solution prometteuse consiste à construire de petits systèmes de qubits reliés entre eux par des liens optiques. L’information stockée dans un qubit est transférée à un autre qubit par le biais d’un photon, particule élémentaire composant la lumière. Un tel système présente deux obstacles conséquents : un photon transporte une très faible quantité d’énergie et les systèmes minuscules contenant les qubits interagissent peu avec de la lumière si faible.

Le Prof. Dayan et son équipe à l’Institut Weizmann essaient, comme plusieurs équipes dans le monde, de trouver une solution à ces obstacles. Ils ont réussi, pour la première fois, à créer une porte logique dans laquelle un photon et un atome échangent automatiquement l’information qu’ils transportent.

Le principe est le suivant : le photon transporte un qubit et l‘atome, qui est un système quantique, est un autre qubit. Chaque fois qu’ils se rencontrent, ils échangent automatiquement et systématiquement leurs informations. Cette porte logique peut donc être utilisée pour échanger de l’information à la fois à l’intérieur de et entre ordinateurs quantiques. Cette porte ne nécessite pas de contrôle extérieur et peut par conséquent être utilisée pour créer de larges réseaux. Un pas de plus vers les ordinateurs quantiques !

Rédactrice : Odélia Teboul, doctorante à l’Université hébraïque de Jérusalem

Source : www.diplomatie.gouv.fr

La première ferme d’hydroliennes fluviales est sur le Rhône

Les quatre turbines d’Hydroquest immergées dans le Rhône, à Caluire-et-Cuire, dans la métropole de Lyon, sont désormais raccordées au réseau Enedis par le producteur d’électricité renouvelable Hydrowatt. Voie Navigable de France a accordé à ces turbines une concession de 18 ans. Coût d’investissement : 1,7 million d’euros. Le syndicat des énergies renouvelables (SER) veut y voir « les débuts prometteurs d’une nouvelle filière industrielle et propice à l’export, car adaptée aussi bien aux besoins énergétiques croissants des pays industrialisés que des pays émergents ».

Cette ferme totalise une puissance de 320 kilowatts et permettra de produire 1 gigawattheure d’électricité par an. Soit de quoi alimenter 400 foyers en électricité, hors chauffage. Les turbines de ces hydroliennes immergées dans l’eau convertissent l’énergie cinétique du courant fluvial en électricité, ensuite exportée à terre pour être consommée.

Une nouvelle filière à développer

Les hydroliennes ont été fabriquées à Cherbourg (Manche) par les Constructions mécaniques de Normandie (CMN) et assemblées au port Edouard Herriot de Lyon, avant d’être acheminées par voie d’eau. Le SER vante les mérites de cette énergie renouvelable et abondante qui « offre également une production électrique extrêmement prédictible ». Les différentes technologies existantes « présentent l’avantage de ne pas générer de pollution, qu’il s’agisse d’émissions de gaz à effet de serre ou de polluants pour l’eau », selon l’organisme. Le SER ajoute qu’ « après l’installation des turbines, les coûts d’exploitation et de main-d’œuvre sont faibles ».

Plusieurs acteurs français sont présents sur ce jeune marché et divers centres de recherche se consacrent avec les industriels et les développeurs à ces nouvelles énergies renouvelables. « La géographie du territoire français, avec de nombreux fleuves et des zones de forts courants marins, lui offre de nombreuses opportunités d’expérimenter ces technologies et d’exploiter ses ressources pour produire de l’énergie », assure le SER.

Un soutien gouvernemental à confirmer

HydroQuest souhaite lancer une nouvelle filière industrielle française. L’entreprise déploiera l’année prochaine un parc de 39 hydroliennes au pied du barrage de Génissiat dans l’Ain pour une puissance installée de 2 mégawatts, en partenariat avec la Compagnie nationale du Rhône (CNR).

L’hydrolien n’est pas inclus dans la programmation pluriannuelle de l’énergie (PPE). Le SER demande donc au Gouvernement « de confirmer son soutien à la filière ». Cela passe par le fait de donner « dès maintenant des perspectives de développement en France à moyen terme, en mer comme dans les fleuves ». Ce schéma traditionnel de développement des énergies renouvelables par soutien public participera à la baisse des coûts et à l’amélioration des technologies. Il donnera aussi la visibilité nécessaire pour « mobiliser des investisseurs et financeurs, progresser sur leur référencement technique et ainsi préparer la réussite de leur développement commercial, en France et à l’étranger », prévient le SER.

La France se dote d’un plan d’adaptation au changement climatique

Les sujets consacrés à la lutte contre le changement climatique parlent avant tout d’atténuation, via la baisse des émissions de gaz à effet de serre. Mais une facette est toute aussi importante : celle de l’adaptation. En effet, quels que soient les résultats à venir des nouveaux engagements, les émissions de gaz à effet de serre passées rendent inéluctables des impacts réels auxquels la France doit se préparer. Inondations, submersion, crues, cyclones, vagues de chaleurs, sécheresse, incendies et précipitations sont des mots avec lesquels il va falloir se familiariser.

Dans cette perspective, la France se dote d’un deuxième Plan national d’adaptation au changement climatique (PNACC-2) pour la période 2018-2022. Ce nouveau plan comprend 58 actions réparties selon six domaines d’action : gouvernance et pilotage, connaissance et information, prévention et résilience, adaptation et préservation des milieux, vulnérabilité de filières économiques, et renforcement de l’action internationale. Le PNACC-2 se base sur une hausse future de la température moyenne de la Terre de 2 °C par rapport à l’ère préindustrielle, en cohérence avec les objectifs de l’Accord de Paris. Il n’exclut pas des scénarios plus pessimistes. Le suivi des actions sera assuré par une commission spécialisée du Conseil national de la transition écologique (CNTE).

Lumière sur la prévention et la résilience

Il s’agit avant tout de « protéger les Français des risques liés aux catastrophes dépendant des conditions climatiques ». En particulier, d’ici 2050, la moitié des espaces naturels français métropolitains seront soumis au risque incendie élevé. Pour les protéger, le gouvernement va acquérir 6 nouveaux avions bombardier d’eau..

Les risques étant amenés à se développer, le gouvernement entend aussi renforcer la vigilance météo. À cette fin, cinq nouveaux radars seront déployés d’ici 2021. Le système d’alerte et d’information des populations sera étendu en outre-mer avec un premier dispositif de 15 sirènes déployé dès 2019 aux Antilles.

Selon les projections les plus pessimistes, la France pourrait connaître des canicules de 90 jours tous les ans d’ici 2100. « Sans amélioration du bâti, le taux d’équipement des logements français en climatisation passerait de 4 à 30 % d’ici 2050 », note le ministère. Par ailleurs, la hausse du niveau de la mer pourrait atteindre 1 mètre d’ici la fin du siècle en France : 19 800 km de routes et 2 000 km de voies ferrées seraient alors régulièrement inondés. Le plan compte donc faire un point complet des normes et référentiels techniques pour les infrastructures afin de prendre en compte le climat futur.

Préparer le secteur économique

Le changement climatique va impacter fortement plusieurs filières économiques. Le gouvernement entend identifier les filières les plus à risque pour définir les meilleures mesures d’accompagnement à mettre en place. En particulier, le risque incendie et la hausse des températures menacent le secteur forestier. Pour accompagner le secteur, le PNACC-2 compte créer de nouveaux outils d’aide à la décision, notamment pour aider les professionnels à choisir les meilleures essences à planter.

Par ailleurs, le tourisme littoral, en outre-mer et en montagne, fera l’objet de réflexions et de mise en place de plans d’actions pour l’adaptation des activités au changement climatique. Enfin, l’Europe dédie des fonds spécifiques à l’adaptation au changement climatique. Toutefois, sur les 298 millions d’euros consacrés, seuls 2 % ont été dépensés et 36 % programmés. Le gouvernement lancera donc une étude sur les freins à la mobilisation locale de ces fonds européens.

Coup dur pour les constructeurs automobiles : les nouvelles normes des émissions pour les véhicules diesel sont jugées trop élevées

Une marge de manœuvre de 110% pour les émissions

Dans un arrêt rendu le 13 décembre, le Tribunal de l’Union européenne a tranché en faveur des maires des villes de Bruxelles, Madrid et Paris à la suite d’un recours déposé pour contester le règlement modifiant la norme Euro 6 sur les émissions de gaz polluants des voitures.

En 2017, la Commission européenne avait fixé de nouvelles normes d’émissions d’oxydes d’azote (NOx) pour les essais d’homologation de voitures neuves en condition réelle de conduite. Cette nouvelle dérogation donnait une marge de manœuvre aux fabricants de voitures de 110 % pour les émissions de NOx (et de 50% à partir de 2020). En d’autres termes, le plafond théorique légal d’émission de NOx passait de 80 mg/km à 168 mg/km (puis à 120 mg/km en 2020).

Le tribunal annule donc partiellement le règlement en estimant que cette autorisation d’émettre deux fois plus d’oxydes d’azote (NOx) pour les tests de pollution est illégal et ajoute que la Commission n’est pas compétente pour modifier les limites d’émission Euro 6. La cour de justice européenne accorde un an à la Commission Européenne pour revoir les critères d’homologation et mettre en place une nouvelle règlementation.

Une règle qui s’inscrit dans le contexte du “dieselgate”

Cette tolérance législative avait suscité l’indignation des différents acteurs des sphères associatives et politiques sensibles à l’écologie. Comment se justifie-t-elle ?

Ces nouvelles normes pour l’homologation des voitures neuves, s’inscrivent dans le contexte particulier du scandale du « dieselgate », où plusieurs constructeurs automobiles avaient délibérément minoré les émissions de NOx lors des tests d’homologation des véhicules diesel. Le législateur européen avait alors modifié la norme Euro 6, en vigueur depuis 2014, pour éviter que la fraude ne se reproduise : lors de la mise en place des nouveaux tests d’homologation des véhicules européens, il a été décidé que ceux-ci intègreraient désormais des essais en conditions de conduite réelle. Or dans ces conditions, les mesures d’émissions de NOx sont nettement supérieures aux limites fixées par la norme Euro 6. L’industrie automobile a alors réclamé l’application de seuils de tolérance pour s’acclimater à ces nouvelles méthodes de calculs. La commission européenne a pris note de la demande et a ajouté au règlement une marge d’erreur appelée « facteur de conformité » afin de permettre aux constructeurs de s’adapter progressivement à la nouvelle forme Euro 6. De cette façon, les nouveaux modèles ont été autorisés à émettre jusqu’à 110 % de plus de monoxyde d’azote (NOx) que ce que la norme leur impose.

La cour de justice européenne affirme aujourd’hui dans son arrêt que ces limites fixées par la norme Euro 6 « constituent un élément essentiel de ce règlement, non modifiable par la Commission, et que ledit règlement prévoit que ces limites doivent être respectées en conditions de conduite réelles et, par conséquent, lors des essais RDE ». Les constructeurs automobiles devront donc répondre à la future norme, plus stricte.

L’Europe interdit plusieurs plastiques à usage unique

LUnion européenne prévoit des interdictions pures et simples d’objets en plastique à usage unique, lorsque des solutions de remplacement sont facilement disponibles et peu coûteuses. Elles s’appliqueront aux bâtonnets de coton-tige, couverts (fourchettes, couteaux, cuillères et baguettes), assiettes, pailles, touillettes pour boissons, contenants alimentaires et gobelets en polystyrène, avec ou sans couvercles, et aux tiges pour ballons en plastique. Ces objets seront remplacés par des alternatives produites à partir de matériaux plus durables. Les plastiques dits oxo-dégradables – ils contiennent un additif qui les dégrade en micro-fragments non biodégrables – seront également interdits. Le texte laisse au bon vouloir des États-membres l’établissement de mesures nationales pour réduire la consommation des récipients alimentaires et des gobelets en autres résines que le polystyrène expansé. « Cette nouvelle Directive européenne constitue un premier pas inédit pour sortir de notre culture du tout jetable », se félicite Laura Châtel, responsable du plaidoyer à Zero Waste France. En revanche, l’association dénonce « les pressions pour diminuer l’ambition du texte ». En particulier, le Parlement avait introduit un objectif de réduction de la consommation des gobelets et contenants alimentaires en plastiques de 25 %. Il a été retiré.

De nouvelles obligations pour les producteurs

Des objectifs spécifiques concernent les bouteilles. En premier lieu, les fabricants devront attacher le bouchon aux bouteilles plastiques d’ici 2024. À l’horizon de 2030, ils devront intégrer 30% de plastiques recyclés dans toutes les bouteilles de boisson, avec une étape intermédiaire à 25% pour les seules bouteilles en PET en 2025. Cette obligation en est accompagnée d’une autre : celle de collecter 90 % des bouteilles plastiques en 2029.

Les fabricants sont dans le viseur de l’Europe. Sur le principe du « pollueur-payeur », de nouveaux régimes de responsabilité élargie du producteur (REP) verront le jour pour les emballages, les mégots de cigarettes et les filets de pêche. Les fabricants devront prendre en charge les coûts de gestion et de nettoyage des déchets et les mesures de sensibilisation du public.

L’Union européenne prévoit par ailleurs de nouvelles exigences en matière d’étiquetage. Les étiquettes des protections hygiéniques, lingettes humides et ballons devront afficher clairement des informations relatives aux consignes de tri, à l’impact nocif de ces produits en cas d’abandon dans la nature et à la présence de matières plastiques dans ces produits.

L’accord provisoire doit maintenant être officiellement approuvé par le Parlement européen et le Conseil d’ici au printemps 2019. Ensuite, les États membres devront transposer les règles pour une entrée en vigueur en 2021.

Perturbateurs endocriniens : la nouvelle stratégie nationale dévoilée

Des avancées et des faiblesses…

Afin de réduire l’exposition des populations aux produits chimiques à risque, la France s’est dotée d’une stratégie nationale sur les perturbateurs endocriniens (SNPE) en 2014. La dernière version de ce document, une SNPE2, qui définit le plan d’action pour la période 2019-2022, a été présentée aux membres du Groupe santé environnement, un groupe composé de professionnels de santé, d’associations et de chercheurs. Ce projet sera soumis à une consultation publique courant janvier 2019.
Parmi les mesures phares, la publication par l’Anses (Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail) d’ici fin 2021 d’une liste de substances chimiques pouvant avoir des propriétés de perturbateur endocrinien (PE). L’agence, qui évalue actuellement cinq PE par an dans le cadre du SNPE1 devra expertiser 6 substances par an en 2019 et 2020, puis 9 par an à partir de 2021. Cette nouvelle version ajoute également la période pubertaire comme fenêtres de vulnérabilité aux PE. Le projet prévoit aussi une meilleure formation sur les PE des professionnels de santé et de la petite enfance (pédiatres, gynécologues, responsables de crèches, d’écoles) ainsi que des professions les plus exposées (professionnels de l’agroalimentaire, de la chimie, agriculteurs, vétérinaires, ingénieurs sécurité, architectes, urbanistes).
Néanmoins, certaines associations comme Génération Futures soulignent plusieurs faiblesses notamment dans le domaine crucial de l’alimentation (le manque de recommandations officielles incitant les femmes enceintes et les jeunes enfants à consommer des produits biologiques par exemple). Autre regret : la protection des populations vivant dans des zones à risques (riverains de zones cultivées) ne figure pas dans le projet de SNPE2.

Une dynamique nouvelle autour de la substitution

Au cœur de cette stratégie : la question de la substitution qui prévoit de remplacer les perturbateurs endocriniens par des alternatives non chimiques ou des produits chimiques alternatifs plus sûrs.
L’objectif est de recourir à des appels d’offres afin de financer des projets ambitieux pour explorer notamment la toxicité des substituants. Cette mesure, qui fait appel à des financements publics, suscite de vives critiques même si les ministres assurent que « la mobilisation des acteurs industriels est cruciale sur ce sujet ».
Le projet s’appuie sur une approche volontariste puisque qu’aucune obligation n’est imposée aux industriels. Ils seront simplement encouragés au retrait volontaire des produits contenant des substances PE ; une démarche décrite comme un “manque d’ambition” par Générations Futures.
Mais, surtout, pour l’association, la question de la substitution a été vidée de sa substance par rapport à la première version qui visait également la réduction de l’exposition à d’autres polluants chimiques. « Il n’est plus question de penser la substitution dans le cadre plus large du risque chimique, qui inclut d’autres pollutions (micro plastiques, nanoparticules, métaux lourds, etc.). » ce qui fait craindre à l’association que « la nouvelle stratégie abandonne l’objectif de développer une culture de la substitution généralisée des substances chimiques, en impliquant les acteurs de la recherche et les professionnels. »

Informatique quantique : une menace pour la cryptographie ?

Mieux comprendre les cancers ou la maladie d’Alzheimer, percer les mystères de l’univers, anticiper l’arrivée d’ouragans, mieux gérer le trafic automobile… l’informatique quantique pourrait améliorer notre quotidien. Mais elle pourrait aussi remettre en cause toutes les activités économiques reposant sur le chiffrement.

Un rapport sur les progrès et les perspectives de l’informatique quantique, publié par les NASEM (National Academies of Sciences, Engineering, and Medicine), aux États-Unis, sonne l’alerte. Il est urgent d’entamer des travaux de recherche dès maintenant pour développer des algorithmes capables de déjouer des actions cybercriminelles.

L’alerte n’est pas récente. En 1994, le mathématicien Peter Shor, travaillant au Massachusetts Institute of Technology (MIT), démontre que les ordinateurs quantiques sont capables de factoriser de grands nombres plus efficacement que les ordinateurs classiques. En un mot, son algorithme se sert de la superposition quantique pour tester tous les nombres premiers en un seul cycle de calcul (un ordinateur classique le faisant l’un après l’autre) !

Résultat, les algorithmes actuels mettraient des millions de millions d’années pour factoriser un nombre de 600 chiffres. Un ordinateur quantique entièrement fonctionnel pourrait effectuer cette opération en quelques… minutes.

1 milliard d’années pour craquer une clé de chiffrement

 Même si l’informatique quantique ne sera pas une réalité avant plusieurs années, voire deux ou trois décennies, les experts américains rappellent qu’il est urgent de s’y mettre dès maintenant, car le remplacement des standards web actuels (en matière de cryptographie à clé publique) va prendre beaucoup de temps.

Principale inquiétude : la puissance de calcul de l’informatique quantique pourrait être utilisée pour casser très rapidement la cryptographie à clés publiques que nous utilisons régulièrement pour sécuriser nos messageries, nos achats avec notre carte bancaire…

Pour schématiser, la cryptographie à clé publique repose sur des problèmes mathématiques faciles à calculer dans un sens, mais beaucoup plus difficiles à calculer dans l’autre sens. On estime ainsi qu’en utilisant 500 ordinateurs classiques d’aujourd’hui, il faudrait un milliard d’années pour craquer une clé de chiffrement RSA de 2048 bits. L’informatique quantique pourrait le faire en… 100 secondes.

Équipés de calculateurs quantiques, des États pourraient être en mesure d’exploiter la puissance de l’informatique quantique pour attaquer les systèmes bancaires et financiers.

Autre cible : la Blockchain. Le piratage des signatures numériques est la principale menace la plus imminente. Un cybercriminel équipé d’un ordinateur quantique pourrait utiliser l’algorithme de Shor pour falsifier n’importe quelle signature numérique, se faire passer pour cet utilisateur et s’approprier ses actifs numériques.

Évidemment, ce risque reste encore à l’état d’hypothèse, car les PC quantiques ne sont pas près d’apparaître dans les linéaires des magasins.

Mais il semble urgent de développer une cryptographie dite post-quantique. L’industrie de la sécurité de l’information reconnaît actuellement cinq types de cryptosystèmes (échange de clef, chiffrement, signature…) comme des candidats prometteurs pour remplacer la cryptographie actuelle (réseaux euclidiens, codes correcteurs d’erreur…).

Le National Institute of Standards and Technology (NIST), aux États-Unis, est actuellement en train de mener des analyses et des recherches afin de déterminer lesquels conviendraient.

Mais afin de ne pas laisser les États-Unis gérer seuls ces alternatives, d’autres organisations, comme l’Institut européen des normes de télécommunications et l’Union internationale des télécommunications des Nations Unies, s’efforcent de faire évoluer la sécurité quantique.

Une loi début 2019 pour modifier l’objectif de baisse du nucléaire

« Ce serait une loi qui n’aurait que quelques articles, qui serait présentée en conseil des ministres sans doute au mois de février prochain et qui (…) aurait pour but de clarifier les choses quant à ce qui a été voté en 2015 », en particulier l’échéance sur la baisse du nucléaire, a détaillé M. de Rugy lors d’une audition au Sénat.

La loi de transition énergétique de 2015 prévoit que la part du nucléaire soit ramenée de 75 à 50% de la production d’électricité du pays d’ici à 2025, mais le gouvernement a repoussé cet objectif à l’horizon 2035, avec la fermeture de 14 réacteurs nucléaires de 900 mégawatts à cette nouvelle échéance.

Cette révision de la loi de 2015 est indispensable avant l’adoption de la nouvelle feuille de route énergétique de la France à horizon 2028, un texte réglementaire baptisé Programmation pluriannuelle de l’énergie (PPE) et qui est censé décliner les objectifs de la loi.

Le gouvernement a présenté fin novembre les grands axes de cette PPE mais un document complet est toujours en cours de rédaction. « Nous avons souhaité qu’elle soit précise et qu’elle soit complète », a justifié le ministre.

« Tous droits de reproduction et de représentation réservés. © 2018 Agence France-Presse. »

Usines connectées : des cibles « faciles » pour les pirates

De nombreux colloques sont organisés autour de l’industrie 4.0. Les thèmes abordés sont souvent les mêmes : analyse des données pour améliorer la productivité et optimiser la maintenance, automatisation de la logistique, personnalisation des produits…

Mais peu de conférences abordent précisément les risques de cyberattaques. Cette menace est pourtant loin d’être fantôme ! En décembre 2017, une raffinerie de la société Aramco en Arabie saoudite subissait une cyberattaque. Heureusement, elle a été déjouée de justesse.

Niveau de sécurité trop faible

Mi-mai 2017, WannaCry, un logiciel rançonneur (ou ransomware) avait impacté très fortement l’activité de nombreuses entreprises et organismes. Et pas des moindres : Renault, FedEx ou Telefonica, le centre opérationnel des services ferroviaires russe, des universités…

Bref, il y a péril en la demeure. « L’industrie manufacturière affiche des taux plus élevés que la normale en matière de cyberattaques » affirme Vectra Networks, dans son dernier rapport. Selon cette entreprise, qui détecte des attaques en cours en surveillant le trafic réseau en temps réel, cette situation s’explique en partie par la convergence accrue des réseaux des technologies de l’information et des technologies de l’exploitation dans les entreprises manufacturières. En un mot, l’hyperconnexion augmente les vulnérabilités.

Son rapport est basé sur les observations des environnements cloud de ses clients et de datacenters ainsi que sur les métadonnées de plus de quatre millions d’appareils, entre janvier et juin 2018. Cette analyse indique notamment que lorsque des attaquants peuvent franchir le périmètre de sécurité d’un industriel, ils peuvent facilement voler des données sensibles ou perturber une chaîne de production en raison des faibles niveaux de surveillance.

Son rapport signale également :

  • un volume beaucoup plus élevé de comportements internes malveillants, ce qui indiquerait que les attaquants sont déjà à l’intérieur du réseau ;
  • de nombreux de comportements de reconnaissance, ce qui est un signifie que les pirates sont en train de cartographier les réseaux de fabrication à la recherche d’actifs critiques.

Le rapport de Vectra Networks intègre également des données extraites du Verizon Data Breach Industry Report de 2018, qui examinait l’intention et les motifs des cyberattaques.

  • 53 % des infractions dans le secteur manufacturier ont été commises par des attaquants affiliés à un État.
  • Un tiers des atteintes à la sécurité de la fabrication a été classé dans la catégorie du cyberespionnage – le motif principal de ces attaques.
  • Les types de données les plus couramment volées étaient les données personnelles (32 %) et les secrets industriels (30 %).

Robot piraté : crash d’un drone

La situation est d’autant plus inquiétante que les robots industriels ne sont pas assez protégés contre les cyberattaques. Dans une étude menée par Trend Micro et l’École polytechnique de Milan, une équipe de chercheurs et d’étudiants en cybersécurité a réussi à pirater un bras robotisé destiné à la conception d’un rotor de drone.

En modifiant à distance un paramétrage très simple de l’usine, le fichier de configuration du robot, l’équipe a provoqué une variation de quelques millimètres sur les dimensions du rotor. Ce sabotage industriel a provoqué le crash du drone en vol !

Imaginez les conséquences s’il s’agissait d’un véhicule ou même d’un outil tranchant…

Cette poignée identifie ce que vous achetez

Les magasins Amazon Go, dont le premier a été présenté il y a deux ans, ne seront bientôt plus les seuls où le passage en caisse est supprimé. Testée dans un magasin bio au centre de Paris, la poignée porte-sac élaborée par la start-up française Mo-ka vise le même objectif : les produits déposés par le client au fond de son panier sont automatiquement identifiés par la caméra en surplomb, adossée à des algorithmes de vision par ordinateur et d’apprentissage approfondi (deep learning). Le paiement est ensuite accompli au travers d’une application mobile, qui contient les informations de la carte bancaire.

« L’idée est de pouvoir faire ses courses simplement et rapidement, surtout quand il s’agit de petits paniers, explique Mehdi Afraite-Seugnet, le fondateur et pdg de Mo-ka. L’essor de la vision par ordinateur et de l’apprentissage automatique est une opportunité pour y répondre. En 2013, quand j’ai commencé à réfléchir sur le sujet, ces technologies n’étaient pas encore assez développées ». Cet autodidacte en programmation s’entoure en 2015 de doctorants et de chercheurs en intelligence artificielle. Tous planchent sur une solution. Mais il n’était plus question d’opter pour des caméras placées au niveau de la caisse, dispositif déjà breveté. « Il a donc fallu innover, avec quelque chose qui soit malgré tout usuel ».

L’équipe conçoit alors et brevète une poignée, munie de capteurs et de caméras, qui se fixe à un sac au format adapté. « Deux caméras grand angle de 8 millions de pixels chacune sont incorporées, précise Mehdi Afraite-Seugnet. Si jamais la vision de l’une est obstruée, l’autre prend le relais. S’ajoute un capteur de mesure de poids (load cell strain gauge). Enfin, la poignée est localisée grâce à des balises Bluetooth (beacons), au nombre d’une dizaine pour couvrir une surface de 600 m2. De cette façon, les recherches de références dans la base de données sont restreintes aux rayons à proximité. Les images sont transmises en Wifi puis analysées par l’intelligence artificielle, qui fonctionne dans un serveur sur place ou dans le cloud. L’implémentation dans la caméra, pour y effectuer un prétraitement, est envisagée. Avec un serveur sur place, la reconnaissance d’image est réalisée en moins d’un quart de seconde ». La batterie de la poignée, d’une capacité de 4000 mAh, assure une autonomie de 8 heures et se recharge sur un présentoir à l’entrée du magasin.

Ces algorithmes s’appuient sur de la documentation existante, concernant des réseaux de neurones à convolution. « Faster R-CNN est une base qui nous a permis de lancer nos expérimentations puis d’affiner nos algorithmes, par exemple d’ajouter des filtres en fonction de l’éclairage du magasin » détaille Mehdi Afraite-Seugnet. Avant d’être déployés de manière opérationnelle, les algorithmes en question requièrent un entraînement, qui consiste à leur apprendre à identifier toutes les références vendues par le magasin.

Services analytiques en vue

« Notre solution est vouée à prendre en charge 20 000 références, poursuit Mehdi Afraite-Seugnet. Mais pour l’expérimentation organisée ces prochains mois, nous ciblons des supérettes et des petits supermarchés. Le profil-type est un point de vente de 800 m2, comptant 5 000 références et situé dans le centre d’une grande métropole, où la population est plus encline à utiliser ce genre de technologie ». La discussion avec les enseignes est en cours et des partenariats sont attendus. Le système coûte moins de 300 € par poignée, quelque 150 € pour les balises, avec en supplément le serveur ou la facturation mensuelle, si l’option cloud est choisie. Quoi qu’il en soit, Mo-ka ne réalise guère de marges sur l’équipement et compte vendre du service aux enseignes. « Nous proposerons une option d’inventaire en temps réel et de l’analytique, commente Mehdi Afraite-Seugnet, avec peut-être des heatmaps (fréquentation des rayons, ndlr) en liaison avec le logiciel de gestion de relation client ».

La pollution de l’air baisse nos capacités cognitives

Une équipe de chercheurs de l’Institut américain des sciences de la santé environnementale (NIEHS) a découvert que la qualité de l’air intérieur avait une influence directe sur les capacités cognitives des employés dans les bureaux. En règle générale, la pollution des espaces de travail est principalement causée par les systèmes de chauffage, de ventilation et de climatisation (CVC).

Cette étude démontre qu’il est nécessaire que les entreprises veillent à fournir un cadre de travail agréable et sain. En effet, lorsque l’organisation de l’espace répond aux règles du développement durable et que la ventilation est bien assurée, la productivité des travailleurs augmente très sensiblement.

Une étude menée sur l’air de trois époques

Afin de mettre en évidence ces conclusions, les chercheurs ont demandé à vingt-quatre personnes de travailler dans un espace fermé de 9 heures à 17 heures pendant six jours. Durant cette période, les scientifiques ont fait varier la qualité de l’air respiré par les participants, et ce sans que ces derniers en soient tenus informés. La qualité de l’air reproduite dans cet espace correspondait à l’atmosphère type des bureaux américains à trois périodes différentes : les années 90, les années 2000 et aujourd’hui.

L’air du bureau des années 90 est de loin le plus pollué. À cette époque, la ventilation ne suffisait pas à évacuer les particules volatiles notamment causées par les produits d’entretien. Dans les années 2000, bien que les systèmes de ventilation se soient perfectionnés, la qualité de l’air était à peine meilleure. Cela tient au fait que les constructions des années 2000 ont été voulues très hermétiques pour éviter toute déperdition d’énergie. Mais cet hermétisme a eu également comme effet de ne pas favoriser le renouvellement de l’air, qui ainsi restait très chargé en CO2 et en particules volatiles. Aujourd’hui, les systèmes de ventilation sont mieux optimisés, ce qui améliore la qualité de l’air.

De meilleurs résultats lorsque l’air est plus respirable

Les résultats de l’étude sont sans appel : moins l’air est chargé en particules volatiles et en CO2, plus les performances des travailleurs sont bonnes. Afin d’aboutir à ce résultat, les participants ont été invités à répondre à une série de questions chaque jour durant 1h30 dans des ambiances plus ou moins polluées. Ainsi, lorsque les participants étaient soumis à l’air des années 2000, leurs performances étaient 10% meilleures par rapport à ceux qui travaillaient dans une atmosphère plus polluée. Et lorsqu’ils travaillaient dans une atmosphère où l’air était plus pur, les résultats étaient 61 % meilleurs par rapport aux moins bons résultats.

Fortes de ces constatations, certaines entreprises ne lésinent pas sur les moyens pour faire travailler leurs employés dans un air le plus sain possible. Et lorsque ces entreprises sont implantées dans des territoires connus pour être hautement pollués, une telle initiative relève même de la préservation de la santé publique. C’est notamment le cas de l’entreprise Infosys, spécialisée en conseil informatique. Cette entreprise s’est dotée de puissants capteurs CVC afin de surveiller la qualité de l’air dans les bureaux de ses locaux de Bangalore, dans le sud de l’Inde. Dans ce pays où les pics de pollution sont très souvent dépassés, la surveillance de la qualité de l’air au bureau est quelque chose d’essentiel. Cependant, ceci est également important en France, car les Français passent en moyenne 90% de leur temps de travail à l’intérieur.

Neogy éclaire la nuit grâce à l’énergie solaire

Comment optimiser l’éclairage nocturne des villes tout en réalisant des économies d’énergie ? C’est la question que s’est posée la start-up girondine Neogy. La société présente son « Solar Light Kit », un kit d’éclairage solaire d’une autonomie maximale de six jours, sans recharge. L’entreprise présente sa solution comme une « première mondiale ».

Doté de détecteurs de présence, le système est conçu pour n’éclairer qu’en cas de passage. Un tel dispositif a donc pour intérêt de limiter la pollution lumineuse nocturne qui nuit à l’écosystème. De plus, le fonctionnement assuré par les panneaux photovoltaïques fait ainsi dépendre l’éclairage urbain d’une énergie renouvelable. La solution peut s’adapter à des conditions météorologiques extrêmes, ce qui rend possible son implantation sur nombre de territoires. Ce système innovant s’exporte déjà et s’installe dans l’archipel des Philippines.

Le kit d’éclairage Neogy, une innovation déjà adoptée aux Philippines

La plus grande innovation de ce kit d’éclairage autrement nommé SLK 40 réside dans le perfectionnement de sa batterie. Neogy se félicite d’utiliser des batteries NiMH (nickel métal hybride) « alors que d’autres fabricants utilisent des batteries lithium ou plomb ». Pour la start-up, ce type de batterie permet d’avoir un produit capable de fonctionner convenablement dans des températures allant de -25° à +80°. En ce sens, les kits sont censés pouvoir fonctionner partout dans le monde d’un pôle à l’autre, du désert le plus aride à la forêt la plus humide.

L’étanchéité du SLK 40 est également optimale pour un usage terrestre car le produit est IP66, autrement dit étanche à la poussière et résistant à la projection de liquide à la force d’une lance. Le système est pensé spécialement pour pouvoir fonctionner en toute saison, et ce grâce à « une technologie innovante basée sur des algorithmes prédictifs » assure Neogy. Le kit d’éclairage solaire SLK 40 qui a une capacité de 5 000 lumens est aussi très facile d’utilisation. Il a été spécialement conçu pour être très aisément installé par de simples citoyens.

Plusieurs acteurs africains et philippins ont signifié leur intérêt pour cette solution. Dans la petite ville philippine de Polillo, dans l’archipel éponyme, plusieurs kits ont été installés pour éclairer l’axe principal qui mène à l’hôpital. La mise en place de ce dispositif nomade a été très simple car étant autonome, il n’a nécessité aucun raccordement à un réseau électrique existant ni de travaux publics. De ce fait, le SLK 40 de Neogy semble être une très bonne solution pour équiper en éclairage public les rues françaises, mais aussi jusqu’aux contrées les plus défavorisées du globe.

L’Inde a 10 ans d’avance sur (certains de) ses objectifs climat

La COP 24, qui se tient à Katowice en Pologne jusqu’au 14 décembre, met en lumière le fait que plusieurs objectifs fixés lors de la COP 21 de Paris sont encore loin d’être atteints. Mais des lueurs d’espoir viennent d’Inde. Ces bonnes nouvelles ont été mises en évidence par l’Institut pour l’économie de l’énergie et l’analyse financière (IEEFA).

L’Inde sur la bonne voie des énergies renouvelables

Lors de la COP 21, le Premier ministre indien Narendra Modi s’est engagé à faire en sorte que le pays puisse produire 40 % d’énergies renouvelables. Il était aussi question de la construction de 25 parcs d’énergie solaire. Ces objectifs étaient initialement à atteindre à l’horizon 2030, mais le seront bien avant la date prévue. Vaibhav Chaturvedi, un chercheur indien, estime même que ces objectifs seront atteints vers 2025.

Ces bons résultats sont dus à l’ambitieuse politique indienne et au développement du plan national sur l’électricité qui date de cette année. Dans un premier temps, il semblerait que l’Inde sera capable de produire plus de 40 % d’électricité avec des énergies renouvelables dès la fin de l’année 2019, et ce sera une grande première pour le géant asiatique.

De plus, l’année 2018 a marqué un recul dans l’exploitation des énergies fossiles dans le pays. En effet, durant le premier semestre de cette année, plusieurs projets représentant une puissance de 26 gigawatts (GW) de centrales au charbon ont été suspendus ou abandonnés. Il serait toutefois faux de penser que tout sera simple pour l’Inde. Pour valider ces bons résultats, il faudra entre autres que le pays parvienne à produire au moins 80 GW de solaire d’ici 2020, considère Vaibhav Chaturvedi.

Les émissions de carbone font planer quelques réserves

L’autre objectif sur lequel l’Inde est sur la bonne voie concerne la baisse de l’intensité carbone de son PIB. Le pays ambitionnait de la réduire de 33 % d’ici 2030 par rapport à 2005. Or, elle était déjà réduite de 21 % en 2014, ce qui pourrait permettre à l’Inde d’atteindre son objectif d’ici 2020, selon l’IEEFA.

Quelques éléments nous poussent cependant à rester vigilants. D’après le Budget Carbone Mondial 2018, la hausse des émissions indiennes de CO2 provenant des combustibles fossiles et de l’industrie est de +6,3 %, après +4 % en 2017. Si les entreprises s’engagent à réduire les émissions de CO2, le nombre de voitures dans le pays croît quant à lui. Ainsi, il n’est pas tout à fait certain que l’Inde s’oriente effectivement vers une réduction globale de la pollution dans les années à venir.

Des voitures et des climatiseurs qui inquiètent

Il reste à l’Inde encore beaucoup d’efforts à faire, alors que les habitudes de consommation des Indiens impliquent l’émission d’encore beaucoup de gaz à effet de serre. Outre la voiture, l’Inde reste encore très dépendante du charbon, tout comme la Chine. Autre problème : la prolifération des climatiseurs. L’Inde en compte aujourd’hui plus d’un million. Alors que les températures sont en constante augmentation et que le prix des équipements baisse, il faut s’attendre à ce que plus de ménages encore s’en procurent. Or, les climatiseurs utilisent des fluides réfrigérants qui libèrent des gaz à effet de serre.

Au-delà des enjeux de la COP 21, c’est un réel problème de santé publique qui se joue en Inde. Selon une étude de l’Institut de politique énergétique de l’université de Chicago, les habitants de New-Delhi ont perdu 10 ans d’espérance de vie à cause du fort taux de particules fines présentes dans l’air.

Innovation : l’Overboat, bateau à propulsion électrique robotisé

C’est un bateau à propulsion électrique en partie robotisé, dont les foils (ou ailes profilées) s’ajustent en permanence pour assurer la meilleure glisse possible sur l’eau. Toutes ces qualités ont valu à l’Overboat, conçu par la start-up montpelliéraine Neocean, d’être mis en vedette dans l’espace Innovation du salon Nautic qui se déroulait à Paris jusqu’au 16 décembre. Ce mini-catamaran monoplace, qui se pilote sans permis, sera commercialisé à partir d’avril prochain, au prix de 33 600 €, auprès des particuliers et des professionnels (loueurs de bateaux, centres de loisirs…) intéressés par ses performances et son allure avant-gardiste.

Vincent Dufour, le fondateur de Neocean, et son équipe d’ingénieurs désiraient mettre au point un véhicule nautique moins polluant qu’un bateau motorisé à essence, sans pour autant sacrifier le plaisir de la vitesse. Trois ans de recherche ont été nécessaires pour trouver la combinaison adéquate, à commencer par la conception des foils qui portent la coque de l’Overboat au-dessus de la surface de l’eau.  « Ce ne sont pas des foils en J, les plus courants aujourd’hui, mais des foils en T inversé, qui équipent les kitesurfs notamment, précise Vincent Dufour. Les spécialistes les considèrent comme la référence absolue. »

Une vitesse de 15 nœuds

Autre aspect novateur : la propulsion électrique d’une puissance de 3 kilowatts, silencieuse, dont l’hélice est carénée par sécurité. Selon Neocean, l’Overboat « décolle » à partir de 7,5 nœuds et atteint une vitesse maximale de 15 nœuds, ce qui correspond à 28 km/h. « C’est aussi rapide qu’un bateau à essence équivalent, grâce aux foils qui réduisent de moitié la résistance de l’eau, explique Vincent Dufour. Les bateaux électriques naviguent généralement entre 5 et 10 nœuds au maximum, alors que les sensations sont amusantes au-delà de 10 nœuds ». A cette vitesse, la batterie d’une capacité de 70 ampères-heure se décharge au bout de deux heures. Le poids ayant logiquement son importance, l’Overboat, fabriqué en matériaux composites et en fibres de carbone, ne pèse qu’une centaine de kilos.

L’automatisation est le troisième et dernier point caractéristique. « Le bateau embarque des capteurs et une centrale inertielle pour déterminer le roulis, le tangage et le lacet. Le calculateur analyse ces paramètres et agit automatiquement sur l’incidence des foils. Cette régulation s’opère 40 fois par seconde ». Des compétences multiples ont donc été convoquées, de l’électronique à l’hydrodynamique en passant par la robotique, et des ressources de l’Université de Montpellier, l’incubateur de Neocean, ont également été mises à contribution. Créée en 2018, l’entreprise a été financée à hauteur de 1,45 million d’euros. Elle ne vise pas que le marché de la plaisance mais aussi celui de la marine professionnelle, sans donner de précisions sur les applications possibles toutefois.

Produits chimiques : quel impact sur la santé des enfants ?

Des chercheurs de l’Université de Californie, à Berkeley, ont tenté d’expliquer l’augmentation de la puberté précoce constatée chez les jeunes filles ces dix dernières années. Pour cela, l’équipe de chercheurs, conduite par Kim Harley et Brenda Eskenazi, a réalisé une étude permettant de connaître le rôle joué par les composés chimiques présents dans les produits cosmétiques sur la santé des enfants et des adolescents.

Cette étude s’appuie sur des données de 338 couples mères-enfants collectées pendant la période in utéro et à l’adolescence.

Dans un premier temps, durant la grossesse des mamans, des tests d’urine permettant de mesurer les concentrations des trois classes de produits chimiques à savoir des parabènes, des phtalates et des phénols (le triclosan et la benzophénone) ont été réalisés. Les mamans ont également été soumises à des questionnaires afin de renseigner leur potentielle exposition à ses produits chimiques.

Dans un deuxième temps, les chercheurs ont suivi le développement des enfants issus de ces grossesses – 159 garçons et 179 filles – en calculant la concentration de composés chimiques présents dans les urines des enfants à l’âge de neuf ans puis en les examinant pour repérer des signes éventuels de puberté tous les neufs mois entre leurs neuf ans et leurs 13 ans.

Les observations révèlent que plus de 90 % des échantillons d’urine prélevés chez la mère et l’enfant présentaient des concentrations détectables des trois classes de produits chimiques. Le triclosan a été détecté dans seulement 73 % des échantillons d’urine issus des femmes enceintes et 69 % des échantillons issus des enfants de neuf ans.

L’étude met également en évidence qu’à chaque fois que la dose de phtalate doublait dans l’urine des mères, en comparaison à un indicateur de base, le développement des poils pubiens chez une jeune fille survenait un mois et trois semaines plus tôt que l’âge moyen. De même, dès que la concentration de triclosan était doublée, en comparaison à un indicateur de base, les menstruations apparaissaient un mois plus tôt que la moyenne.

Les jeunes filles de l’étude présentaient pour la moitié d’entre elles des signes de puberté précoce à savoir l’apparition des poils pubiens à partir de 9,2 ans et une survenue de leurs premières règles à 10,3 ans. Ces observations étaient particulièrement prégnantes chez les filles dont les mères avaient le plus fort taux de phtalate de diéthyle et de parabens.

L’effet de l’exposition in utéro ou en phase prépubère à ses composants chimiques est toutefois très peu visible sur le développement des jeunes garçons.

Il faut préciser que ces résultats sont susceptibles de ne pas refléter l’exposition habituelle car les produits chimiques en question sont rapidement métabolisés dans l’organisme, altérant ainsi l’exactitude des mesures effectuées.

Cette nouvelle étude apporte ainsi sa pierre à l’édifice d’une littérature de plus en plus abondante selon laquelle l’exposition à certains produits chimiques pourrait interférer avec le système endocrinien humain et avoir notamment une incidence sur la précocité de la puberté chez les enfants.