Une technique de réflectométrie laser pour mesurer l’activité sismique sous-marine

Les failles sous-marines peuvent être à l’origine de violents tremblements de terre ou de tsunamis ; des pays comme le Japon, le Chili mais aussi l’Italie en ont fait la triste expérience. Face à ce danger, des chercheurs du laboratoire Géosciences Océan (LBO) de l’Institut Universitaire Européen de la Mer (IUEM) et l’unité de recherche Géosciences Marines de l’Ifremer développent une nouvelle technique de mesure de l’activité sismique sous-marine. Le projet, baptisé Focus et financé par une bourse de l’ERC (European Research Council), vient de se concrétiser par la pose d’un câble en fibre optique de six kilomètres et à 2 000 mètres sous la mer, en travers d’une faille au large de la Sicile. Cette région du Sud de l’Italie a souvent été frappée par des séismes meurtriers.

L’idée d’utiliser des câbles en fibre optique pour mesurer l’activité sismique sous-marine n’est pas nouvelle. Une technologie a déjà fait ses preuves et a pour nom DAS (pour Distributed Acoustic Sensing). Elle repose sur le principe de diffusion de Rayleigh et consiste à utiliser les techniques d’interférométrie laser en introduisant une lumière dans la fibre optique, puis à mesurer les sollicitations auxquelles elle est soumise, notamment les vibrations liées à une activité sismique. Bien qu’opérante, cette technologie présente une limite : elle fonctionne avec une portée relativement faible puisqu’au-delà d’une distance de 20, 30 voire 40 km, elle n’est plus efficiente.

Une portée pouvant aller jusqu’à une centaine de kilomètres

« Nous avons décidé d’utiliser une autre technique de réflectométrie laser appelée BOTDR, pour Brillouin Optical Time Domain Reflectometry, explique Marc-André Gutscher, directeur du Laboratoire Géosciences Océan à Brest et lauréat de la prestigieuse bourse ERC. Cette technologie est couramment utilisée pour suivre les mouvements de grandes infrastructures comme des ponts, des barrages hydroélectriques ou des tours aéroréfrigérantes dans des centrales nucléaires. Son intérêt est d’avoir une portée plus grande, jusqu’à une centaine de kilomètres. Il est possible, sur des pipelines transportant du pétrole, de détecter des petites fissures dont l’épaisseur est inférieure à celle d’un cheveu humain, par exemple au km 87,3. Autre avantage : plutôt que d’enregistrer l’activité sismique en temps réel, cette technologie permet de mesurer des déplacements de failles et donc de réaliser un suivi de l’activité sismique bien avant qu’une catastrophe arrive. »

La réflectométrie BOTDR repose, elle aussi, sur l’introduction d’une lumière laser dans un câble en fibre optique. Bien que les fabricants tentent de fabriquer ces câbles avec de la silice la plus pure et parfaite possible, des petites imperfections sont toujours présentes le long de la fibre. La lumière laser va alors toucher ces imperfections et une infime partie va être réfléchie vers son origine. Ces points de réflexion sont ensuite captés par l’interrogateur, l’appareil qui à la fois projette la lumière mais aussi mesure cette lumière rétrodiffusée. Cette dernière permet de déterminer les propriétés optiques de la fibre et de mesurer les contraintes auxquelles elle est soumise comme des étirements ou des raccourcissements. Ces contraintes provoquent en effet un déplacement des pics du spectre de diffusion Brillouin. « C’est en mesurant le déplacement de ce spectre qu’il est possible de mesurer à combien de centimètres le câble a été étiré ou raccourci », précise le chercheur.

Un robot spécialement conçu pour l’exploitation des grands fonds

Les câbles posés au fond de la mer par les opérateurs télécoms sont généralement constitués de fibres en configurations libres, c’est-à-dire qu’elles sont enfermées dans un tube métallique mais flottent légèrement à l’intérieur. Du gel ou simplement un espace vide entre la fibre et le tube métallique permet de protéger la fibre contre les chocs extérieurs et éviter qu’elle ne casse. Pour ce projet, les chercheurs ont dû utiliser un câble spécialement adapté à la technologie BOTR, qui possède une configuration serrée. « Notre câble est constitué d’une fibre entourée d’une résine rigide afin que toutes les contraintes extérieures sur le tube métallique se répercutent à l’intérieur sur les fibres, ajoute Marc-André Gutscher. Les fibres sont volontairement moins protégées car nous avons besoin de mesurer l’activité à l’extérieur. »

Crédit photo Ifremer, Klingelhoefer Frauke, Gutscher Marc-Andre

Autre élément important : cette technologie fonctionne de manière optimale à condition que le câble adhère à la structure qu’il est censé mesurer. Ici, le câble a dû être ensouillé dans les sédiments du fond de la mer à l’aide d’une charrue tirée par un robot téléopéré conçu pour l’exploitation des grands fonds, le ROV (Remote Operated Vehicle). Les chercheurs ont connecté ce câble à un câble en fibre optique classique de 28 km de long, déjà présent dans le fond marin depuis plusieurs années, et dont se servent des physiciens italiens pour leurs propres recherches scientifiques. « Lorsque la fibre est bien intégrée à la structure, la technologie BOTDR peut potentiellement mesurer des déplacements submillimétriques, déclare le chercheur. Ici, avec un câble enfoncé dans la vase au fond de la mer, nous espérons détecter des mouvements de la faille d’un à deux centimètres. »

Crédit photo Ifremer, Klingelhoefer Frauke, Gutscher Marc-Andre

Des balises acoustiques installées à 2 000 mètres sous la mer

Afin de calibrer les mesures enregistrées par la réflectométrie laser BOTDR, huit stations géodésiques ont aussi été installées au fond de la mer, de part et d’autre de la faille. Séparées de quelques centaines de mètres et jusqu’à 1,5 km, elles sont équipées de balises acoustiques qui émettent un signal et communiquent entre elles. En mesurant le temps de trajet de ces signaux entre chaque balise, il est ainsi possible de calculer précisément la distance qui les sépare et donc de mesurer l’écart de la faille.

Crédit photo Ifremer, Klingelhoefer Frauke, Gutscher Marc-Andre

Depuis le 16 octobre, les chercheurs envoient de la lumière laser à intervalles réguliers dans ce câble de 6 km de long. Trois à quatre années seront nécessaires avant de connaître les conclusions de ce travail de recherche. « Si notre technologie fonctionne, nous pourrions envisager la pose d’une nouvelle génération de câbles télécommunications au fond de la mer capables de détecter le déplacement des plaques tectoniques, analyse Marc-André Gutscher. Pour les opérateurs télécoms, cette nouvelle génération leur permettrait également de mesurer l’état de santé de leurs câbles et de détecter d’éventuelles intrusions volontaires sur ces derniers. Il peut arriver que des agences d’espionnages tentent de capter les informations transmises par ces fibres optiques en envoyant des engins au fond de mer pour accéder à ces câbles. »

Les Français partagent leur vision du véhicule autonome

La première édition du baromètre Vedecom et Macif s’intéresse à l’acceptabilité du véhicule autonome par les Français. Le but est de comprendre quelle est l’image du véhicule autonome dans le grand public pour déterminer les freins à lever en vue de son déploiement futur. L’étude se concentre alors sur la représentation des véhicules personnels autonomes de niveaux 3 à 5, des taxis et navettes autonomes, qui ne sont pas encore disponibles.

Selon l’étude, réalisée auprès d’un échantillon représentatif de la population française constitué de 4 014 personnes, du 7 au 27 juillet 2020, 7 Français sur 10 déclarent avoir vision positive du véhicule autonome. Ils sont ainsi près de 6 Français sur 10 à déclarer se sentir en sécurité à l’intérieur d’un véhicule autonome. Un Français sur deux qualifie le véhicule autonome de fiable et lui fait confiance pour gérer des situations complexes de conduite. « Spontanément, les Français associent le véhicule autonome à la mobilité électrique, à l’écologie et à la liberté, complète Stéphanie Coeugnet-Chevrier, directrice du domaine R&D Nouvelles Solutions de Mobilité de Vedecom. Les bénéfices leur semblent plus nombreux que les freins, notamment en matière de sécurité et de fiabilité, mais le coût reste une interrogation. »

Une bonne image malgré une méconnaissance flagrante

Les Français ont globalement une image positive du véhicule autonome, mais près de 88 % des répondants indiquent ne jamais en avoir vu et seulement 3 % d’entre eux ont effectivement eu l’occasion d’en utiliser un. « Les Français ont une bonne image m du véhicule autonome alors que la majorité d’entre eux n’en ont jamais vu, analyse Stéphanie Coeugnet-Chevrier. Dès lors que les personnes ont testé le véhicule autonome, le sentiment de confiance et de fiabilité augmente, c’est une bonne nouvelle ». Il reste toutefois une certaine forme de défiance. « 64 % des Français souhaitent qu’il reste une présence à bord du véhicule autonome ou une communication avec un humain, partage Stéphanie Coeugnet-Chevrier. 70 % des répondants se déclarent par exemple réticents à l’idée de laisser un enfant seul à bord. »

Par ailleurs, 45 % des répondants déclarent que leur véhicule autonome préféré est la voiture personnelle avec conduite automatisée dans quelques situations (niveau 3). Ils sont 26 % à opter pour la voiture personnelle avec conduite automatisée dans la plupart des situations (niveau 4), mais seulement 9 % à choisir la voiture totalement automatisée (niveau 5). Enfin, 20 % des sondés penchent pour la navette ou le bus automatisé. « Le niveau 3, même s’il est sélectionné comme le véhicule préféré est beaucoup plus critiqué que le niveau  4, assure Stéphanie Coeugnet-Chevrier. Finalement, les Français sont séduits par le niveau 4 car il offre plus de liberté, mais ils ne sont pas prêts à l’adopter dans la vie de tous les jours, car ils veulent garder un peu de contrôle sur le véhicule et car ils ont peur de perdre le plaisir de conduire, surtout pour les plus âgés. »

Un véhicule encore trop peu accessible

L’étude observe une disparité dans la connaissance et dans l’accès aux expérimentations de véhicules autonomes. Les expérimentations se concentrent dans les zones urbaines et sont plutôt à destination des cadres. Ainsi, l’inégalité territoriale est frappante. Seulement 8 % des habitants des zones rurales ont déjà vu un véhicule autonome et 1 % en ont utilisé un. En zone urbaine, ils sont respectivement 16 % et 5 %. L’inégalité est également sociale : 7 % des chômeurs ont déjà vu un véhicule autonome, et aucun d’entre eux n’en a utilisé un. Parmi les cadres, 17 % ont déjà vu un tel véhicule et 5 % en ont utilisé un. Enfin, l’inégalité est générationnelle : 18 % des 18-24 ans ont déjà vu un véhicule autonome, contre 10 % des 60-70 ans.

Face à ces inégalités, la Macif et Vedecom invitent les pouvoirs publics et les entreprises à développer la visibilité de la technologie via la formation et l’information. Pour réunir les bonnes conditions de déploiement, ils insistent sur le besoin de renforcer l’image sécuritaire des véhicules chez les jeunes et les étudiants où le sentiment d’insécurité et le manque de confiance est le plus marqué. Ils incitent à déployer plus de démonstrations de services automatisés ou autonomes de transports collectifs, en particulier en zones rurales, pour montrer l’utilité de ces véhicules dans des zones peu desservies par les transports en commun.

Un véhicule qui attise la curiosité

Malgré sa faible accessibilité le véhicule autonome attise la curiosité. Près de 4 Français sur 10 ont l’intention d’essayer un véhicule autonome à l’avenir. Et 3 Français sur 10 comptent en utiliser un régulièrement lorsqu’ils seront développés. « L’acceptabilité est timide mais encourageante, analyse Stéphanie Coeugnet-Chevrier. Cette acceptabilité grandit avec l’expérience : plus de 5 répondants sur 10 affirment avoir l’intention d’essayer un véhicule autonome dans les années à venir lorsqu’ils ont déjà vu un véhicule autonome et même plus de 6 sur 10 lorsqu’ils en ont déjà utilisé un. ».

Dans l’imaginaire collectif, le véhicule autonome est écologique. Près de 6 Français sur 10 le jugent effectivement plus écologique que les véhicules traditionnels et 7 Français sur 10 estiment qu’il sera déployé seulement s’il respecte les normes écologiques, à savoir s’il comprend des critères en termes d’émissions de gaz à effet de serre et de propulsion électrique ou alternatives.

Malgré cette curiosité, les Français craignent pour l’emploi. 66 % des répondants estiment que le véhicule autonome n’engendrera pas de création d’emplois. Ils sont même 55 % à considérer qu’il entraînera davantage de destruction que de création d’emploi. « Si l’on travaille bien l’usage et l’utilité de ce véhicule autonome, le véhicule autonome peut aussi créer de nouveaux emplois de services et déployer dans les zones rurales une nouvelle forme d’économie et une nouvelle forme d’emplois », défend pour sa part Stéphanie Coeugnet-Chevrier.

Le défi français de la gestion des déchets nucléaires

Selon le Rapport Mondial sur les Déchets Nucléaires, plus de 60 000 tonnes de barres de combustible usé sont actuellement entreposées de façon provisoire à travers l’Europe, hors Russie et Slovaquie, pays pour lesquels les données n’ont pas pu être étudiées. La France mène la danse avec 14 000 tonnes, suivie de l’Allemagne et du Royaume Uni, autour de 8 000 tonnes. « Plus de 80 % des déchets de haute activité des combustibles usés présentent des risques, car ils sont stockés dans des entrepôts en piscine de refroidissement, partage Rebecca Harms, ancienne députée européenne, initiatrice du Rapport Mondial sur les Déchets Nucléaires. Aucun pays qui utilise l’énergie nucléaire n’a pu résoudre le problème de stockage et surtout le problème du financement de ce stockage. »

Les combustibles usés occupent un faible volume mais sont considérés comme des déchets de haute activité à vie longue. Quelque 2,5 millions de mètres cubes de déchets de faible et moyenne activité ont déjà été produits en Europe. Sur l’ensemble de leur durée de vie, démantèlement compris, les réacteurs nucléaires européens pourraient produire un total de 6,6 millions de mètres cubes de différents types de déchets nucléaires. Ce volume équivaut à un terrain de football occupé sur 919 mètres de hauteur, soit trois fois la Tour Eiffel, calcule le rapport. La France est responsable de 30 % de ce volume, suivie par la Grande-Bretagne (20 %), l’Ukraine (18 %) et l’Allemagne (8 %). « On doit malheureusement dire que malgré les conventions internationales, malgré les règlements européens, il n’y a aucune unité, regrette Rebecca Harms. On constate que même la question de la classification des déchets nucléaires ne trouve pas de réponse unanime. »

Des coûts de traitement largement sous-estimés

Arne Jungjohann, expert indépendant et coordinateur du rapport, alerte sur la sous-estimation généralisée des coûts de démantèlement, de conditionnement, de transport, d’entreposage et de gestion définitive des déchets nucléaires par les gouvernements nationaux et les opérateurs. « En Allemagne, les coûts de démantèlement des centrales commerciales de Würgassen et de Grundremmingen sont respectivement évalués à 1 900 dollars et 10 500 dollars par kilowatt de capacité installée, partage-t-il. Les gouvernements des pays étudiés estiment des coûts futurs moyen à 940 dollars par kilowatt de capacité installée. » En plus, dans de nombreux pays, il existe un écart important entre ces coûts déjà sous-estimés et les fonds réellement provisionnés. Pour lui, « il y a un risque que les coûts réels, massifs, soient finalement supportés par les contribuables ».

Si la majorité des scientifiques envisagent le stockage géologique profond comme la meilleure solution pour gérer les combustibles usés de haute activité, « aucun pays n’a à ce jour réussi à mettre en œuvre un centre de stockage de ce type », souligne Manon Besnard, ingénieure nucléaire à l’institut négaWatt. La Finlande est actuellement le seul pays à construire un tel site de stockage. La France et la Suède ont défini leur site, l’Allemagne doit sélectionner un site d’ici 2031. « Aucun des pays n’a trouvé de processus qui permette de dire aujourd’hui qu’il y a une garantie d’avoir dans la deuxième moitié du siècle un résultat acceptable, transparent et participatif au niveau du stockage », prévient Rebecca Harms.

Vers un manque d’espace pour stocker les déchets ?

« En France, les déchets sont classifiés selon 4 catégories d’activité – très faible, faible, moyenne et haute activité – et une caractéristique de durée, la période radioactive, avec trois groupes : vie longue, vie courte et vie très courte », résume Manon Besnard À côté, la loi prévoit des matières valorisables, à savoir des substances radioactives pour lesquelles une utilisation est prévue ou envisagée. « C’est une définition qui reste assez vague car il n’y a pas besoin d’avoir un plan précis ou réaliste de réutilisation : il suffit que le producteur de déchets déclare qu’une utilisation ultérieure pourra être envisagée », partage Manon Besnard.

Les dernières données communiquées par l’Andra datent de fin 2018. Les volumes qui n’étaient pas considérés comme déchets entreposés en France comprenaient alors 14 200 tonnes de combustibles usés, 318 000 tonnes d’uranium appauvri, 31 500 tonnes d’uranium de retraitement et 56 tonnes de plutonium séparé. Dans un avis du 8 octobre, l’Autorité de sûreté nucléaire considère qu’en présence de telles quantités, une utilisation ultérieure n’est pas réaliste et qu’il faut requalifier une partie de ces matières en déchet. « C’est le cas de larges quantités d’uranium appauvri, mais également de certains combustibles usés, comme le MOX, pour lesquels aucune réutilisation n’est prévue à court ou moyen terme », précise Manon Besnard qui s’inquiète de la situation actuelle. « La saturation prévisible des entreposages de combustibles usés et le retard pris par EDF dans le projet de construction de nouvelles capacités menace à terme la poursuite même du fonctionnement des réacteurs ».

Airbus capable de produire de l’oxygène à partir du régolithe lunaire grâce à ROXY

Produire de l’oxygène et des métaux à partir de poussière lunaire semble désormais possible. Le 27 octobre, Airbus a affirmé avoir mis au point un procédé nommé ROXY (« Regolith to OXYgen and Metals Conversion », soit « conversion du régolithe en oxygène et en métaux »). Actuellement en cours de brevetage, il permet d’extraire de l’oxygène et des métaux du régolithe présent à la surface de la Lune. Sa conception est le fruit d’une collaboration internationale entre des scientifiques de l’Institut Fraunhofer IFAM (Dresde, Allemagne), de l’Université de Boston (Massachusetts, États-Unis), et d’Abengoa Innovación (Séville, Espagne). Les travaux, dirigés par les ingénieurs d’Airbus Defence & Space, ont duré deux ans et ont été réalisés dans un laboratoire de Fraunhofer IFAM, à partir de régolithe simulé.

« Repousser les limites de l’exploration future »

« ROXY est la preuve que la collaboration entre l’industrie et des scientifiques de renommée mondiale peut apporter d’énormes avantages tangibles qui continueront à repousser les limites de l’exploration future », déclare dans un communiqué Jean-Marc Nasr, directeur d’Airbus Space Systems. « Cette prouesse est un grand pas en avant, qui nous rapproche du Graal : la présence durable sur la Lune », ajoute-t-il. Le géant mondial de l’aéronautique estime que cette avancée pourra prochainement ouvrir la voie à un nouveau type d’exploration spatiale habitée.

« Nous avons cherché une solution économiquement pertinente, qui éviterait de devoir apporter sur la Lune tout l’oxygène nécessaire aux astronautes pour leurs voyages sur la Lune », explique Eugenio Ferreira, responsable R&D Space Exploration chez Airbus. La société affirme qu’à l’exception d’un réacteur, aucune ressource venue de la Terre (ni matériaux, ni consommables) ne sera nécessaire. Le dispositif ROXY a été spécialement conçu dans le but de pouvoir être transporté facilement jusqu’à la Lune. Cela éviterait ainsi de devoir transporter tout l’oxygène nécessaire aux spationautes depuis la Terre lors de futures missions spatiales.

Un procédé conçu pour le vide lunaire

Pour mettre au point ce procédé d’extraction de l’oxygène et des métaux de la poussière lunaire, Airbus a adapté les pratiques employées sur Terre à l’environnement lunaire. « On a développé un procédé qui pouvait être développé dans le vide, et qui diffère un peu de ce qui est connu dans la communauté scientifique », explique Eugenio Ferreira. Ce dernier explique que dans le cadre terrestre, l’intérêt de ce type d’opération est principalement d’extraire des métaux de leur état oxydé, les minerais, car « nous ne manquons pas d’oxygène sur notre planète ». Ainsi, la production d’oxygène apparaissait comme secondaire. Or, dans le cadre du développement de ROXY, c’est justement cet objectif qui a été mis au cœur des travaux des ingénieurs.

Airbus imagine également que ROXY pourra être placé au centre d’une chaîne de valeur intégrée utilisant la fabrication additive pour produire une large gamme de produits « Made on the Moon ». La société indique que ces produits pourraient comprendre des métaux, des alliages, ou encore de l’oxygène. Les ingénieurs travaillant sur le projet évoquent la possibilité de créer un carburant pour fusée en combinant de la glace lunaire et la poudre métallique produite par ROXY. Airbus espère que ROXY pourra être déployé dans l’environnement lunaire dans les prochaines années. « Nous prévoyons de pouvoir industrialiser le processus avant la fin de la décennie », confirme Eugenio Ferreira.

5G : un déploiement à haut risque?

La 5G inquiète les Français selon une étude Oracle/Odoxa menée en septembre. Plus d’un sur deux estime que la mise en place de la 5G en France ne devra se faire qu’une fois que son impact environnemental et sanitaire aura été pleinement étudié. 74 % des Français craignent aussi pour l’utilisation malveillante ou le piratage des données personnelles.

Comme toute invention, la 5G est confrontée à une opinion mitigée. Rappelons que lorsque le chemin de fer est apparu au XIXe siècle, le train était jugé mauvais pour les yeux et les femmes enceintes. Avant de devenir incontournable, l’électricité était source de méfiance.

La première crainte concerne la multiplication des antennes sur le territoire. « Dans un premier temps, nous installerons les équipements 5G sur les antennes 4G existantes. Il n’y aura donc aucune nouvelle antenne pendant plusieurs années, en dehors de celles prévues dans le cadre du « New Deal Mobile″ », assure aux Echos Nicolas Guérin, président de la Fédération Française des Télécoms.

On peut également s’interroger sur les effets des ondes émises sur la santé. En octobre 2019, l’Anses a remis son rapport préliminaire autour des risques sanitaires liés à la 5G. L’Agence sanitaire indiquait que « peu de publications ont étudié les effets d’exposition à des fréquences comprises entre 3 et 6 GHz, déjà utilisées pour les connexions par satellite ou encore le Wi-Fi par exemple ».

Pas d’effets sanitaires spécifiques de la 5G

La principale question est de savoir si l’on peut extrapoler les données nombreuses jusqu’à 2,5 GHz sur les 3,5 GHz. Pour l’instant, l’Anses n’a pas de réponse tranchée car la situation est plus complexe à étudier. Avec le passage de la 4 à la 5G, « on va passer d’une exposition relativement stable dans l’espace et le temps à une situation ou les antennes vont pouvoir focaliser les émissions », avec donc une « variabilité dans le temps et l’espace », précise dans NextInpact Olivier Merckel, responsable de l’unité évaluation des risques liés aux agents physiques de l’Anses.

En France, le dernier rapport sur ce sujet est le fruit « des travaux conduits par la mission sur le plan national et international au cours des mois de juillet et d’août 2020, notamment sur la base d’un questionnaire diffusé aux services économiques régionaux de 22 pays et relayé par l’OMS à ses 40  correspondants dans le domaine des radiofréquences ».

Selon ce rapport publié en septembre dernier(1), « il n’existe pas, selon le consensus des agences sanitaires nationales et internationales, d’effets néfastes avérés à court terme, c’est-à-dire d’effets thermiques délétères sur les tissus […] ni dans le grand public, ni chez les travailleurs ».

Les autorités sanitaires et de contrôle concluent donc de manière concordante à une absence d’effets sanitaires spécifiques de la 5G en dessous des valeurs limites d’exposition.

Le cyberespionnage, dans le collimateur

La seconde crainte liée au déploiement de la 5G concerne les risques d’espionnage. De nombreux pays ont « blacklisté » le géant chinois des équipements télécoms Huawei. Le passé militaire de son fondateur, son appartenance au Parti communiste et une culture d’entreprise opaque chez Huawei ont alimenté les soupçons sur l’influence du régime chinois.

En France, le géant chinois ne fait pas l’objet d’une interdiction totale du marché de la 5G, mais les opérateurs nationaux sont plus qu’invités à faire appel à d’autres équipementiers…

Autre risque : des vols ou des fuites de données sensibles (à caractère personnel ou liées à la santé). Ce n’est pas l’augmentation du débit offert par la 5G qui est à l’origine de ces craintes. Ce n’est pas parce qu’on pourra regarder plus confortablement sa série en streaming que l’on sera plus souvent piraté.

Que l’on utilise un smartphone 4 ou 5G, il est indispensable d’appliquer les mêmes règles de base en matière de sécurité : être vigilant lorsqu’on reçoit des SMS incitant à cliquer sur un lien et lorsqu’on installe une application (s’assurer que ce n’est pas un clone malveillant), faire des mises à jour et des sauvegardes régulières…

Attaques contre des industriels

Les menaces concernent les entreprises. Le réseau 5G permettra de connecter un grand nombre de capteurs. Des secteurs tels que la santé, la logistique, l’énergie et l’électricité en seront les principaux utilisateurs.

Dans une enquête mondiale réalisée en 2019, au moins 80 % des responsables de la cybersécurité et de la gestion des risques sont convaincus que le déploiement des réseaux 5G entraînera pour leurs entreprises des problèmes de cybersécurité accrus.

L’intégration de milliards de petits dispositifs connectés va en effet introduire de nombreuses vulnérabilités. De très nombreux objets connectés (professionnels et grand public) sont piratables. Les attaques DDoS (envoi massif de requêtes pour saturer un serveur ou une machine pour qu’il soit inaccessible) basées sur l’Internet des objets et les autres attaques qui exploitent les vulnérabilités des applications devraient augmenter.

Indirectement, le grand public pourrait être concerné. Diverses possibilités d’atteinte à la vie privée pourraient apparaître, notamment le vol et la compromission de données médicales ou d’identité.

« Les applications de e-santé collecteront des données sur le bien-être des utilisateurs, les services de voiture connectée suivront les mouvements des utilisateurs et les applications de ville intelligente collecteront des informations sur la vie des utilisateurs. Ce volume sans cesse croissant de données à caractère personnel devra être protégé contre les violations et le vol », prévient Xavier Duros, CTO France de Check Point Software, un éditeur israélien spécialisé dans la cybersécurité.

(1) Rapport publié par le Conseil général de l’environnement et du développement durable (CGEDD), le Conseil général de l’économie (CGE), l’Inspection générale des affaires sociales (IGAS) et l’Inspection générale des finances (IGF).

La 5G est-elle réellement la pierre angulaire de la relance de l’industrie française ?

Pour Cédric O, il est urgent que la France voie la 5G déployée sur son territoire, au nom de la santé de l’industrie française. « Tout le monde estime que pour la reprise économique, pour la réindustrialisation, pour l’avenir de l’industrie, c’est extrêmement important », a déclaré le secrétaire d’État chargé de la Transition numérique et des Communications, le 29 septembre, sur l’antenne d’Europe 1.

L’autre argument avancé par Cédric O, en faveur de ce réseau de nouvelle génération, concerne la compétitivité des entreprises sur les marchés internationaux. « Pour pouvoir développer l’industrie en France, on a besoin de la 5G. Attendre, c’est laisser les usines s’implanter ailleurs », affirme le secrétaire d’État. Son impatience s’explique par le fait que plusieurs pays à travers le monde ont adopté la 5G au cours des derniers mois. En effet, en Europe, la 5G a récemment fait son entrée dans plusieurs pays dont l’Allemagne, la Bulgarie, l’Irlande, la Suède et la République Tchèque, selon l’Observatoire européen de la 5G.

« Une solution de connectivité particulièrement adaptée à l’industrie du futur »

Bien qu’elle ne soit pas encore commercialisée, des premières tentatives d’utilisations industrielles de la 5G sont déjà effectuées sur le territoire national. Fin septembre, Schneider Electric a annoncé avoir testé le réseau indoor conçu par Orange dans son usine de Vaudreuil (Eure). Pour cela, l’entreprise spécialisée dans la gestion de l’énergie a installé cinq antennes, mises au point par l’opérateur français, dans ses locaux. Le réseau a été utilisé pour deux cas d’usage : la réalité augmentée liée aux activités des techniciens de maintenance, et la mise en place d’un robot de téléprésence pour les ventes à distance. L’objectif de cette opération a été d’évaluer si la 5G permettait de répondre aux exigences de fiabilité nécessaires à l’industrie.

Les résultats obtenus semblent concluants. « L’expérimentation menée à Vaudreuil valide de nombreux cas d’usage de la 5G. Cela démontre que la fiabilité, l’évolutivité et la durabilité de la 5G en font une solution de connectivité particulièrement adaptée à l’industrie du futur », atteste dans un communiqué Jean-Pascal Tricoire, président-directeur général de Schneider Electric. De son côté, Stéphane Richard, président-directeur général d’Orange, rappelle que les avantages de ce nouveau réseau sont multiples pour les entreprises. « La 5G est une innovation de rupture, une technologie dont les applications industrielles sont nombreuses. Parmi elles se trouvent la maintenance prédictive, ou encore le traitement de vidéos en temps réel », déclare-t-il dans un communiqué.

« Une ineptie totale »

Mais malgré ces bénéfices annoncés, d’autres patrons se montrent moins enthousiastes face à l’arrivée de la 5G. À Labège (Haute-Garonne), Ludovic Le Moan, fait partie de ces sceptiques. Pour le cofondateur de l’entreprise innovante Sigfox, experte dans l’internet des objets (IoT), la puissance de ce nouveau réseau n’est pas nécessairement essentielle à l’industrie innovante. « Avec la 5G, beaucoup plus énergivore [que les réseaux précédents, NDLR], on met l’accent sur le business sans avoir conscience de son impact sur l’environnement », déplore-t-il dans le média local Actu.fr.

En effet, Ludovic Le Moan estime que le recours à un réseau hyper performant n’est pas pertinent pour tous les usages. « La 5G est une ineptie totale pour l’internet des objets. Autant utiliser le bon canal », assène-t-il. « La grande majorité des objets connectés ont besoin de très peu de données à échanger. Il faut donc un réseau de grande capacité, mais à bas débit », poursuit-il. C’est pourquoi l’entrepreneur a mis au point un réseau « zéro G » (un réseau bas débit, suffisant pour l’internet des objets), plus frugal. Cette solution interpelle d’autant plus que, selon le site britannique d’analyses de données GSMA Intelligence, il pourrait y avoir 25,2 milliards de connexions IoT en 2025 contre 6,3 milliards en 2016.

« À débit équivalent, la 5G est moins énergivore que la 4G »

C’est bien connu, les Gaulois ne font jamais comme les autres ! La preuve avec les débats sur les questions environnementales posées par le déploiement de la 5G. « Dans les pays du Nord, mais aussi en Californie – où il y a une préoccupation forte en matière de défense de l’environnement – il n’y a pas autant de débats avec les organisations écologistes sur ce sujet », constate Jacques Moulin. Directeur général d’IDATE DigiWorld depuis 2017, ce spécialiste du numérique a passé plusieurs années au sein du groupe Orange. Selon un opérateur chinois dont Libération a obtenu les données de consommation, les antennes 5G consommeraient environ trois fois plus que les antennes 4G. Pour Jacques Moulin, c’est sans compter les innovations technologiques qu’embarque la 5G. En effet, « la 5G sera plus efficace que la 4G s’agissant de la quantité de bits d’information délivrée pour une unité de consommation d’énergie donnée ».

Techniques de l’Ingénieur : Selon vous, la 5G sera-t-elle plus énergivore comme le prétendent des écologistes ?

Jacques Moulin :À débit équivalent, la 5G est moins énergivore que la 4G, car les antennes qui seront utilisées nativement sont moins consommatrices. Il y a eu une amélioration constante portée par les opérateurs et les équipementiers pour réduire la consommation. N’oublions pas non plus que pour un opérateur, la consommation énergétique représente un coût non négligeable ; ils ont donc tout intérêt à avoir des équipements qui s’améliorent.

Cependant, si l’on déploie de façon massive dans les prochaines années des antennes actives et de nouvelles bandes de fréquences, il est évident que nous aurons une augmentation globale du réseau. Mais elle pourra être compensée par la recherche permanente menée par les équipementiers et les opérateurs. Ainsi, selon le Suédois Ericsson, la consommation des antennes 5G pourrait être in fine inférieure à celle de la 4G.

Trois innovations permettent d’optimiser la consommation. Premièrement, les antennes intelligentes dites « Massive MIMO » (« Multiple-Input Multiple-Output », c’est-à-dire à « entrées multiples et sorties multiples »). En étant capables de trouver le « meilleur » chemin entre une antenne-relais et le smartphone (ou un système automatisé), elles améliorent l’efficacité énergétique. Seconde innovation : la focalisation. Les antennes 5G permettent de focaliser le faisceau sur une zone donnée. Avec la 4G, nous avons un halo qui répand les fréquences sur une zone très large. Enfin, ces nouvelles antennes pourront être mises en veille (1). Le signal radio n’est donc pas émis dans toutes les directions de manière constante, comme c’est le cas avec la 4G.

Dans un premier temps, les opérateurs vont s’appuyer sur les antennes-relais actuelles pour proposer la 5G. Mais, à plus ou moins long terme, ils devront densifier leur réseau ?

C’est exact. Mais il ne s’agira pas de déployer la 5G sur tout le territoire français, cela n’aurait pas plus de sens que de construire une autoroute dans une région où le trafic est faible. Il faut aussi un projet économique derrière le déploiement de cette technologie. La 5G sera donc en priorité déployée dans des zones très denses où la 4G arrive déjà à saturation. Dans d’autres endroits, il sera également plus intéressant de s’appuyer sur le réseau en fibre optique déjà déployé. Enfin, n’oublions pas qu’il y a encore de la 2G et de la 3G. Or, ces équipements sont particulièrement énergivores.

Vous considérez l’arrivée de la 5G comme une opportunité pour optimiser la consommation électrique des industriels ?

La 5G pour l’industrie est une révolution qu’il ne faut pas manquer. Et contrairement à d’autres pays, en particulier la Chine et l’Allemagne, la France a déjà trop tardé dans ce domaine qui est pourtant essentiel en termes de croissance, de compétitivité, donc de création d’emplois. Pour revenir à la problématique de la consommation électrique, la 5G permet en effet aux industries et aux services de mettre en place un système de production moins énergivore. Lorsque vous avez une chaîne de production, il suffit qu’un élément présente un défaut pour que toute la chaine soit impactée. Avec la 5G, et d’une certaine façon avec l’IA, on peut réaliser des opérations de maintenance qui empêchent d’avoir des actions inutiles et qui sont énergivores. La 5G permettra d’améliorer la fiabilité des processus industriels. L’usine 4.0 sera assurément moins énergivore que l’industrie actuelle.

(1) Selon Orange, la 5G pourra proposer différents niveaux de veille, avec la mise en veille de certaines parties de l’étage radiofréquence et de la partie digitale des antennes, pour une économie énergétique de l’ordre de 50 %.

Sherpa s’intéresse au devoir de vigilance de la transition énergétique

La transition énergétique demande beaucoup de minerais pour le déploiement de la mobilité électrique et des énergies renouvelables. La Banque mondiale recense 17 minerais nécessaires à ces technologies comme le lithium ou le cobalt ou encore le néodyme. Mais, l’extraction et l’approvisionnement de ces minerais peuvent engendrer des atteintes graves à l’environnement et aux droits humains. Dans son suivi des minerais de transition, le Business and Human Rights Resource Centre dénombre ainsi 167 cas d’atteintes aux droits humains et à l’environnement pour les 37 plus importantes entreprises impliquées dans l’extraction et l’utilisation de minerais dans le cadre de transition énergétique.

Depuis 2017, la loi sur le devoir de vigilance oblige les grandes entreprises françaises de plus de 5 000 salariés en France ou 10 000 dans le monde à publier et mettre en œuvre un plan de vigilance. Ce dernier doit identifier et prévenir les risques que leurs activités font peser sur les libertés fondamentales, la santé et la sécurité des personnes, les droits humains et l’environnement. Sherpa a donc cherché à vérifier si les plans de vigilance publiés par neuf entreprises françaises soumises à la loi sur le devoir de vigilance contiennent des mesures de vigilance propres à identifier ces risques et à prévenir ces atteintes. Jean François, juriste chez Sherpa, explique ces résultats.

Techniques de l’ingénieur : Votre nouvelle étude porte sur les minerais de la transition énergétique. Les plans de vigilance des neuf entreprises étudiées sont-ils suffisants ?

Jean François, juriste chez Sherpa.

Jean François :Notre nouvelle étude analyse en détail les plans de vigilance de neuf sociétés que nous avions précédemment identifiées comme soumises à la loi sur le devoir de vigilance : EDF, Engie, Total, Bolloré, PSA, Renault, Eramet, Imerys et Nexans. Résultat : les mesures contenues dans leurs plans de vigilance ne répondent pas aux obligations de la loi et demeurent largement insuffisantes par rapport à ce qui devrait être publié et mis en œuvre. Les risques liés à ces minerais n’apparaissant que rarement dans ces plans. En outre, les mesures présentées rentrent tellement peu dans les détails et sont tellement détachées des activités des sociétés que leurs plans pourraient être interchangés. Les entreprises partagent des exemples de mesures qu’elles mettent en œuvre depuis très longtemps, comme des audits ou des certifications, mais qui n’ont jamais suffi à éviter des atteintes à l’environnement ou aux droits humains. Il y a un recours à l’existant que l’on déplore et qui ne répond pas aux objectifs de la loi qui appelaient à des mesures nouvelles et efficaces.

Lorsqu’une entreprise formalise un plan de vigilance, il renvoie le plus souvent à d’autres documents et en particulier à la déclaration de performance extra-financière (DPEF) alors que le Code de commerce dit exactement l’inverse. Le plan de vigilance est un document de référence qu’il faudrait citer dans les différentes obligations de reporting. Dans la pratique, les sociétés ne donnent que des informations très générales et limitées dans leurs plan de vigilance et elles renvoient vers la DPEF pour plus de précisions.

Quelles devraient être les bonnes pratiques à déployer ?

Il faudrait que les sociétés concernées cartographient les risques qui sont vraiment liés à leur chaîne d’approvisionnement. Cela implique dans un premier temps de les connaître. Dans l’idéal, il faudrait que les risques soient identifiés en fonction des pays d’origine des matières premières ou des pays où certains produits sont fabriqués. Les risques sont bien souvent liés à des atteintes directement à l’environnement en cas d’extraction de minerais ou de risques d’atteintes au droit du travail. Il faudrait ensuite définir des procédures d’évaluation de la chaîne de valeur, des actions d’atténuation et de prévention, des mécanismes d’alerte et des dispositifs de suivi de la mise en œuvre effective et efficace des mesures.

Par ailleurs, nous avons voulu savoir si les sociétés avaient anticipé le nouveau règlement européen pour encadrer les importations de 4 minerais – étain, tantale, tungstène et or – provenant de zones de conflit ou à haut risque. Adopté en 2017, il entrera en vigueur en janvier 2021. Il s’applique aux entreprises selon certains seuils d’importation, mais les entreprises ne donnent pas accès à ces informations. PSA est la seule société à avoir indiqué qu’elle serait concernée par ce nouveau règlement. Nous sommes, là encore, loin du compte.

Pourquoi avoir fait le choix de se focaliser sur la chaîne d’approvisionnement des minerais pour la transition énergétique ?

La question de la transition énergétique est capitale, mais elle doit se faire dans des conditions qui ne portent pas atteinte à l’environnement et aux droits humains. Parmi les neuf entreprises retenues, nous avons à la fois des entreprises qui extraient des minerais, des entreprises qui en utilisent pour fabriquer des composants et des entreprises qui utilisent des composants finaux, en particulier des batteries ou des panneaux solaires. En se penchant sur cette chaîne d’approvisionnement, cela nous permettait donc de couvrir l’intégralité de la chaîne de valeur.

Nous ne voulons toutefois pas avoir un message anti-transition. La transition énergétique est un moyen nécessaire pour réduire les émissions de carbone et atteindre les objectifs de l’Accord de Paris. Simplement, il y a beaucoup de greenwashing opéré autour de cela. Notre message est clair : soutenons la transition énergétique mais soyons vigilants sur l’extraction des minerais.

5G et renouvellement du parc de smartphones : le prix à payer pour plus de confort

Comme tout secteur d’activité, celui de la téléphonie mobile arrive au bout d’un cycle.

Avec 299 millions d’unités vendues lors du 1er trimestre 2020, selon une étude du cabinet Gartner, les ventes de smartphones ont enregistré une baisse de 20,2 % par rapport à la même période l’année dernière. Et d’après une étude d’IDC : sur le premier semestre 2020, les livraisons de mobiles auraient accusé une baisse de 10,6% par rapport à l’année passée.

Les cinq principales marques (dont Apple, Samsung, Xiaomi et Vivo), à l’exception de Huawei, ont été touchées par cette baisse historique des ventes. Malgré le renouvellement plus ou moins régulier de leur gamme, elles n’ont pas réussi à convaincre les consommateurs de changer de téléphone.

La 5G est donc considérée par les acteurs des télécoms comme une opportunité de retrouver de la croissance en obligeant les particuliers à acheter un smartphone compatible pour profiter de ses atouts (débits élevés, faible latence…). Encore faut-il aussi être dans une zone couverte par la 5G… Les fabricants de tablettes et d’ordinateurs portables estampillés 5G affichent le même optimisme pour le renouvellement du parc professionnel.

Bouygues a été le premier à lancer des forfaits cet été, suivi par les autres opérateurs. Précisons qu’il s’agit d’abonnements « 4G compatibles 5G », car pour l’instant il s’agit d’une mise à jour des équipements 4 G.

20 % des abonnés prêts à passer à la 5G

Mais la 5G va contribuer à l’obsolescence prématurée de dizaines de millions de smartphones, juste pour la France. Impossible en effet d’en profiter avec un téléphone 4G. Une dizaine de modèles, pour la plupart classés dans le haut de gamme (même si Xiaomi commercialise son « Mi 10 Lite 5G » à 300 € environ), sont compatibles avec cette nouvelle norme.

Ces premiers smartphones 5G intègrent tous des antennes polyvalentes qui utilisent un filtre passe-bas pour utiliser les basses et hautes fréquences. Revers de la médaille, comme elles sont plus grandes, elles ont un impact sur le poids, la taille et l’autonomie de l’appareil. Ces téléphones sont en effet un peu plus grands (entre 150 et 160 mm de hauteur) et lourds (autour de 200 g).

Dans un entretien accordé au quotidien Les Echos, le patron de Free juge que le sujet environnemental qui devrait préoccuper est celui de la consommation et du renouvellement des smartphones. Repenser ce modèle devrait permettre selon lui de « diminuer l’empreinte énergétique du secteur ».

Selon l’association « Halte à Obsolescence Programmée » (HOP), le lancement de la 5G « comporte un risque important d’accélération du renouvellement des appareils numériques, au détriment de la planète et de notre pouvoir d’achat ».

Mais pour l’instant, seuls 20 % des abonnés en France, d’après une enquête menée par le ConsumerLab pour l’équipementier Ericsson, seraient prêts à souscrire à un abonnement 5G.

Un mois dans l’espace #10

Quelles lois sur Mars ?

Elon Musk n’en finit plus d’évoquer la colonisation de Mars depuis quelques semaines. Il y a quelques jours, lors de la convention internationale annuelle de la Mars Society, le patron de SpaceX a notamment évoqué l’objectif de réaliser le premier aller-retour sur Mars dès 2024, grâce à la fusée Starship. Alors que le prototype d’essai SN5 a réussi ses premiers vols d’essai l’été dernier (voir vidéo ci-dessous), Elon Musk s’est montré confiant quant à la capacité de SpaceX à tenir ce timing. Il s’agira d’un vol inhabité.

Elon Musk a également évoqué le rôle de la constellation de satellites Starlink dans les projets à venir, pour assurer une connexion à internet sur terre, puis vers la lune et vers Mars. À cette occasion, on a pu apprendre que les conditions d’utilisation du projet d’accès à internet Starlink font mention de la volonté de SpaceX de s’« affranchir » du droit international sur la planète rouge, si le projet de coloniser Mars est un succès. On peut notamment lire sur ce document : « Pour les services fournis sur Mars, ou en transit vers Mars via Starship ou un autre vaisseau spatial de colonisation, les parties reconnaissent Mars comme une planète libre. Aucun gouvernement basé sur Terre n’a donc autorité ou souveraineté sur les activités martiennes ».

Il est également précisé : « Les diffé­rends seront réglés par des prin­cipes d’au­to­no­mie, établis de bonne foi, au moment de la colonisation de Mars ». La problématique de savoir quelles seront les lois qui feront foi sur Mars n’est pas encore au centre des débats, mais plus la réalité du voyage martien approche, et plus ces sujets vont faire l’objet de toutes sortes de négociations au niveau international.

Retrouvez l’intégralité de l’intervention d’Elon Musk lors de la convention internationale annuelle de la Mars Society : 

Le lancement d’Ariane 6 encore retardé

Prévu initialement à l’automne 2021, le lancement de la fusée européenne n’aura pas lieu avant le deuxième trimestre 2022.

Ariane 6 ©ESA

C’est l’ESA, l’agence spatiale européenne, qui a annoncé la mauvaise nouvelle par l’intermédiaire de Daniel Neuenschwander, son directeur du transport spatial européen, le 28 octobre.

Les raisons avancées font état de difficultés technologiques, aggravées par la crise sanitaire actuelle. Le manque d’effectifs sur les différents sites empêchent les équipes d’avancer au rythme prévu. Ce n’est pas une bonne nouvelle pour le secteur aérospatial français.

Pour en savoir plus, lire l’article publié par Les Echos.

La Nasa confirme que de l’eau se trouve sur la Lune dans des quantités supérieures aux prévisions

L’agence américaine a fait des annonces, le 26 octobre dernier, pour préciser principalement deux éléments attendus mais aujourd’hui confirmés : de l’eau se trouve bien sous forme moléculaire sur la face éclairée de la Lune ; des zones sur la Lune où cette eau pourrait être stockée de façon stable ont été identifiées.

Ces annonces font suite à deux études consacrées à l’eau sur la Lune publiées dans la revue Nature Astronomy. Le fait n’est pas nouveau. Des traces d’hydratation avaient déjà été mises en évidence au niveau du pôle sud de la Lune.

La grande nouveauté, c’est qu’il était jusqu’alors possible d’affirmer que des combinaisons oxygène/hydrogène étaient présentes, mais sans savoir si on avait à faire à de l’oxyde d’hydrogène (OH) ou de l’eau (H2O). Désormais on sait : la première étude, se basant sur les données récoltées par l’observatoire SOFIA, a permis d’identifier la signature spectrale de l’eau, sans aucun doute possible.

La seconde étude fait intervenir la notion de « cold trap », littéralement un piège froid : une zone de la Lune qui se trouve toujours à l’ombre, de part son relief particulier. Cette ombre permanente offrirait des conditions suffisantes pour que la zone puisse stocker de l’eau. En quelles quantités ? On ne sait pas encore.

Mais cette découverte est intéressante pour un certain nombre de programmes sur lesquels travaille la Nasa, et notamment le programme Artemis. Ce dernier prévoit, d’envoyer des astronautes sur la Lune, en 2024, pour mettre en place les premiers éléments d’une base permanente (voir image ci-dessous) sur notre astre. Et la présence d’eau en quantité importante et exploitable sera forcément une donnée d’importance pour choisir l’emplacement de cette implantation.

Dessin d’artiste illustrant la mission Artemis. ©Nasa

Par Pierre Thouverez

L’empreinte géologique de l’humanité est visible et a un commencement : 1950

L’Anthropocène est un terme popularisé à la fin du XXe siècle par le prix Nobel de chimie Paul Josef Crutzen et le Biologiste Eugene Stoermer pour désigner une nouvelle époque géologique succédant à l’Holocène, qui aurait débuté avec la révolution industrielle à la fin du XVIIIe siècle. En étudiant 16 marqueurs d’impact majeurs, causés notamment par l’accroissement de la consommation énergétique lié aux activités humaines, une équipe composée de 18  chercheurs du monde entier et appartenant à un groupe de travail sur l’Anthropocène propose une date assez précise et bien plus récente : 1950.

Une première mondiale

Jaia Syvitski, professeure émérite de l’université de Colorado Boulder et première auteure de la publication récemment parue dans Nature Communications Earth & Environment¹, l’affirme dans un communiqué de presse : « C’est la première fois que des scientifiques documentent l’empreinte géologique de l’humanité à une telle échelle, en une seule publication ».

Cette publication nous renseigne en effet sur les moteurs naturels des changements environnementaux depuis les derniers 11 700 ans, c’est-à-dire le début de l’Holocène. Cette étude d’envergure met clairement en évidence que les changements planétaires survenus depuis 70 ans sont directement liés aux activités humaines.

L’étude met en avant 16 facteurs, dont voici quelques exemples. Sur cette période de 70 ans, l’espèce humaine a :

  • réalisé plus de 500 explosions thermonucléaires en surface, à cause d’essais nucléaires militaires, laissant une signature claire et durable de nos activités à travers l’émission de radionucléides ;
  • doublé la quantité d’azote fixée, notamment à cause des productions industrielles pour l’agriculture ;
  • formé un trou dans la couche d’ozone, à cause des rejets industriels de composés organiques chlorés (CFCs) ;
  • relâché suffisamment de gaz à effet de serre par la combustion d’énergies fossiles pour créer un changement climatique ;
  • créé de manière artificielle des dizaines de milliers de fois plus de composés minéraux différents qu’il n’en existe à l’état naturel sur terre.

L’étude précise néanmoins que ces facteurs de changements planétaires ne sont pas tous suffisants pour définir l’Anthropocène de manière géologique, mais ils le deviendront si les tendances actuelles se confirment.

Par ailleurs, ce qui est certain, c’est qu’il existe un facteur emblématique de notre impact sur la planète : nous avons tellement produit de plastiques depuis la moitié du XXe siècle que les particules microplastiques sont en train de devenir un marqueur clair et omniprésent de l’Anthropocène.

Jaia Syvitski ajoute : « Nous les humains, nous sommes mis tout seuls dans cette situation, nous devons travailler ensemble pour renverser ces tendances environnementales et nous en sortir. »

Le récap’ insolite du mois #7

Jouez avec des personnages en VR

Êtes-vous prêt à prendre part à ce film interactif qui permet de mélanger réalité virtuelle, jeu et cinéma  ? Ce projet est une coproduction entre le studio indépendant de Toronto Transitional Forms et l’Office national du film (ONF) du Canada, qui a été présenté lors du Festival international du film de Venise.
Les téléspectateurs ont la possibilité de regarder une histoire,  de s’impliquer et de changer l’action avec des personnages dotés d’IA et livrés à eux-mêmes. Pour Pietro Gagliano, un des réalisateurs, « beaucoup de films interactifs ont des moments décisifs, où vous pouvez rejoindre le récit, mais je voulais créer quelque chose qui vous permette de transformer l’histoire à tout moment. »
L’empathie est un élément clé de ce qui rend cette réalisation si percutante pour le spectateur. En effet, c’est un tout autre monde lorsque vous pouvez observer, interagir et apprendre de vous.

Une puce en bouse pour protéger des ondes téléphoniques.

La Commission nationale de la vache en Inde affirme avoir réussi à mettre au point une puce à base de bouse qui permettrait d’éviter les radiations nocives émises par les téléphones portables.
«Nous avons observé que si l’on place cette puce dans son portable, elle réduit les radiations de manière significative», a affirmé Vallabhbhai Kathiria en montrant une fine plaquette de couleur jaune de la taille d’une carte SIM. Le chercheur n’a fourni aucun autre détail sur les recherches ayant permis cette découverte.
Le président de la Commission nationale de la vache a également déclaré au quotidien The Indian Express que les «puces» étaient fabriquées grâce à plus de 500 abris pour vaches et coûtaient environ 100 roupies pièce (1,36 dollar ou 1,156 euro).
Bien qu’il n’existe aucune démonstration scientifique des bienfaits prêtés à la bouse de vache, des membres politiques prônent sa vertu thérapeutique y compris pour soigner le coronavirus.

Un sabre laser réellement fonctionnel et dangereux

Les ingénieurs frapadingues de Hacksmith Industries viennent de dévoiler un sabre laser au plasma parfaitement fonctionnel. Ce dernier est en effet capable de générer une flamme au plasma chauffée à 4 000 degrés ! À ces niveaux de chaleur, le sabre laser parvient même à découper des matériaux solides !
Le stockage du gaz (propane) nécessaire à la création d’un rayon plasma est contenu dans une cuve reliée à un sac à dos de style steampunk. Le mélange propane oxygène génère un rayon plasma, tandis que le dosage de ce mélange permet de contrôler la longueur du faisceau. Il est même possible de rajouter certains composants chimiques à la base du faisceau (comme du chlorure de sodium) afin d’en modifier la couleur ! Évidemment, ce sabre laser s’avère éminemment dangereux à l’utilisation. La réalité ne rejoint pas la fiction sans contrepartie…

« Le conducteur aura plus un rôle de supervision »

Si ces véhicules de niveau 2 sur l’échelle SAE laissent l’entière responsabilité de la conduite au conducteur, ils lui offrent plus de confort et de sérénité. Ainsi le rôle du conducteur évolue pour se concentrer plus sur des tâches de supervision.

Luc Bourgeois, expert leader ADAS/AD au sein du Groupe Renault, revient pour Techniques de l’Ingénieur sur cette évolution.

Il nous explique également ce qui sépare encore les constructeurs de la mise en circulation de véhicules autonomes de niveau 3, lesquels permettront au conducteur de déléguer la conduite au véhicule, sous certaines conditions. Ce que le niveau 2 ne permet pas.

Techniques de l’Ingénieur : Quelle est l’offre actuelle de Renault en termes de véhicules ADAS ?

Luc Bourgeois : Renault déploie des ADAS depuis plusieurs années maintenant. Notre offre se décline autour de trois grandes domaines : la sécurité, le confort et les aides à la manœuvre.

Luc Bourgeois, expert leader ADAS/AD au sein du Groupe Renault

Prenons deux exemples. Avec notre Assistant Autoroute et Trafic, qui est un ADAS de niveau 2, le système gère à la fois le contrôle longitudinal et le contrôle latéral: il adapte la vitesse du véhicule, jusqu’à l’arrêt complet, en fonction du véhicule devant lui et maintien son centrage dans sa voie. Le tout de manière coordonnée. Tout ceci est possible grâce aux capteurs embarqués, que sont les caméras et les radars principalement.

Dans le domaine des aides à la manœuvre, Renault propose par exemple des vues à 360° pour l’aide au parking, en plus des dispositifs de détection à base d’ultrasons.

Ces innovations font-elles évoluer le rôle du conducteur ?

Il faut bien garder à l’esprit que le conducteur, même avec l’assistance de ces ADAS évoluées de niveau 2, est toujours responsable de la conduite. Mais, son rôle évolue. Pour vous donner un exemple : Quand vous n’avez pas de régulateur de vitesse dans votre véhicule, vous allez vérifier le compteur de vitesse environ dix fois par minute. Ces contrôles fréquents font quitter la route des yeux et entraînent une fatigue,  oculaire notamment. Avec des ADAS évolués de niveau 2, cette vérification n’est plus nécessaire. Le conducteur est alors amené à passer plus de temps à la supervision de la scène de conduite qu’à la conduite elle-même. Cela apporte plus de sérénité au conducteur et aussi plus de sécurité, pour lui et les autres usagers de la route.
D’ailleurs, on mesure aujourd’hui des gains substantiels en termes de sécurité routière liés au déploiement des ADAS, c’est important de le préciser.
Pour autant, s’il a plus un rôle de supervision de l’environnement de conduite grâce aux ADAS de niveau 2, le conducteur reste responsable de la conduite..

Qu’est-ce qui nous sépare du niveau 3 d’autonomie, qui permet au conducteur de déléguer la conduite au véhicule sous certaines conditions ?

A partir du niveau 3 en effet, on peut offrir au conducteur ce que l’on appelle une délégation de conduite. Dans ce cas, le conducteur peut utiliser un mode qui lui permet de sortir des tâches de conduite et de la surveillance de la scène de conduite, sous certaines conditions. Aucun constructeur ne le propose aujourd’hui, mais tout le monde y travaille.
A partir des fonctions ADAS de niveau 3, il faut considérer ce qu’on appelle l’ODD (Operational Domain Design) : c’est le domaine de fonctionnement dans lequel on va autoriser un véhicule à proposer un moment de délégation de conduite. Aujourd’hui nous travaillons sur des ODD limités : routes à voies séparées, trafic assez dense et vitesse limitée. Du coup, ces ADAS permettront de proposer des moments de délégation de conduite. On ne parle pas pour le moment d’ADAS qui offriront une délégation de conduite à n’importe quel moment, mais uniquement dans les zones où les conditions de fonctionnement de l’ADAS sont réunies garantir la sécurité.

Revenons sur les ADAS de niveau 2. Quelles sont les innovations à venir ?

Pour améliorer encore le confort, la sécurité et les émissions de CO2 à l’usage, il faut mieux anticiper les situations routières. Concrètement, les systèmes de bord doivent comprendre encore mieux et les caméras « voir » plus loin ce qui se passe autour du véhicule. Aujourd’hui, les capteurs « voient » à environ 200 mètres autour de la voiture, 400 mètres pour les caméras. Cette distance n’est pas toujours suffisante pour anticiper des situations, notamment celles liées au vecteur énergétique du véhicule. Sur autoroute, à 130 km/h, en cas de freinage, il est préférable que la distance de perception des capteurs soit plus importante, afin de mieux appréhender les situations. Cela permet au véhicule d’adapter son freinage, et permet des économies très importantes en matière d’émissions polluantes des véhicules, en plus de l’aspect sécuritaire.

Pour doter les véhicules de ces capacités d’anticipation, on les connecte. Dans les mois et les années qui viennent vont se développer des connectivités, de véhicule à véhicule, et entre le véhicule et l’infrastructure autour de lui. L’amélioration de la capacité du véhicule à pouvoir identifier son environnement lui permettra, pour reprendre l’exemple du freinage, de beaucoup plus anticiper – un virage, un stop, un ralentissement du trafic – pour adapter ses actions.

Sans parler de la connexion avec les autres véhicules où avec l’infrastructure autour du véhicule, l’amélioration de la connectivité du véhicule lui-même permet déjà de proposer des ADAS innovants. Aujourd’hui, à travers une cartographie connectée et mise à jour régulièrement, on peut avoir une connaissance de la géométrie des cartographies routières. C’est un outil très puissant pour améliorer l’aide à la conduite et l’efficience des véhicules.

 Propos recueillis par PierreThouverez

Une réforme de la Politique Agricole Commune qui manque d’ambition

« Nous ne pensions pas avoir un constat aussi négatif en fin de semaine dernière, regrette Mathieu Courgeau, président de « Pour une autre PAC ». Le texte sera sans doute un peu meilleur que l’ancienne PAC, mais n’est pas du tout suffisant pour relever les défis de la décennie à venir à la fois sur les paysans, l’environnement et le climat ». L’association qui fédère 43 organisations issues du monde paysan, des citoyens-consommateurs, des organisations de solidarité internationale, de protection de l’environnement et du bien-être animal, regrette que le Parlement européen ne se montre pas plus ambitieux.

Un budget plus vert ou un manque d’ambition ?

Le budget de la Politique Agricole Commune se répartit de façon inégale entre ses deux piliers. Les aides découplées de la production agricole, liées à taille des surfaces cultivées, ainsi que les aides couplées à la production, principalement pour l’élevage laitier, accaparent 70 % du budget. Elles constituent les aides directes, associées au premier pilier de la PAC, pour soutenir les marchés et les revenus des agriculteurs. Les 30 % restant concernent les aides du deuxième pilier, à savoir les aides liées au développement rural et à l’environnement. Il s’agit des mesures agro-environnementales et climatiques (MAEC), des mesures d’aides à l’agriculture bio, des aides à l’investissement et à l’installation de jeunes agriculteurs et de l’indemnité compensatoire d’handicap naturel (ICHN).

Avec le texte voté par le Parlement, les subventions distribuées aux agriculteurs continueront d’être principalement déterminées par le nombre de surfaces cultivées et concernent avant tout le premier pilier de la PAC. Mais un nouvel outil intéressant entre en jeu pour accompagner la transition écologique : les « écorégimes ». Par ces écorégimes, les États membres s’engagent à transférer au moins 20 % de l’enveloppe accordée précédemment au titre du premier pilier à des programmes ayant un bénéfice environnemental, dans le deuxième pilier. Les organisations membres de « Pour une autre PAC » demandaient de transférer 40 % de cette enveloppe. « Nous aurions aimé avoir un calendrier de diminution des aides directes données à la surface sur les 5 ans à venir, partage Mathieu Courgeau. Nous aurions aimé que cet argent soit redirigé vers la transition agroécologique, que l’on ait un accompagnement beaucoup plus fort de toutes les fermes pour les inciter à changer leurs pratiques et que l’on soutienne vraiment les petites et moyennes fermes. »

Des plans stratégiques nationaux pour décliner la PAC

Chaque État membre doit désormais élaborer son plan stratégique national (PSN). Il s’agit de la déclinaison nationale que chaque pays entend faire des mesures de la PAC. Les eurodéputés ont voté un amendement pour que ce PSN soit conforme au Pacte Vert européen. L’ambition finale de la PAC dépendra beaucoup de chaque État membre et du montant des subventions transférées du premier au second pilier. « Actuellement, il n’y a pas de cap clair qui est donné, juge Mathieu Courgeau. Le risque est qu’il y ait 27 PAC différentes, avec des pays qui sont sur un marché commun. »

Le texte sera discuté désormais en trilogue, entre Commission, Parlement et Conseil européen. En parallèle, les États membres doivent élaborer leur plan stratégique national (PSN). En attendant, les ONG entendent mener campagne pour un texte plus ambitieux. « L’une de nos revendications principales est que l’argent de la PAC aille vers ce qui compte : les actifs paysans, l’emploi et la transition agroécologique », prévient Mathieu Courgeau.

Chaque PAC a échoué à définir un plafonnement des aides et cette question continue de faire débat. En juin 2018, la Commission européenne proposait d’avoir une dégressivité des aides directes liées au premier pilier, à partir de 60 000 euros, avec un plafond à 100 000 euros. Mathieu Courgeau résume ainsi la question : « Les ministres de l’agriculture européens sont d’accord sur ces chiffres mais rendent ce dispositif facultatif. Les eurodéputés veulent le rendre obligatoire. Le trilogue donnera le fin mot de l’histoire. Nous demandions un plafonnement de l’ensemble des aides à 50 000 euros. Nous avons conscience que la bataille est perdue d’avance sur ce point. »

Systèmes de Transport Intelligents coopératifs : quelles sont les normes en Europe ?

Extrait de l’article Normes européennes dans les STI coopératifs pour les usagers de la route par Michelle WETTERWALD

Une mobilité autonome nous dirige à terme vers une robotisation de la conduite automobile avec deux impacts majeurs : l’élimination des erreurs de conduite d’origine humaine, et de leurs conséquences parfois dramatiques, et l’accès à l’automobile pour de nouvelles catégories d’usagers, comme les personnes âgées ou handicapées. Sans compter qu’une mobilité autonome apporte un confort supplémentaire aux usagers traditionnels qui ont la possibilité de se divertir plutôt que de se concentrer sur leur trajet.

Les véhicules du futur seront donc plus sûrs, mais aussi plus complexes car ils réuniront deux types d’innovation technologique : d’une part les évolutions des systèmes embarqués autonomes (Advanced Driver Assistant System ou ADAS), type ABS (Anti-lock Braking System) ou ESP (Electronic Stability Program), régulateur de vitesse, allumage automatique des dispositifs d’éclairage…, basés sur des capteurs internes et contrôlés par logiciel, et d’autre part les systèmes de transport intelligents coopératifs (STI-C) basés sur des communications par radio, de nouveaux services numériques et la localisation. Bien avant l’arrivée du véhicule autonome, ces véhicules disposeront de logiciels capables de diffuser autour d’eux leurs données internes de manière pertinente, de détecter la probabilité d’une collision avec un autre usager de la route (véhicule, cycle, piéton) ou d’un embouteillage et de prendre des décisions pour informer ou non le conducteur selon l’importance de l’événement. Ces systèmes font partie de l’application des STI en préparation chez les différents constructeurs, pour un marché estimé par les analystes à plusieurs milliards d’euros, attirant l’intérêt de nombreux industriels aux objectifs parfois divergents.

Les normes et leurs spécifications associées ont pour rôle de garantir que la complexité de ces systèmes reste gérable industriellement. Parce qu’ils préparent l’interopérabilité des équipements et des systèmes, les standards encouragent l’innovation, l’ouverture et le développement des marchés. Ils améliorent la qualité et la fiabilité des produits, évitent la multiplication des efforts, favorisant des systèmes modulables construits avec des composants interchangeables, sans que la fonctionnalité soit altérée. Ils incitent donc à une plus grande confiance dans les approvisionnements, les services et les produits finaux. Pour être efficace, l’effort de normalisation doit suivre une approche harmonisée au niveau du système, mais aussi des différents composants, et permettre ainsi le déploiement des nouveaux équipements et services dans un environnement global. La normalisation est donc l’un des piliers de l’élaboration d’une nouvelle technologie.

Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 11 novembre 2020 !

Normes européennes dans les STI coopératifs pour les usagers de la route par Michelle WETTERWALD

 

« Les navettes autonomes, une extension de service pour les passagers »

Patricia Villoslada, directrice des Systèmes de transport autonome chez Transdev, groupe international de transport public depuis 2016, a répondu aux questions de Techniques de l’Ingénieur quant à l’évolution en cours des mobilités et les défis technologiques qui les sous-tendent.

Techniques de l’Ingénieur : Vous dirigez l’équipe en charge des systèmes de transport autonome chez Transdev. Quelle est la mission de votre équipe ?

Patricia Villoslada, directrice des Systèmes de transport autonome chez Transdev ©Stéphanie Pfeiffer

Patricia Villoslada : Notre rôle, en premier lieu, consiste à fournir aux opérateurs de transport les solutions pour qu’ils puissent opérer des flottes de véhicules autonomes.
Pour cela, nous avons développé des technologies et des services dont le logiciel de supervision des véhicules autonomes, et tous les services d’accompagnement avant et pendant l’exploitation. En amont, nous faisons des études techniques, des tests sur place, nous nous assurons que les véhicules communiquent correctement avec la supervision, avec les feux connectés s’il y en a… Ensuite, pendant l’exploitation, nous sommes en support de l’opérateur, à distance ou sur site si nécessaire.

Votre équipe a été mise en place en 2016, mais Transdev travaille sur le véhicule autonome depuis 2005. En quoi consistait ce travail ?

En 2005 a en effet démarré le premier service dans lequel était impliqué Transdev autour des véhicules autonomes. Il s’agit d’un projet à Rotterdam, avec des navettes autonomes, opérées par Transdev Pays-Bas. Le service, qui continue encore aujourd’hui, se déroule en environnement protégé, avec des barrières autour des voies utilisées, et des éléments magnétiques enfouis dans la chaussée, pour assurer la localisation des véhicules. Il s’agissait alors d’une première génération de véhicules autonomes. Ce projet a vu le jour avant la création de l’équipe en 2016, mais il est évident que nous nous sommes appuyés sur toute l’expérience acquise par les équipes de Transdev impliquées. Les nombreux projets menés depuis 2016 nous ont aussi permis de développer des compétences et une expertise sur tout un ensemble de sujets : gestion de flottes, comportement des passagers, interopérabilité…
Depuis, nous avons en effet accompagné près de 50 opérations au total au niveau mondial.

Quels sont les challenges aujourd’hui en ce qui concerne le transport autonome ?

Aujourd’hui, on ne peut pas encore retirer les « safety operators » (opérateurs présents dans les véhicules pour suivre son fonctionnement et intervenir le cas échéant). Le modèle économique ne trouve pas son équilibre comme cela. Par ailleurs, les navettes actuelles, qui évoluent à 20 km/h, limitent les performances en termes de temps de trajet. Ce sont les deux grands axes d’amélioration sur lesquels nous travaillons aujourd’hui.
Il était nécessaire de passer par ces différentes étapes, et nous devons désormais passer à l’étape suivante, qui est de pouvoir opérer des navettes autonomes sans safety operators, et qui soient plus rapides. Il faut commencer à le faire dans des conditions simples, sur des voies identifiées, avec peu de véhicules et le moins de contraintes – feux, imperfections de la route… – possibles. Pour aller dans un second temps vers des situations de plus en plus complexes.
Nous devons encore, de manière globale au niveau du secteur, faire la démonstration de la sécurité du système. Cela dit, nous développons actuellement les solutions qui vont permettre d’opérer des navettes autonomes sans « safety operator » et à plus de 20 km/h d’ici 2025. C’est notre objectif.

Qu’est-ce que tout cela nous dit sur l’évolution des mobilités ?

Remplacer les transports collectifs existants par des véhicules autonomes plus petits ne peut pas fonctionner. Au contraire, cela créerait une congestion du trafic encore plus importante. La solution passe par le fait de garder les axes structurants d’aujourd’hui (modes ferrés, trams, lignes de bus) et d’ajouter des navettes autonomes dans les espaces peu desservis ou non desservis aujourd’hui faute de fréquentation suffisante. En bref, le déploiement de navettes autonomes permettra une extension de service pour les passagers.

Ensuite, l’idée est également de faire fonctionner ces navettes autonomes pendant les heures creuses, et pendant la nuit. Ce qui n’est pas possible aujourd’hui pour une question de coût le sera avec les navettes autonomes.

Pourquoi ?

Une fois l’investissement de déploiement réalisé, l’exploitation des systèmes de transport autonome est peu onéreuse : le coût supplémentaire de les faire fonctionner la nuit ou pendant les heures creuses est marginal, et ce même si la demande est relativement faible. On pourrait donc imaginer une complémentarité entre les transports publics existants, qui continueraient à fonctionner, et qui seraient suppléés par des navettes autonomes la nuit ou pendant les heures creuses.

C’est cette complémentarité entre les transports publics existants et les navettes autonomes qui est expérimentée actuellement ?

Oui tout à fait. Beaucoup de personnes prennent leur voiture pour aller travailler car ils habitent loin de la station de train, ou que cette dernière est peu desservie par les bus par exemple.

La navette autonome i-Cristal codéveloppée par Transdev et Lohr ©Andrew Wheeler / Capa Pictures

La navette autonome, en proposant ce service, peut permettre de faire évoluer les choses et participer au désengorgement du trafic dans les centres urbains.

C’est ce type de solution que nous testons actuellement, par exemple à Rouen où nous avons un projet important [i] : nous avons expérimenté un transport à la demande à partir d’un arrêt de métro. Il s’agit en fait d’une extension géographique du service de transport en commun. Une fois ce service déployé, il faut évaluer dans quelle mesure il est efficace et adopté par les habitants.

De même, à Paris-Saclay où nous sommes impliqués dans un autre projet du même type [ii] : il y a toujours des voyageurs qui arrivent en gare de Massy, de nuit, alors que les bus ne circulent plus. D’où la perspective de mettre en place entre la gare de Massy et le plateau de Saclay un service de transport autonome complémentaire. Avec encore une fois la volonté d’étendre le service, ici de manière temporelle, pour en améliorer sa cohérence et son efficacité globale.

Pensez-vous que l’extension des services ainsi développée au niveau des transports publics va faire diminuer l’usage des véhicules individuels ?

Notre vision, ce n’est pas que les véhicules autonomes vont remplacer les modes de transport lourds existants : les deux vont cohabiter, et coexister de manière complémentaire pour offrir plus de services aux voyageurs. Certaines lignes de bus, aujourd’hui, ne sont pas mises en place parce qu’elles coûteraient trop cher. La baisse des coûts d’exploitation liée à la mise en place de véhicules autonomes partagés peut être une solution à ces contraintes de rentabilité. Elle rend possible la mise en place de nouveaux services.

Le déploiement de ces services de transports autonomes peut permettre d’améliorer la qualité des transports publics tout en faisant diminuer l’usage des véhicules individuels. Par contre, nous n’imaginons pas que les navettes autonomes remplacent les modes lourds ou les véhicules individuels, elles viennent dans ce format plutôt en complément de ce qui existe déjà.

Aujourd’hui les navettes déployées sont de petite taille, si on les compare aux bus qu’on a l’habitude de voir circuler. Peut-on imaginer des véhicules autonomes ayant une capacité de transport plus importante ?

Nous avons à l’heure actuelle beaucoup de cas d’usages autour des navettes autonomes. Dans le futur, il est certain que nous verrons apparaître des bus autonomes, avec une plus grande capacité de transport. Il y aura alors un mélange entre ces différents gabarits de véhicules autonomes complémentaires, toujours dans le but de proposer plus de services aux voyageurs.

Peut-on se projeter sur une mobilité future où l’usage du véhicule personnel devient rare ?

Ce que je pense, c’est que si nous parvenons, dans le futur, à proposer un système de transport en commun encore plus efficace, notamment grâce à l’usage des véhicules autonomes, les usagers de la route utiliseront moins leurs véhicules personnels.
Après, ce n’est là qu’un des scénarios possibles. Pour aboutir à ce que l’on vient d’évoquer, il faudra qu’une politique – au sens générique du terme – se mette en place autour de cette vision. Il faudra aussi que les habitants adoptent ces nouveaux services, même si nous avons de bons retours aujourd’hui sur la confiance dans les navettes autonomes partagées que nous opérons. Il est évident qu’une part de la population pourra vouloir conserver un véhicule personnel par exemple… Il n’est donc pas exclu que la mise en place de services de transports autonomes se fasse de manière hétérogène. A l’international aussi, il faudra voir au cas par cas les tendances qui se dessinent autour de ces nouveaux usages.

L’évolution des mobilités englobe également les services connexes disponibles pour les usagers pendant leur transport. Que peut-on imaginer à ce niveau-là ?

C’est une question que nous nous posons régulièrement. Il faut bien prendre en compte le fait qu’un transport en commun autonome ne sera jamais la même chose qu’un véhicule personnel autonome. Les transports en commun sont partagés, par définition. Quand vous êtes dans un véhicule qui n’est que pour vous, que ce soit un taxi ou votre propre véhicule, il est possible d’imaginer des services à bord plus personnalisés… Pour autant, les exigences des passagers quant à la connectivité, le confort, l’information, sont de plus en plus importantes et ce sont des attentes que nous prenons évidemment en compte dans la définition de notre expérience client.

Le choix de Transdev de miser sur les navettes autonomes répond à cette volonté d’extension des services de transport. Comment appréhendez-vous le développement des taxis autonomes et autres véhicules autonomes individuels ?

Le véhicule autonome individuel existera sans doute, même si cela prend plus de temps que ce qui avait été imaginé au départ par l’industrie. Après, il faut bien comprendre que les bénéfices que nous en attendons, notamment au niveau des villes, ne sont pas automatiques. Il faut une véritable politique de mobilité, pensée en amont, pour que ce qui sera mis en place apporte les bénéfices attendus, au niveau de la diminution de la congestion notamment. Le robot taxi individuel seul n’est de ce point de vue pas la bonne réponse, selon nous. Des véhicules autonomes de petites ou grandes tailles, bien intégrés au réseau de transport public existant, c’est selon nous la réponse qu’il faut apporter, et celle sur laquelle nous travaillons. Si nous arrivons grâce aux véhicules autonomes à convaincre une partie des autosolistes, alors le pari sera gagné. Et les bénéfices seront multiples : au niveau des déplacements, de l’environnement, de la connectivité, des espaces urbains… Mais il faut pour cela que cette évolution soit anticipée.

Propos recueillis par Pierre Thouverez

[i] Il s’agit du Rouen Normandy Autonomous Lab démarré en 2017 et dont les partenaires sont : le Groupe Caisse des Dépôts, la Métropole Rouen Normandie, la Région Normandie, le Groupe Transdev, le Groupe Renault, le Groupe Matmut et l’Europe / FEDER.

[ii] Il s’agit du Paris-Saclay Autonomous Lab démarré également en 2017 et dont les partenaires sont : le Groupe Renault, le Groupe Transdev, l’institut Vedecom, l’IRT SystemX, l’Université Paris-Saclay et qui a bénéficié du concours des Investissements d’Avenir de l’Etat confiés à l’ADEME.

Image de une : Navette autonome à Rotterdam ©Jan Kok – Boomerang Fotografie

« Les concepts de mobilités doivent s’adapter au contexte de chaque ville »

La notion de mobilité intelligente consiste à rendre les transports plus efficaces via notamment les atouts du numérique et de la connectivité. Les systèmes de transports intelligents sont amenés à communiquer entre eux, avec des tiers, pour désengorger le trafic, et être présent là où est la demande.

Fawzi Nashashibi est responsable d’équipe-projet à l’INRIA. A ce titre il est l’un des auteurs d’un livre blanc publié par l’INRIA et intitulé « véhicules autonomes et connectés ». Pour Techniques de l’Ingénieur il revient sur le développement des systèmes de transports intelligents, et sur tout ce qu’il faudra mettre en place autour de ces systèmes pour développer une mobilité plus intelligente.

Il nous explique également les impacts sociaux, technologiques et culturels de ces changements en cours.

Techniques de l’Ingénieur : qu’est-ce qui nous sépare du véhicule ayant un degré d’autonomie égal à 5, c’est-à-dire totalement autonome ?

Fawzi Nashashibi : Nous en sommes encore très loin. Aujourd’hui, tous les systèmes existants qui circulent comme les véhicules développés par Tesla par exemple, sont au mieux au niveau 2+ ou 3 d’autonomie. Nous n’avons toujours pas atteint le niveau 4, et encore moins le niveau 5, synonyme d’autonomie complète.
Le niveau 5 est traité de deux points de vue : celui de la mobilité collective, à laquelle nous avons beaucoup contribué à l’INRIA à travers le projet européen CityMobil, en 2011, avec la mise en place dans la ville de La Rochelle de navettes autonomes en environnement partagé.
La seconde facette du degré 5 d’autonomie, c’est le taxi autonome, pour le transport privé de personnes.
Il ne faut pas oublier également le transport autonome de marchandises et le fret en général, sur lequel les industriels travaillent beaucoup.

L’augmentation d’autonomie des véhicules doit se faire en cohérence avec l’évolution des infrastructures pour aboutir à une mobilité plus intelligente. Comment faire ?

Le véhicule autonome peut se voir comme un simple véhicule, mais ce n’est pas seulement ça. Les véhicules autonomes font partie d’un véritable écosystème de mobilité. C’est un maillon de la chaine de transport.
Quand vous allez déployer une navette autonome, vous devez d’abord le faire pour répondre à un besoin. Mais tant que l’infrastructure ne sera pas adaptée dans les villes, on ne gagnera pas grand chose en termes de temps de trajet et donc de mobilité. Le seul critère où on pourra progresser, c’est la sécurité. C’est pour cela qu’il faut absolument que les progrès réalisés en terme d’autonomie sur les véhicules soient accompagnés par une adaptation, en même temps, des infrastructures qui permettront le déploiement de ces transports intelligents.
Un gros défi est aussi celui des données générées par les véhicules autonomes. Si nous faisions circuler les véhicules autonomes, ce sont des téras et des térasoctets d’informations qui vont être échangés continuellement.
Au niveau du véhicule, il faut des architectures de traitement de données très évoluées. Et des capacités de stockage très élevées. Pour une petite flotte de véhicules autonomes par exemple on aura besoin de zettaoctets (10 puissance 21 octets). Il va falloir stocker ces données dans des datacenters hyper-connectés, probablement dans plusieurs endroits pour assurer la sécurité des données…
Ensuite il faudra les rendre disponibles pour ceux qui en ont besoin : le chercheur qui va les utiliser pour améliorer le système, l’assureur qui les analysera pour générer ses stratégies d’assurance…

Quels sont les autres impacts que préfigure l’évolution vers cette nouvelle mobilité ?

Il y aura à mon avis un impact sur l’emploi. L’autonomisation des véhicules va créer beaucoup d’emplois en lien avec les données, les opérateurs… plus qu’elle n’en détruira, selon moi.
Il y aura bien sûr également un coût énergétique avec la mise en place de nombreux datacenters pour gérer les données, sans parler du coût énergétique embarqué dans le véhicule.
Ce qu’il faut voir en termes de mobilité, c’est que les véhicules autonomes auront leur place dans ce qu’on appelle la ville intelligente. A ce titre, et comme je l’ai dit tout à l’heure, il est important que leur développement soit fait en cohérence avec celui des smart cities.
Enfin, il ne faut pas oublier le contexte culturel. L’acceptabilité de ces véhicules ne sera pas la même partout. Au cas par cas, il faudra donc se demander : où faut-il les déployer ? Dans quels pays ? Pour quels besoins ? Pour quelles catégories de population ?
Culturellement, il y a certains pays où il n’est pas certain que ce soit accepté car les gens veulent avoir leur propre voiture.
Ce qui est très probable, c’est que l’assistance à la conduite va se répandre un peu partout, avec des systèmes de plus en plus évolués. C’est déjà le cas avec l’assistance au freinage, les détecteurs de changement de voie, le détecteur de somnolence…

Où en est-on en termes de responsabilités ?

Lorsque vous êtes en mode 4, il y a effectivement une problématique de responsabilité : quand est-ce le véhicule doit prendre la main sur la conduite ? Quand est-ce qu’il doit la laisser au conducteur ? Qui doit décider ? Imaginez que le véhicule gère la conduite et décide soudainement de redonner la main au conducteur parce qu’il se trouve face à une situation qu’il ne sait pas gérer. Si le conducteur est en train de faire autre chose, ne réagit pas assez vite et qu’à cette occasion il y a un accident, qui en est responsable ? Ces questions de responsabilité sont de véritables casse-têtes, auxquels il faudra trouver des réponses.
Même si on considère que le véhicule est totalement autonome, il faut qu’il y ait la possibilité pour le conducteur de reprendre la main. Je parle là des véhicules autonomes, puisque dans le cas des navettes collectives, la configuration du véhicule est différente. La plupart du temps il n’y a d’ailleurs pas la possibilité pour qui que ce soit d’interférer avec le système de conduite autonome pour partager la conduite.
Aujourd’hui, nous sommes encore loin de la résolution de ces problèmes. C’est pour cela qu’il n’est pas possible de se projeter sur le moment où les véhicules totalement autonomes seront prêts.

Comment résoudre ces problèmes de prises de décision ?

On a peine à imaginer la complexité des situations à gérer au vu des comportements qu’on peut observer sur les routes. Si on peut présumer que le véhicule autonome aura une capacité de réactivité, pour le freinage par exemple, supérieure à un conducteur humain, le problème reste la prise de décision. Je vais vous donner un exemple : je circulais il y a peu dans Paris, et je me suis retrouvé bloqué à un feu par un camion, qui stationnait à hauteur du feu, sur le bord de la route. Résultat, il était impossible de voir la couleur du feu. J’ai décidé de franchir la ligne continue pour être à la hauteur du feu et voir s’il était rouge ou vert. Je prenais le risque de bloquer les voitures arrivant en sens inverse, mais je n’avais pas d’autre choix à ce moment-là. Qu’aurait fait un véhicule autonome à ma place ? Je ne sais pas, mais très probablement il se serait arrêté un moment, ne sachant pas quoi faire. Il n’aurait certainement pas de lui-même décidé de franchir une ligne continue, n’étant pas paramétré pour cela.

En attendant l’avènement du véhicule totalement autonome, l’évolution vers une mobilité intelligente passera-t-elle par des moyens de transports collectifs autonomes ?

Oui c’est certain. Cela fait longtemps que nous disons cela à l’INRIA. L’idée serait de commencer à mettre en place des systèmes de transports collectifs fortement automatisés dans un premier temps, avant de les autonomiser totalement. Cela dit, il faut absolument, si l’on veut opérer comme cela, développer les infrastructures nécessaires au fonctionnement des véhicules autonomes en parallèle et gérer les aspects humains (formation, reconversion…).
Prenons l’exemple des voies de bus. A Paris par exemple, les voies de bus sont bien délimitées, la plupart du temps, des autres voies empruntées par les usagers. Pourtant il y a beaucoup de situations qui peuvent se produire et qui rendent très compliquée la prise de décision : un piéton qui traverse la chaussée, un camion de livraison garé sur la voie de bus… le bus peut même être contraint de sortir de sa voie réservée pour poursuivre sa route. Si un bus autonome se retrouve devant un camion stationné sur sa voie, il va s’arrêter, tout simplement. Il faut donc dans un premier temps pouvoir partager la conduite pour gérer ces situations, et aussi isoler ces voies du reste de la circulation, pour rendre possible à terme une autonomie complète.
Le véhicule autonome fait partie de tout un écosystème, qu’on peut regrouper sous le terme de smart city. Quand on bâtit une ville intelligente nouvelle comme nous en voyons des exemples en Chine ou en Corée, en partant de rien, c’est parfait : on construit l’infrastructure adéquate à la mise en circulation de véhicules autonomes. Mais, et cela est le cas pour l’immense majorité des villes, quand on veut développer ces projets à partir d’infrastructures déjà existantes, c’est très compliqué.

La mobilité intelligente doit donc s’adapter à chaque contexte ?

Les concepts de mobilités doivent s’adapter au contexte de chaque ville, oui. Les problématiques de transport sont différentes dans chaque centre urbain, et donc les systèmes de mobilités mis en place doivent être adaptés et pensés selon ces contextes particuliers, pour répondre à des besoins.
La mobilité intelligente, c’est tout un système de mobilités. Cela ne consiste pas uniquement à produire un véhicule autonome. Il s’agit aussi de mettre en place un réseau efficace, qui s’appuie peut-être sur des véhicules autonomes, mais qui est surtout un système de routage intelligent, un système qui prend en compte les besoins géolocalisés des citoyens… savoir où on va s’appuyer sur des navettes, sur des bus, sur des véhicules individuels, des robots taxis.
Une supervision et une bonne distribution de ces systèmes-là et de leurs interactions permettront déjà d’offrir des services de mobilité beaucoup plus performants.

Comment un système de mobilité intelligente comme le covoiturage pourrait-il évoluer dans ce contexte ?

Le covoiturage est un système de mobilité très pertinent, on peut dans le futur imaginer de l’autopartage plus évolué, avec des systèmes de mobilité partagée autonomes.
En fonction de la culture de chaque pays bien évidemment. Dans certains pays où la voiture est considérée quasiment de manière affective, cela se mettra en place différemment. Comme déjà dit, les différents usages des systèmes de transport intelligent dépendront beaucoup des écosystèmes locaux et des cultures locales préexistantes en termes de transport.

Propos recueillis par Pierre Thouverez

Revue du Web #138 : les vidéos les plus étonnantes du mois

Qu’est ce que le radôme ?

Les avions de ligne sont de plus en plus équipés d’une bosse située sur leur partie supérieure du fuselage. Grande comme un coffre de toit de voiture, cette bosse s’appelle un radôme et elle abrite une antenne permettant l’accés au Wi-FI à 10 000 m d’altitude.
Contraction de radar et dôme, le radôme permet aux passagers via leur ordinateur portable, leur smartphone ou leur tablette de surfer sur internet, d’envoyer des mails ou bien encore de regarder la télévision en direct. Cet équipement est proposé en option  et les conditions de son accès varient en fonction de chaque compagnie aérienne.

Une nappe intelligente pour reconnaître la nourriture qui est posée dessus

Il pourrait s’agir du futur de la cuisine en termes d’innovation. En effet, des chercheurs de Microsoft et de diverses universités ont développé un système de tissu intelligent capable de reconnaître les objets qui sont posés dessus. Ce système appelé Capacitivo combine une grille d’électrodes capacitives et un apprentissage artificiel pour évaluer le matériau et la forme d’un objet.  Il fonctionne comme une sorte de détection capacitive qui reconnait un objet par contact avec son tissu interactif. D’ailleurs, les chercheurs ont confirmé que Capacitivo est aussi compatible avec certains contenants, dont des bols et des verres.

Geneseas, le robot nettoyeur des ports de demain

Geneseas est un robot nettoyeur capable de récolter les déchets solides mais aussi liquides. Grâce à son système d’aspiration, les plastiques, mégots, canettes et autres déchets flottants sont récoltés dans un panier de 140 litres. Des filtres en fibres naturelles absorbent les nappes d’hydrocarbures. Grâce à son application, il fonctionne en totale autonomie et peut travailler jusqu’à 24 heures d’affilée.

Hyperloop veut relier Abou Dabi – Dubaï en 12 minutes

Elon Musk vient de conclure un nouveau partenariat d’importance aux Émirats arabes unis et son entreprise va étudier la possibilité de créer une ligne Hyperloop reliant la ville de Dubaï à la capitale Abou Dabi distante d’un peu moins de 160 kilomètres. Son train supersonique, capable d’atteindre la vitesse de 1 126 km/h, pourra relier les 2 villes en 12 minutes contre environ deux heures par la route. L’Hyperloop transporterait des passagers mais aussi du fret.
En effet, on sait que le train subsonique va circuler dans des tubes hermétiques totalement clos et que les capsules n’ont de ce fait pas besoin de fenêtresHyperloop Technologies a annoncé qu’il travaillait sur un concept de fenêtre virtuelles, où des écrans virtuels diffuseraient des images de synthèse ainsi que des informations que les passagers pourront personnaliser via leur smartphone.

Un casque audio pour lire sur les lèvres

Une équipe de chercheurs du SciFi Lab de l’université Cornell a présenté un équipement prototype censé repérer et interpréter les expressions faciales du locuteur.
C-Face (Contour Face) est  un outil de lecture labiale mais de manière indirecte. Il consiste en deux caméras miniatures montées chacune sur un écouteur audio de l’utilisateur. Elles sont braquées sur les mouvements musculaires des joues et captent la manière dont ceux-ci tendent et détendent la peau en fonction des expressions faciales. Lors des tests, les émoticônes ont été correctement retranscrites dans 88,6% des cas et les commandes muettes à 84,7%. Les tests ont également été menés avec certains participants équipés de lunettes et d’autres portant un masque facial anti-Covid.

L’autonomisation des véhicules comme vecteur de la mobilité

Aujourd’hui, les véhicules les plus évolués de Tesla, par exemple, ont un degré d’autonomie de niveau 3, au mieux. Ce niveau induit un guidage longitudinal (vers l’avant et vers l’arrière) et un guidage latéral (vers la gauche et vers la droite) automatisés, que l’on ne retrouve pas sur les niveaux précédents. Cela leur permet de doubler une voiture, de respecter les distances de sécurité, de maintenir le véhicule dans sa voie… Ces fonctionnalités sont activées selon la législation du pays dans lequel est utilisé le véhicule, bien sûr.

Commençons par le début. On distingue 6 degrés d’autonomie : de 0 à 5. Mise en place par la NHTSA (National Highway Traffic Safety Administration), cette échelle s’est imposée au niveau international. Elle est par exemple reprise dans le livre blanc réalisé par l’INRIA sur le véhicule autonome, et globalement utilisée par tous les constructeurs. L’intérêt de cette classification, outre celui de constater le degré d’automatisation du véhicule, est d’observer le rôle dévolu à l’humain dans la gestion de la conduite.

Le niveau 0, sans surprise, concerne les véhicules ne bénéficiant d’aucun système d’automatisation. La conduite reste donc entièrement à la charge du conducteur. Certains dispositifs, comme l’avertisseur de changement de voie (déplacement latéral), de proximité d’un obstacle, d’une voiture dans l’angle mort, apportent une aide au conducteur, mais en aucun cas ne le remplacent dans la prise de décision.

Le niveau suivant, le 1, voit également le conducteur garder l’entière responsabilité des manœuvres, en lui laissant la possibilité de déléguer au système (c’est-à-dire à l’intelligence artificielle du véhicule embarqué) certaines tâches, comme par exemple le contrôle longitudinal du véhicule (repérage des obstacles devant et derrière le véhicule), la régulation de la vitesse en fonction des indications routières… A ce niveau d’autonomie, le véhicule doit être en capacité de « donner la main » à l’humain dès que la situation l’exige. Il faut bien comprendre que le conducteur a l’obligation de rester attentif car il est de sa responsabilité de reprendre les commandes quand le système les lui redonne (via un signal lumineux ou sonore).

Le niveau 2 permet d’entrevoir une autonomie qui laisse le conducteur un peu plus « spectateur » de la conduite. En effet, au niveau 2, l’entièreté des manœuvres est déléguée au système, bien que supervisée par le conducteur, qui doit pouvoir reprendre la main quand cela est nécessaire. Par exemple avec l’aide au stationnement : quand le véhicule arrive devant une place libre, détectée soit par le système soit par le conducteur, ce dernier a le choix entre laisser le véhicule se garer seul ou reprendre les commandes et effectuer la manœuvre seul. Dans ce cas également le conducteur est entièrement responsable de son véhicule et de sa conduite, le cas échéant.

Un véritable gap entre les niveaux 2 et 3

Le niveau 3 est celui sur lequel s’échinent actuellement les constructeurs et représente un fossé technologique par rapport au niveau 2 que l’on vient de décrire. En effet, au niveau 3, le conducteur peut déléguer la conduite sur les deux dimensions de guidage, longitudinal et latéral. C’est à partir de ce niveau que le conducteur devient un peu plus « passager », même s’il garde la responsabilité, in fine, des actions entreprises par son véhicule. Le système assurant le maintien du véhicule dans sa voie, le respect de l’allure et l’appréhension des conditions de trafic, le conducteur peut se permettre d’abaisser son niveau de vigilance et même se consacrer à d’autre tâches, brièvement. Comme on le voit, le niveau 3 est celui où le véhicule commence à « comprendre » son environnement à un degré très supérieur à celui des stades précédents. On trouve aujourd’hui sur le marché des véhicules ayant un niveau 3 d’autonomie, comme ceux de Tesla par exemple. En ce qui concerne la marque américaine, le système « Autopilot » permet au véhicule d’évoluer sur autoroute, en restant sur sa voie, mais aussi de doubler, respecter les distances de sécurité… Toutes ces fonctionnalités sont activées en fonction de la législation de chaque pays. On le voit, le niveau 3 constitue une rupture avec le niveau précédent, ce que l’on constate également si on se réfère au nombre très important de capteurs présents sur ce type de véhicules, afin de gérer les interactions avec l’environnement routier.

Ensuite, nous arrivons au niveau 4 d’autonomie. Aucune voiture actuellement sur le marché ne bénéficie de ce label, synonyme d’un niveau hautement automatisé dans lequel le conducteur n’intervient plus. Il peut détourner entièrement son attention de la conduite pour s’adonner à d’autres tâches, même celles qui exigent une attention soutenue. Cependant, ce niveau d’automatisation ne concerne que certains modes de conduite et n’opère que sous certaines conditions. En effet, le niveau 4 n’est actif que sur des zones de circulation très spécifiques, comme les parkings et les autoroutes. La principale évolution concerne le rôle du conducteur. Au niveau 4 d’autonomie, si le système « rend » le pilotage au conducteur mais que ce dernier ne répond pas, le véhicule doit être capable de s’autogérer et d’aller se garer sur un parking ou une aire d’autoroute sans intervention humaine.

Enfin, le graal, le niveau 5 : l’automatisation complète. Dans cette configuration, l’humain n’intervient plus, ni dans le contrôle, ni dans la supervision de la tâche de conduite ou de navigation. Toute la responsabilité et le contrôle incombent alors au système. Le véhicule doit être capable de se déplacer d’un point à un autre, quel que soit le type de route, de circulation… Il n’y a même plus de volant ou de pédale dans le véhicule, et celui-ci peut opérer sans présence humaine. Le niveau 5, que chaque constructeur automobile veut atteindre avant la concurrence, n’est pas encore pour demain. Mais peut-être pour après demain. Certains parlent de 2030, certains 2050… La vérité est probablement un peu entre les deux.

Par Pierre Thouverez

Apple et Google défendent la baisse de leur empreinte écologique

La proposition de loi visant à réduire l’impact environnemental du numérique en France, fruit du travail de la mission d’information constituée au sein de la commission de l’aménagement du territoire et du développement durable, a été déposée il y a quelques jours au Sénat. Ce mercredi, cette même commission auditionnait Sébastien Gros, responsable des affaires publiques de la société Apple France et Floriane Fay, responsable des relations institutionnelles et politiques publiques de la société Google France. Objectif : appréhender leurs engagements en matière environnementale, notamment concernant les enjeux de sobriété des usages numériques, d’empreinte carbone des centres de données et d’empreinte environnementale des terminaux.

Des objectifs climatiques défendus pour 2030

Durant 2 heures pour Apple et seulement 30 minutes pour Google, les deux sociétés ont mis en avant leurs engagements et leurs objectifs pour 2030. Apple s’est notamment fixé comme objectif d’atteindre la neutralité carbone à cet horizon sur l’ensemble du cycle de vie de ses produits. Pour ce faire, la société compte sur l’écoconception, l’efficacité énergétique, 100 % d’énergie renouvelable et la captation du carbone. Google s’est pour sa part récemment engagé à alimenter l’ensemble de ses centres de données par de l’électricité 100 % décarbonée d’ici 2030.

« Les promesses ne suffiront pas à engager un tournant rapide et d’ampleur », juge la commission. Elle prône « une véritable régulation environnementale du secteur, seule à même d’empêcher la croissance fulgurante de l’empreinte carbone du numérique ». « Notre objectif n’est pas de condamner le numérique, défend Jean‑Michel Houllegatte, co‑auteur de la proposition de loi visant à réduire l’impact environnemental du numérique en France, mais de mieux réguler le secteur ». Les émissions de gaz à effet de serre liées au numérique pourraient en effet passer de 2 % à 7 % en France d’ici 2040, avec la multiplication des données et l’explosion du nombre de terminaux et d’objets connectés. Soit plus que le transport aérien.

La durée de vie des terminaux numériques en question

Face aux chiffres avancés par Apple pour justifier sa mue écologique « globale et systémique », Guillaume Chevrollier, également co‑auteur de la proposition de loi, a rappelé l’importance de limiter le renouvellement des terminaux numériques dont la fabrication représente 70 % de l’empreinte carbone du numérique en France. Guillaume Chevrollier a évoqué plusieurs pistes à l’étude : renforcer la lutte contre l’obsolescence programmée, condamner l’obsolescence logicielle, ou encore prolonger la durée de la garantie légale de conformité des produits numériques de deux à cinq ans.

À Google, la commission a mis en avant ses principales recommandations pour prévenir l’augmentation des consommations et émissions des centres de données et des services de vidéos en streaming comme YouTube. Google a mis en avant ses résultats : la firme a multiplié par 7 la puissance de calcul de ses data centers tout en gardant une consommation énergétique similaire. L’accent a été mis sur la nécessaire promotion des usages numériques plus vertueux d’un point de vue environnemental : interdiction du lancement automatique des vidéos, adaptation de la qualité des vidéos en streaming à la résolution maximale du terminal utilisé et écoconception obligatoire sur les sites des plus grandes entreprises.

Un accès plus facile aux centres européens de calcul intensif grâce au cloud

Le cloud est devenu une norme. Pour les entreprises, mais aussi pour les scientifiques. En complément des ressources de calcul intensif déjà installées, le CEA a mis en place dans son TGCC (Très Grand Centre de calcul du CEA) de nouveaux systèmes de calcul et de stockage. Ces systèmes offrent aux chercheurs de nouveaux services de « cloud computing ».

Le TGCC est l’une des principales installations européennes de calcul intensif, et est opéré par les équipes de la Direction des applications militaires du CEA (DAM).

Conçue par la société Atos/Bull, « cette infrastructure de type cloud permet le développement de services par les chercheurs eux-mêmes pour des communautés de chercheurs, tels que des services web, des bases de données partagées ou des plateformes d’open-data », explique le CEA dans un communiqué.

« Ce projet, qui concerne des centres de calcul européens de cinq pays (1), a pour but d’offrir aux scientifiques une interface de type cloud afin d’améliorer l’ergonomie des services. L’objectif n’est pas de faire du ‘high performance computing’ (ou HPC) dans le cloud, mais de faire du cloud dans le HPC. Par ailleurs, il était important que notre infrastructure cloud soit la plus proche des super calculateurs et de leur stockage », précise Jacques-Charles Lafoucrière, program manager au CEA.

Une communauté open source

Cette infrastructure s’appuie sur deux « briques » open source. Premièrement, la suite de logiciels libres OpenStack qui permet de faire tourner jusqu’à 600 serveurs virtuels. Deuxièmement, le logiciel libre de stockage OpenIO (développé par la start-up du même nom et qui a été racheté cet été par OVH Cloud) gère le système de « stockage objet » d’une capacité de 7 Pétaoctets.

Appelée aussi « object storage », cette solution est la méthode de stockage de données la plus utilisée sur le cloud. Elle permet un accès plus rapide aux données qui sont sécurisées en tant que « objets » (pas une hiérarchie de répertoires comme dans le stockage classique). On peut se représenter un « objet » comme un paquet. Ce dernier contient les données elles-mêmes, ainsi que de nombreuses métadonnées et un identifiant (ID) unique.

« Il y a une démarche européenne à encourager les centres de calcul à s’appuyer sur des solutions open source. Premièrement, elle répond à cette volonté de faire bénéficier tous les acteurs des financements européens et, deuxièmement, elle encourage ‘les effets de levier’ ; on développe des logiciels et on en fait bénéficier les autres centres de calcul pour qu’ils deviennent, à leur tour, des contributeurs pour résoudre des problèmes », commente Jacques-Charles Lafoucrière.

Le TGCC bénéfice également d’un cluster de calcul interactif, optimisé pour la visualisation, le post-traitement, les travaux interactifs et l’intelligence artificielle. « Ce cluster, qui est équipé de la dernière génération de processeurs Intel, et d’unités de traitement graphique haute-performance de Nvidia, propose jusqu’à 3 Téraoctets de mémoire par serveur », précise le CEA.

Particulièrement adapté à la simulation de grands réseaux de neurones, il permet notamment aux chercheurs d’interagir avec leurs simulations, une pratique nommée « calcul interactif ».

« Avec le calcul intensif, l’usage classique sur ce type de machines est de la soumission de travaux (batch) : vous soumettez un travail et au bout de plusieurs semaines, voire des mois, vous obtenez le résultat. Avec le calcul interactif, appelé également ‘urgent computing‘ ou ‘calcul à la demande‘, vous pouvez être plus réactif. Par exemple, si vous êtes en train de travailler sur une simulation du cerveau et qu’à un instant donné, vous avez besoin de réaliser un traitement ponctuel, vous pouvez profiter de la puissance de calcul d’un supercalculateur », explique Jacques-Charles Lafoucrière.

Pour l’instant, le CEA réalise des tests de son approche cloud. Ils concernent la migration vers cette nouvelle infrastructure d’une base de données d’un ensemble de services qui est aujourd’hui hébergé par le CATI (Centre d’acquisition et de traitement des images), à Saclay. « Lorsque sa migration sera terminée, elle bénéficiera d’un espace de stockage plus important et d’une meilleure visibilité auprès de toute la communauté scientifique européenne », explique Jacques-Charles Lafoucrière.

À terme, cette extension du centre de calcul TGCC aidera notamment les chercheurs à cartographier et simuler tout ou partie d’un cerveau humain, mais aussi à tester des intelligences artificielles de robots ou véhicules autonomes dans des environnements virtuels.

(1) L’infrastructure informatique de calcul interactif (Interactive Computing e-Infrastructure, ICEI) est mise en œuvre pour le projet Human Brain (HBP) par les principaux centres de calcul européens, à savoir BSC (Espagne), le CEA (France), CINECA (Italie), CSCS (Suisse), et JSC (Allemagne), afin de former la fédération de services Fenix.

Pour un secteur mondial de la construction neutre en carbone

L’innovation dans le secteur du bâtiment jouera un rôle capital contre la crise climatique. Une nouvelle étude parue dans la revue Annual Review of Environment and Resources invite au plus vite les décideurs politiques à prendre des mesures ambitieuses pour standardiser le recours aux technologies et compétences au service de la neutralité carbone. « Si nous voulons que le secteur mondial du bâtiment soit neutre en carbone d’ici 2050, ces technologies doivent devenir la norme, prévient Diana Urge-Vorsatz, co-autrice de l’étude et directrice du Centre pour le changement climatique et la politique énergétique durable de l’Université d’Europe centrale. Chaque bâtiment que nous construisons ou rénovons sans tirer pleinement parti de notre technologie et de notre savoir-faire « net zéro » nous enferme dans la trajectoire vers un climat plus chaud. »

Un secteur capital pour réduire les émissions de GES

Le secteur du bâtiment représente 36 % de la demande en énergie finale mondiale. Et il émet 39 % des gaz à effet de serre liés à l’énergie dans le monde. Le rapport estime que le carbone incorporé dans les matériaux de construction pourrait consommer jusqu’à la moitié du budget carbone restant à 1,5°C. Parvenir à la neutralité carbone dans le secteur du bâtiment est donc essentiel pour atteindre les objectifs climatiques en minimisant les besoins intrinsèques en énergie et en stockant le carbone dans les matériaux de construction.

Selon le rapport, la clé pour atteindre les objectifs de neutralité carbone consiste à maximiser l’efficacité énergétique grâce aux caractéristiques du bâtiment. Il est par exemple possible de déployer des dispositifs d’ombrage et de canalisation du vent pour bloquer le soleil et permettre une ventilation naturelle dans les immeubles de grande hauteur. Les besoins énergétiques restants seront couverts grâce à des énergies renouvelables produites localement. Le recours à des matériaux renouvelables, recyclés ou réutilisés peut également contribuer à réduire les émissions de CO2. Les matériaux biosourcés pourraient conférer un double avantage : ils remplacent les matériaux à forte intensité énergétique et en carbone comme le ciment, et stockent temporairement le carbone.

Pour des politiques incitatives et claires

Pour les auteurs, les plus grands défis technologiques pour atteindre la neutralité carbone concernent les immeubles commerciaux de grande hauteur dans les climats chauds et humides. Ils observent aussi des difficultés dans la rénovation des bâtiments du patrimoine historique, ainsi que les rénovations en profondeur. Ces dernières sont coûteuses à court terme et se rentabilisent sur le long terme. Un financement innovant ou un « coup de pouce » est donc nécessaire au lancement.

L’étude prend plusieurs exemples de réussite. Elle met en avant la Chine qui, grâce à une norme d’efficacité claire, a érigé plus de 7 millions de mètres carrés de bâtiments à ultra basse consommation ces dernières années. Elle prend en exemple des politiques et des incitations innovantes à Bruxelles, Vancouver, New York et au Tyrol pour catalyser la transformation du marché vers des bâtiments standards neutres en carbone.

Le biomimétisme marin : où puiser l’inspiration ?

Et si on s’intéressait à un monde spécifique ? Fort d’un nombre impressionnant d’espèces vivantes, le monde marin recèle d’ingéniosité à exploiter ! Poulpe, crevette ou encore requin ont déjà inspiré les ingénieurs et leur ont permis d’innover dans des secteurs très différents, de la médecine aux plastiques biodégradables. D’autres applications sont encore à l’étude, permettant de relever de nouveaux défis à la fois techniques, technologiques et environnementaux.

Le Ceebios (Centre d’études et d’expertises dédié au déploiement du biomimétisme en France), en partenariat avec Techniques de l’Ingénieur, vous propose une série de webinars gratuits autour du biomimétisme marin. Découvrez, à travers différentes thématiques, comment innover et mettre en œuvre les secrets du milieu marin pour améliorer vos applications.

Au programme :

Grâce à ces conférences en ligne, puisez l’inspiration et (re)découvrez l’intérêt du biomimétisme à travers les interventions de spécialistes du domaine.

 

Le désinvestissement gagne les sables bitumineux et le forage en Arctique

« Plus de 140 institutions financières mondiales ont déjà restreint le financement, l’assurance et/ou l’investissement dans le charbon et nous assistons maintenant à un désinvestissement accéléré similaire de l’exploration pétrolière et gazière, à commencer par l’exploitation des sables bitumineux à haut risque et le forage dans l’Arctique », prévient Tim Buckley, directeur des études sur le financement de l’énergie de l’Institute for Energy Economics and Financial Analysis (IEEFA). Les projets d’exploration pétrolière et gazière à haut risque auront de plus en plus de mal à trouver des financements à l’avenir.

Des engagements contre les sables bitumineux et le forage en Arctique

Le risque financier lié à l’investissement dans les sables bitumineux est désormais reconnu. L’IEEFA identifie 50 institutions financières internationales ayant introduit des politiques limitant dans son ensemble le forage des sables bitumineux et/ou du pétrole et du gaz en Arctique. Parmi elles, 26 banques commerciales, 7 banques multilatérales de développement, 5 groupes de gestion d’actifs, 11 assureurs ou réassureurs et un fonds de pension. Citons les institutions européennes – HSBC, Banco Santander, Deutsche Bank – et américaines – Goldman Sachs, JPMorgan Chase, Citigroup, Wells Fargo et Morgan Stanley.

La Banque mondiale, BNP Paribas, le Groupe Crédit Agricole et AXA ont été les premières grandes institutions financières à introduire des politiques d’exclusion en 2017. Aujourd’hui, les institutions financières européennes prennent le lead. À ce jour, elles sont 36 à avoir annoncé une politique officielle contre les projets de forage dans l’Arctique ou de sables bitumineux. Aux États-Unis, seules six institutions financières ont fait de même.

50 institutions financières plus ou moins engagées

Mais les engagements restent différenciés. « La meilleure pratique consisterait à exclure tout type de produit ou service financier pour de nouvelles opérations dans le domaine des combustibles fossiles à travers le monde, avec une élimination rapide des investissements existants dans les combustibles fossiles, comme ce que la BEI a présenté », prévient Saurabh Trivedi, analyste à l’IEEFA.

Si la Banque Royale du Canada (RBC) a annoncé des restrictions sur les projets de forage dans l’Arctique, elle n’a pris aucune mesure contre les autres projets de sables bitumineux. « RBC est l’un des plus importants financeurs de projets de sables bitumineux avec JPMorgan Chase et la Banque Canadienne Impériale de Commerce », rappelle Saurabh Trivedi. À l’opposé, la Banque européenne d’investissement (BEI) et la banque française de développement sont les institutions qui ont la politique la plus stricte. La BEI a notamment annoncé en 2019 son désinvestissement complet du pétrole et du gaz d’ici fin 2021.

Prendre le virage de l’économie circulaire face à la crise sanitaire

« L’économie circulaire reste une opportunité majeure pour l’Europe, car elle contribue aux objectifs clés d’amélioration de la résilience, d’atténuation du climat et de création d’emplois locaux », partage Per Klevnäs, partenaire de Material Economics et l’un des auteurs de la nouvelle étude « L’économie circulaire et la reprise post-covid ». Le rapport estime que d’ici 2030, une économie plus circulaire pourrait réduire le coût total de la fourniture de biens et de services liés à la mobilité, au logement et à l’alimentation, de 535 milliards d’euros par an. Soit une amélioration de la productivité de 15 % dans ces trois principales chaînes de valeur qui représentent 60 % des dépenses des ménages.

L’économie circulaire pourrait ainsi faire économiser à un ménage moyen de l’Union Européenne près de 2 400 euros chaque année. Le rapport invite donc les dirigeants européens à saisir cette opportunité en investissant dans des installations de recyclage, des infrastructures de recharge pour les véhicules électriques, la rénovation des bâtiments et la collecte des déchets alimentaires.

L’économie circulaire face à la crise sanitaire

Le rapport estime que les mesures prises pour l’économie circulaire avaient déjà mis l’Union Européenne sur une trajectoire de réduction des coûts de 231 milliards d’euros par an d’ici à 2030. La crise du coronavirus pourrait toutefois menacer entre 50 et 70 milliards d’euros de réduction de coûts par an d’ici 2030 si la dynamique actuelle est retardée, en fonction de l’ampleur de la crise économique. Une menace qui pèse sur 20 % à 30 % de ce potentiel à cause de la baisse des investissements et du prix des matières premières. Dans ce contexte, l’innovation liée au recyclage est particulièrement menacée. Mais un scénario circulaire ambitieux permettrait de réduire les coûts dans les plus grandes chaînes de valeur de 304 milliards d’euros supplémentaires d’ici 2030, dont 160 milliards grâce aux plans de relance.

« Les gouvernements et les institutions devraient placer l’économie circulaire au cœur de leurs plans de relance, prévient Stéphane Arditi, responsable de la politique des produits et des déchets au Bureau européen de l’environnement. La conception circulaire des produits, la réduction des déchets et le recyclage, sont de vraies sources de nouveaux emplois verts. Cela peut fortement renforcer l’industrie européenne, tout en atténuant sa dépendance vis-à-vis des importations et de l’extraction des matières premières. »

Des analyses antérieures à ce rapport ont montré que les modèles d’économie circulaire pourraient créer de 650 à 700 000 emplois nets d’ici 2030 et réduire les émissions de GES de l’industrie lourde de l’UE de près de 50 % par an d’ici 2050.

Afficher des images sur des composants miniaturisés grâce à la technologie holographique

Depuis une dizaine d’années, la recherche dans le domaine de la réalité augmentée est en plein essor. Cette technologie consiste à superposer des informations virtuelles sur le monde réel, comme l’affichage de notifications sur des lunettes. Pour les chercheurs, l’une des difficultés est d’afficher de petites images sur des dispositifs placés proches des yeux. Le CEA- Leti développe un nouveau concept basé sur la technologie holographique et qui révolutionne la façon de projeter des images sur des composants miniaturisés.

Actuellement, la plupart des procédés sur le marché sont conçus à partir de micros-écran, de la taille d’un timbre-poste. Ils fonctionnent sur le même principe que les écrans d’ordinateur, c’est-à-dire que chaque pixel présent à la surface du micro-écran représente un point de l’image. Un dispositif optique est ensuite placé devant l’écran et agit comme une sorte de loupe en dirigeant chaque pixel dans une direction angulaire différente afin que l’œil puisse percevoir l’image. Résultat : elle apparaît éloignée et d’une grande dimension bien que l’écran soit très proche des yeux. « Nous avons décidé de rompre avec ce concept en n’utilisant aucun système optique additionnel car il présente l’inconvénient d’être volumineux et complexe à concevoir, explique Christophe Martinez, responsable du programme Projection rétinienne au CEA-Leti. Nous utilisons la technologie holographique car elle permet de fabriquer des dispositifs compacts et d’enregistrer beaucoup d’informations sur de petites surfaces. Chaque pixel holographique va représenter non pas un point de l’image mais un angle de visualisation de cette image pour ensuite permettre de la reconstituer au fond de l’œil. »

Un banc d’enregistrement holographique est utilisé pour la fabrication des hologrammes pixélisés.
Crédits : CEA-Leti

Dupliquer les pixels holographiques pour améliorer la résolution

Afin que l’image possède une bonne résolution, les chercheurs dupliquent le même pixel holographique, également appelé hoel, une centaine de fois sur le support de visualisation. Pour comprendre l’intérêt de cette duplication, il est possible de faire la comparaison avec un procédé utilisé dans le domaine de l’astronomie, même si l’échelle est totalement différente. Pour améliorer la résolution des images de l’espace, les scientifiques doivent construire des télescopes de plus en plus grands mais se heurtent à des difficultés technologiques pour fabriquer des télescopes géants. Ils utilisent alors plusieurs télescopes de petite taille qu’ils séparent de quelques kilomètres, puis reconstruisent une seule image ayant une grande résolution grâce à l’addition des données enregistrées sur l’ensemble des télescopes. « Ici, le même principe opère, c’est-à-dire que l’image au fond de l’œil est le fruit d’une reconstruction d’une multitude de pixels holographiques représentant le même angle de visualisation », précise le chercheur.

Image au microscope d’un hologramme pixélisé (taille des hoels 20×20 μm²). La distribution des pixels est clairement visible à la surface du composant.
Crédits : CEA-Leti

Deux matériaux supports sont employés pour imprimer ces hoels. Tout d’abord, des halogénures d’argent, un composé photosensible similaire à celui utilisé dans la photographie argentique. Grâce à un procédé d’émulsion de cristaux d’argent, le matériau holographique est déposé sur une lame de verre puis enregistré à l’aide d’un laser. Le support obtenu présente une grande sensibilité mais est encore peu utilisé commercialement. Les chercheurs le répliquent alors sur un second matériau : un photopolymère. Celui-ci ressemble à une résine liquide que l’on applique sur une surface vitrée et qui, en séchant, forme une pellicule plastique photosensible. L’étape suivante consiste à soumettre cette pellicule à une lumière laser afin d’enregistrer l’hologramme, réplique du précédent. « Ce processus en deux étapes ressemble à ce qui est pratiqué dans la fabrication des CD et DVD, analyse Christophe Martinez. Il y a d’abord un processus de mastering avec la fabrication d’un moule maître, ici en halogénures d’argent. Puis une fabrication en grand nombre en photopolymère. »

Des images en mouvement grâce à un éclairage dynamique

Pour visualiser les images, il est ensuite nécessaire d’éclairer le matériau support. Intervient alors une autre technologie développée au CEA-Leti, celle de la photonique intégrée qui consiste à conduire de la lumière à la surface d’un composant. Pour l’instant, les chercheurs envisagent d’éclairer le photopolymère de manière uniforme à l’aide de microsources laser, permettant ainsi la formation d’une image fixe au fond de l’œil. « Nous travaillons sur des briques technologiques pour apporter un éclairage dynamique afin d’allumer et éteindre les pixels holographiques et dans le but de modifier en temps réel les images projetées et qu’elles apparaissent en mouvement, révèle le chercheur. L’une des difficultés se situe au niveau de la micro-structuration de la surface du composant pour que la lumière puisse entrer et sortir de manière guidée et distribuée sur le photopolymère. »

Plusieurs années seront nécessaires avant de finaliser cette technologie, en rupture totale avec les techniques actuellement en service. « Nos travaux sont aussi à considérer comme de la recherche fondamentale dans le sens où nous nous questionnons sur la manière dont se forment les images au fond de l’œil et sur de nouveaux moyens de former ces images avec les technologies de pointe développées au CEA-Leti ». À terme, les applications potentielles concernent le domaine de la réalité augmentée, dont l’objectif ultime est de concevoir des lunettes qui se substituent aux smartphones, grâce à l’affichage de données digitales apparaissant dans le champ de vision. L’une des difficultés est alors de concevoir des dispositifs d’affichage peu volumineux qui s’intègrent directement aux lunettes afin que celles-ci restent ergonomiques et puissent se porter au quotidien. « Notre procédé, du fait de sa compacité liée à l’absence de dispositif optique additionnel, devrait permettre de résoudre cette difficulté, ajoute Christophe Martinez. D’ici un à deux ans, nous pensons réaliser la preuve de concept de notre nouvelle technologie. »

Innovantes #3 : Les solutions pour des intelligences artificielles plus équitables

Aude Bernheim, chercheuse à l’INSERM, et Flora Vincent, chercheuse au Weizmann Institute of Science en Israël, se sont attelées à comprendre pourquoi les intelligences artificielles n’étaient pas équitables dans leur livre L’intelligence artificielle, pas sans elles ! Ces biologistes se sont intéressées à l’IA dans le cadre de l’association WAX Science qu’elles ont cofondée pour promouvoir la science et la mixité. « Nous nous sommes toujours intéressées aux liens qui pouvaient être établis entre les sciences et technologies, et les problématiques de parité, explique Flora Vincent. Rapidement, nous nous sommes aperçues qu’il existait un gros problème sur la prise en compte des variables de sexe et de genre dans la façon même de faire de la recherche. Or, mieux intégrer ces variables dans les sciences et technologies les améliore en les rendant plus inclusives ; on appelle ça les ‘gendered innovations‘. » Et elles constatent les mêmes dysfonctionnements dans l’intelligence artificielle. « Il existe des logiciels de reconnaissance faciale qui fonctionnent beaucoup mieux pour les hommes blancs que pour les femmes noires ou des logiciels de recrutement qui jettent systématiquement les CV féminins », ajoute Aude Bernheim.

En cause ? Les biais de genre. « Personne ne se dit en amont ‘Je vais créer un algorithme sexiste’ mais pourtant, il existe de nombreux biais qui mènent à ce résultat », rappelle Flora Vincent. Et ces biais se retrouvent à chaque étape de la création d’un algorithme. D’abord, dans la définition de l’objectif, qui peut être vu différemment par les hommes et par les femmes. Puis, dans l’entraînement de l’algorithme sur des bases de données déjà biaisées : certains profils ou secteurs sont surreprésentés et d’autres complètement absents. Ainsi, un algorithme de reconnaissance faciale sera plus performant pour reconnaître les hommes blancs parce que les photos d’hommes blancs sont beaucoup plus nombreuses dans la base de données initiale. L’algorithme reproduit des inégalités déjà présentes dans la société. Enfin, la réutilisation de codes par les développeurs fait que ces biais sont perpétués et que les erreurs se propagent.

Des IA plus équitables

Des solutions existent cependant, dont la principale : former les développeurs et développeuses à la question des biais et de l’égalité. Mais aussi former les spécialistes en égalité au numérique et à l’intelligence artificielle pour qu’ils soient plus vigilants. Avoir des équipes mixtes est également une manière de varier les points de vue et de restreindre les biais personnels de chacun.

L’intelligence artificielle pourrait d’ailleurs être au service de l’égalité. « L’intelligence artificielle est un outil formidable qui pourrait nous aider à corriger les inégalités », s’enthousiasme Flora Vincent. Elle peut être utilisée pour sélectionner un certain pourcentage de CV féminins lors d’un recrutement. « D’une part, on peut utiliser l’IA pour détecter les biais, pour quantifier la parole dans les films par exemple, et d’autre part, utiliser le potentiel de l’IA pour créer des choses, des biographies de femmes sur Wikipédia par exemple », raconte Flora Vincent.

L’avenir des stations-service menacé par la mobilité électrique

Colombus Consulting a étudié l’avenir des stations-service en fonction de l’évolution du parc automobile, à horizon 2050. Dans trois scenarii, qualifiés de « faible », « intermédiaire » et « fort », la part des véhicules décarbonés, essentiellement électriques, dans le parc français, atteint respectivement 44 %, 70 % et 97 % en 2050.

De moins en moins de stations-service traditionnelles

Quel que soit le scénario, l’impact de la mobilité électrique sur les stations-service sera important. Les ventes de carburant traditionnels diminueront de -28 % à -47 % d’ici 2035 et entre -51 % et -83 % d’ici 2050, selon les scenarii « faible » à « fort ». Cela accentuera la transformation du secteur déjà en cours. En effet, depuis 1980, les trois quarts des stations-service ont déjà fermé. La densité est passée de 7,5 stations pour 100 km² en 1980 à 2 stations pour 100 km  en 2016. « Les grandes et moyennes surfaces (GMS) ont pris le relais des stations du réseau traditionnel et représentent aujourd’hui la moitié du parc total : leur part de marché est ainsi passée de 13 % en 1980 à 63 % en 2020 », partage Colombus Consulting.

La mobilité électrique signera la fin du réseau traditionnel de stations-service. Colombus Consulting estime une baisse de leurs profits dans le scénario intermédiaire à hauteur d’un tiers d’ici 2030, et un rendement négatif à horizon 2050. Le cabinet rappelle que le réseau de stations hors autoroute n’est pas essentiel au développement de la mobilité électrique. En concurrence avec la recharge à domicile, au travail ou en voirie, il a peu de chances de subsister.

Les GMS devront aussi s’adapter à la mobilité électrique

Les GMS pratiquent de faibles marges sur les carburants afin d’attirer des clients en magasin. Mais leurs stations seront de moins en moins fréquentées. Dès 2035, la fréquentation des stations-service pour les carburants conventionnels devrait diminuer de 29 % à 48 % selon le scénario envisagé en 2035. La baisse atteindra de -54 % à -88 % en 2050. Les stations-service traditionnelles ne seront plus rentables. Mais même pour les GMS, la baisse de la fréquentation pourrait remettre en cause la pertinence de ce produit d’appel. « Les services liés à la mobilité électrique deviennent alors des leviers de différenciation et de plus en plus d’enseignes mettent à disposition des bornes de recharge pour fidéliser leur clientèle et attirer de nouveaux consommateurs », analyse François Hemono, consultant senior Énergie pour Colombus Consulting.

« La qualité de service pourrait se dégrader dans certaines zones rurales et entraîner l’apparition de zones blanches de mobilité thermique sans l’intervention des collectivités locales », prévient pour sa part Gaël Gautier, consultant senior Énergie pour Colombus Consulting. Le maintien d’un nombre minimum de stations-service pour assurer le plein des véhicules thermiques restants deviendra ainsi un nouvel enjeu pour les politiques publiques.

Des stations-service aux bornes de recharge décentralisées

Colombus Consulting prévoit une mutation des lieux de ravitaillements traditionnels, que cela concerne les stations sur autoroute ou en GMS. « L’implantation de bornes de recharges électriques et la diversification des services sont essentielles pour maintenir la rentabilité des stations sur autoroute », prévient le cabinet. Ces stations-service pourraient proposer une recharge rapide à tarif plus élevé. Une recharge plus lente, mais plus abordable, durant environ 1 heure, servirait de produit d’appel pour les services et commerces sur place.

En plus de la recharge de nécessité, par exemple au sein des copropriétés ou à proximité de son domicile, la mobilité électrique favorisera le développement de la recharge d’opportunité. Le plein d’énergie se fera beaucoup moins souvent en station-service que dans des emplacements de stationnement de longue durée, comme les lieux de loisirs, de travail, de vie ou les lieux touristiques. Les stations-service ont entre dix et quinze ans pour se préparer à cette nouvelle réalité.

Les laboratoires de recherche se mobilisent pour le climat

Valérie Masson-Delmotte est directrice de recherche au CEA et co-présidente du groupe nᵒ1 du GIEC. « Si l’on veut contenir le réchauffement climatique largement en dessous de 2°C, il s’agit que les émissions mondiales de CO2 diminuent […] d’un quart entre 2010 et 2030 et d’atteindre la neutralité carbone planétaire à l’horizon 2070. Pour contenir le réchauffement à un niveau encore plus bas, de l’ordre d’1,5°C, c’est une division par 2 d’ici 2030 des émissions mondiales de CO2 et la neutralité planétaire à l’horizon 2050 ». La chercheuse rappelle que les émissions françaises diminuent trop lentement. Selon le Haut Conseil pour le climat, les émissions de gaz à effet de serre ne diminuent que de 1 % chaque année. « Il y a urgence à accélérer », estime-t-elle.

Dans ces conditions, la communauté scientifique veut jouer sa part. Le collectif Labos 1point5 a donc développé un nouvel outil standardisé de bilan de gaz à effet de serre à destination des laboratoires de recherche : GES 1Point5. « C’est une première étape, insiste Valérie Masson-Delmotte. L’étape suivante est d’avoir des discussions collégiales pour construire ensemble un plan d’actions de sorte que la communauté scientifique participe à l’effort collectif pour des trajectoires de baisse d’émissions de gaz à effet de serre. »

GES 1point5 : un diagnostic pour les laboratoires

Il existe plusieurs initiatives institutionnelles, ponctuelles ou collectives pour changer les pratiques du monde de la recherche à l’international. La spécificité de Labos 1point5 est que le collectif compte près de 2 000 abonnés dans 100 laboratoires de recherche, issus d’un large spectre de disciplines.

Odile Blanchard est membre de l’équipe de coordination de l’outil GES 1Point5 et maîtresse de conférences à l’Université Grenoble Alpes. « Les objectifs de cet outil sont avant tout d’estimer l’empreinte carbone des laboratoires pour mieux connaître les niveaux d’émissions de ces laboratoires et passer à l’action et pour sensibiliser et impliquer les personnels, explique-t-elle. Le monde de la recherche peut jouer le rôle de moteur et d’exemplarité pour d’autres secteurs. » 

« C’est un outil en ligne, gratuit, open-source et facile à prendre en main », assure Odile Blanchard. L’outil propose une méthodologie standardisée pour les laboratoires par rapport à la réglementation française. Et il porte sur les postes d’émissions les plus significatifs en termes de volume d’émissions. La première version prend ainsi en compte les consommations des bâtiments – électricité, chauffage, réfrigération et climatisation – ainsi que les déplacements du personnel en mission et pour les trajets domicile-travail. Les émissions générées par les déplacements professionnels permettent notamment de faire la différence entre l’avion, le train et la voiture.

Un outil de diagnostic, pour l’action et la recherche

Cet outil constitue une démarche volontaire qui nécessite la mobilisation de la direction et des personnels de laboratoire. Toute personne habilitée par le directeur d’unité pourra remplir les données. Au-delà du diagnostic, chaque laboratoire pourra identifier et suivre les actions de réduction mises en place. Sur ce point, une autre équipe de Labos 1point5 réfléchit aux options à déployer pour réduire l’empreinte carbone. Entre autres pistes, se trouvent sur la table la mise en place d’une taxe carbone interne pour tous les déplacements en avion, des quotas d’émission par personne à ne pas dépasser sur l’année ou encore des jeux sérieux pour essayer de réduire les déplacements en avion.

Mais ce n’est pas tout. « C’est un outil pour faire de la recherche sur la recherche », prévient Odile Blanchard. En effet, l’empreinte carbone de la recherche est un champ de recherche émergent. Le déploiement de cet outil permettra de mener des analyses statistiques sur les empreintes carbone des laboratoires et leur distribution. « On espère mettre en place une méthodologie pour estimer l’empreinte carbone de la recherche publique française dans son ensemble, ajoute-t-elle. On voudrait ensuite réfléchir à des scénarios d’évolution de cette empreinte en fonction de diverses politiques publiques qui pourraient être menées. »

Des émissions variées à considérer

En fonction des disciplines, les postes d’émission varient énormément. « Les laboratoires qui ont des expériences de terrain auront des émissions plus importantes pour les déplacements comparé aux laboratoires en sciences humaines et sociales dont les émissions majoritaires sont liées au bâtiment et aux déplacements domicile-travail », explicite Odile Blanchard.

Le collectif ne compte pas s’arrêter en si bon chemin. « On travaille déjà à la V2 qui pourrait sortir à la fin de l’année et inclura toute l’empreinte carbone des équipements numériques des laboratoires, prévient Odile Blanchard. Une V3 suivra sur les achats, un volet beaucoup plus complexe ». En attendant, le collectif compte sur ses membres, sur le bouche-à-oreille entre laboratoires et sur le soutien d’organismes de recherche et d’universités pour déployer l’outil.