L’industrie circulaire, un modèle pour transformer l’industrie suivant les principes de l’économie circulaire

L’INEC et OPEO ont récemment publié une étude dans laquelle ils présentent l’industrie circulaire comme étant une opportunité pour la réindustrialisation promue par le Plan de Relance. Nous avons interviewé Amélie Vaz, responsable des études et de la prospective à l’INEC, pour qu’elle nous explique les enjeux de l’industrie circulaire et le contexte de ces travaux.

Amélie Vaz, de l’INEC, est co-autrice de l’étude « Pivoter vers l’industrie circulaire », écrite en partenariat avec OPEO. L’INEC, l’Institut National de l’Économie Circulaire, est un think tank qui existe depuis 2013. Cette association qui compte plus de 150 membres a pour but de réunir les savoirs et d’accélérer la transition vers l’économie circulaire. OPEO est un cabinet de conseil spécialisé dans la transformation des process industriels. Le projet d’OPEO est de développer une industrie compétitive, durable, humaine et résiliente.

Techniques de l’Ingénieur : Cette étude est la première du genre. Dans quel contexte est-elle apparue ?

Amélie Vaz. Crédit : INEC

Amélie Vaz : Une première rencontre entre OPEO et l’INEC a eu lieu en janvier 2020, juste avant la crise sanitaire. Au départ, il était question de travailler sur un rapport intégrant la thématique de l’économie circulaire comme une composante essentielle de l’usine du futur, mais sous le prisme de l’industrie 4.0.

Puis la crise sanitaire est apparue. Lors d’une rencontre suivante, à l’été 2020, le contexte avait changé. Il était question d’un plan de relance économique visant à réindustrialiser les territoires et à sécuriser les chaînes d’approvisionnement en diversifiant les sources.

Une évidence est apparue : tant que l’industrie ne se posera pas la question de la gestion des ressources, elle ne pourra pas se déployer pleinement. Le contexte de crise nous a donc aidés à réfléchir à ces notions et à intégrer toute la chaîne de valeur, pas seulement le cœur de l’industrie. Voilà pourquoi nous parlons beaucoup des canaux de distribution dans ce rapport d’étude.

Ces problèmes d’approvisionnement sont-ils uniquement liés à la crise sanitaire ?

L’étude s’appuie sur des retours d’expérience de plus de 60 acteurs industriels et 18 entreprises de référence, dont la plupart sont membres de l’INEC. Toutes ces entreprises ont en commun d’avoir rencontré des difficultés d’approvisionnement pendant la crise, bien que certaines existaient déjà auparavant.

C’est par exemple le cas de La Poste qui a du mal à s’approvisionner en papier recyclé depuis plusieurs années, la dernière usine française de production de papier recyclé ayant fermé ses portes en 2020. Dans un sens, la crise sanitaire n’a donc fait qu’aggraver des problèmes déjà existants.

Pour un industriel, comment appliquer le concept d’industrie circulaire ?

Depuis ces 15 dernières années, on aborde essentiellement l’économie circulaire sous les angles « gestion des déchets » et « amélioration de l’efficacité énergétique ». Si nous voulons vraiment aller vers une industrie circulaire, les industriels doivent élargir leur spectre de réflexion et ne pas rester concentrés sur l’unité de production.

Canaux de production avec produits recyclés, de seconde main, emballages, etc. sont, par exemple, des pistes intéressantes, qui n’ont pas toujours un impact environnemental élevé, mais qui ont une importance symbolique forte.

Il existe six modèles économiques différents et les possibilités sont grandes. Pour un industriel qui désire se lancer, l’important est d’amorcer la réflexion et de se baser sur des outils reconnus comme l’écoconception et l’ACV.

Comment la France se positionne-t-elle sur ces questions ? Est-elle à l’avant-garde ?

Au niveau européen, la France est le seul pays à disposer d’une loi sur l’économie circulaire (loi AGEC). Nous sommes également le pays le plus en avance sur les filières REP (responsabilité élargie du producteur). La France est donc plutôt bien placée sur ces problématiques d’industrie circulaire et les pouvoirs publics soutiennent cette transition.

En ce qui concerne l’industrie, à l’INEC, nous voudrions que les choses évoluent vite, mais nous sommes conscients que ces changements prennent du temps. Quoi qu’il en soit, cette étude nous a prouvé que les industriels s’intéressent à ces questions et l’INEC est régulièrement sollicité pour les aider à implémenter de nouveaux modèles économiques. Ces enjeux d’économie circulaire deviennent vraiment stratégiques pour l’industrie, surtout qu’il y a un réel potentiel de création d’emplois dans la relocalisation des activités industrielles.

Techniques de l’Ingénieur partenaire de Big Data & AI Paris

Pendant 2 jours, les acteurs de la filière data & IA se retrouveront pour échanger, s’informer et développer leurs compétences avec un objectif précis : consolider leurs projets autour de l’exploitation de la donnée pour assurer la croissance de leur entreprise.

La 10e édition de Big Data & AI Paris s’ouvre en effet dans un contexte d’incertitudes et de défis majeurs liés à la pandémie de Covid-19. Le processus déjà bien engagé de transformation numérique des entreprises s’accélère avec l’adoption massive des technologies digitales, impulsant une transformation profonde et durable des habitudes des individus.

La technologie prend alors un nouvel élan, l’IA se normalise et continue de se déployer en s’imposant à tous les secteurs d’activité, tant au sein des produits et services fournis par les entreprises que dans les outils qu’elles utilisent pour travailler.

L’événement conserve les éléments qui ont fait son succès, et qui permettront à chaque participant, quel que soit son niveau de maturité sur ces sujets, de trouver les informations qu’il recherche :

  • Explorez les grands enjeux du big data et de l’IA, et bénéficiez de retours d’expérience exclusifs d’entreprises leaders de leur secteur avec plus de 60 conférences
  • Rencontrez nos 150 exposants en présentiel et en ligne, échangez avec des experts sur vos problématiques
  • Echangez avec plus de 15 000 décideurs qualifiés prêts à créer des partenariats structurants pour vos activités
  • Enrichissez votre connaissance du marché grâce à 200 ateliers pour découvrir les dernières technologies et solutions
  • Approfondissez votre veille technologique grâce aux Sessions Tech de 45mn
  • Découvrez les pépites data & IA de demain en assistant aux sessions Pitchs & Démos Startups

Vous pouvez consulter le programme des conférences et des ateliers sur le site de l’événement, tout comme la liste des marques présentes.

L’événement se tiendra au format hybride, afin de permettre aux participants de renouer avec les événements en présentiel, tout en conservant la composante digitale et ses avantages. Exposition, conférences, ateliers, networking : vous pourrez vivre l’intégralité de l’événement selon votre mode de participation favori.

Découvrez les différentes offres de participation à Big Data & AI Paris 2021

Retrouvez plus d’info sur le site de l’événement: www.bigdataparis.com

L’AIE sonne le glas des fossiles

Agence de l’OCDE créée par les pays fortement consommateurs de pétrole dans les années 1970, en réponse à la création de l’organisation des pays exportateurs de pétrole (OPEP, alors…) qui avait entraîné la première crise pétrolière, l’AIE sonne ainsi le glas des fossiles qu’elle a largement défendue pendant près de 40 ans… Significatif ! Pas de nouvelles centrales au charbon, et « pas besoin de nouveaux gisements de pétrole et de gaz naturel dans la feuille de route vers le net zéro ».

L’AIE considère en effet que les promesses actuelles de « zéro émission » sont loin d’être suffisantes pour limiter le réchauffement planétaire à 1,5°C, même si elles sont « toutes » mises en œuvre. En revanche, l’agence de l’OCDE signale qu’il est possible d’atteindre cet objectif, mais « la voie est étroite » et réclame impérativement une mobilisation de tous les pays, en particulier les économies les plus avancées.

Déployer toutes les technologies propres et l’efficacité énergétique

Les politiques doivent être renforcées pour accélérer le déploiement de technologies énergétiques propres et efficaces. Les mandats et les normes sont essentiels pour inciter les consommateurs à dépenser et l’industrie à investir dans les technologies les plus efficaces. Les objectifs et les ventes aux enchères concurrentielles peuvent permettre à l’énergie éolienne et solaire d’accélérer la transition du secteur de l’électricité. La suppression progressive des subventions aux combustibles fossiles, la tarification du carbone et d’autres réformes du marché peuvent garantir des signaux de prix appropriés. Les politiques doivent limiter ou décourager l’utilisation de certains combustibles et technologies, tels que les centrales électriques au charbon non alimentées, les chaudières à gaz et les véhicules à moteur à combustion interne classiques. Les gouvernements doivent diriger la planification et l’incitation vers l’investissement massif dans les infrastructures, notamment dans les réseaux de transmission et de distribution intelligents.

La feuille de route de l’AIE

Prenant les résultats de deux scénarios 2050 sur la production et la consommation d’énergie et les émissions de carbone afférentes, l’agence de l’OCDE constate que même le meilleur des deux (Announced Pledge Case, ou APC), qui prend en compte l’ensemble des engagements pris par les pays dans le monde entier et suppose que ceux-ci sont tenus, ne permet pas d’atteindre la neutralité carbone.

L’AIE propose donc une feuille de route permettant d’atteindre ledit objectif : un scénario dénommé Net-Zero Emissions (NZE). « Une feuille de route définit plus de 400 jalons (secteur par secteur) pour guider le voyage mondial vers le zéro net d’ici à 2050 », indique le rapport.

Avec NZE, l’offre totale d’énergie diminue de 7 % entre 2020 et 2030, et se maintient autour de ce niveau jusqu’en 2050, pour une économie mondiale qui aura doublé en taille, une population de 2 milliards d’habitants de plus, et une demande en retrait de 8 %. Les mesures d’efficacité énergétique et l’électrification sont les deux principaux facteurs contributifs, avec les changements de comportement et les gains d’efficacité dans l’utilisation des matériaux.

La consommation finale d’électricité dans le scénario NZE augmente de 25 % de 2020 à 2030, et d’ici 2050, elle est plus du double du niveau de 2020, insiste l’AIE. L’augmentation de la consommation d’électricité, liée à la fois à l’électrification des usages et à la production d’hydrogène par électrolyse, représente, en croissance annuelle globale de la demande d’électricité, l’ajout chaque année de la consommation électrique d’un pays de la taille de l’Inde. Dans le scénario NZE, la part des renouvelables dans la production d’électricité atteint 90 % en 2050, alors que dans le scénario APC, elle atteint les 70 % à cet horizon.

La part de l’électricité dans l’énergie finale mondiale passe de 20 % en 2020 à 26 % en 2030 et à environ 50 % en 2050. A cette date, l’électricité domine le secteur des transports, avec plus de 60 % de l’énergie utilisée. L’hydrogène et les combustibles de synthèse jouent aussi un rôle, concentré principalement dans le transport lourd.

En revanche, avec NZE, la consommation de pétrole tombe à 24 millions de b/j seulement en 2050, alors qu’avec le scénario APC, le pétrole voit sa demande remonter doucement dans les années 2020, puis diminuer jusqu’à 80 millions de b/j en 2050. La consommation de charbon tombe à 600 millions de tonnes-équivalent charbon (Mtec) en 2050 dans le scénario NZE, alors qu’elle passe de 5 250 Mtec en 2020 à 2 600 Mtec en 2050. Quant au gaz naturel, si avec APC, sa demande ne diminue que de 10 % (par rapport à 2020) à 4 350 milliards de m³ en 2025 et reste à ce niveau jusqu’en 2050, elle tombe à 1 750 milliards de m³ seulement en 2050 sous NZE.

Un scénario qui repose sur la technologie actuelle… et future

« Pour atteindre le niveau zéro d’ici à 2050, il faut poursuivre le déploiement rapide des technologies disponibles et généraliser l’utilisation des technologies qui ne sont pas encore sur le marché. D’importants efforts d’innovation doivent être déployés au cours de cette décennie (donc avant 2030) afin que ces nouvelles technologies soient commercialisées à temps. La plupart des réductions mondiales des émissions de CO2 jusqu’en 2030 dans notre trajectoire proviennent de technologies facilement disponibles aujourd’hui. Mais en 2050, près de la moitié des réductions proviennent de technologies qui sont actuellement au stade de la démonstration ou du prototype », insiste l’AIE.

Dans l’industrie lourde et le transport longue distance, la part des réductions d’émissions provenant de technologies encore en cours de développement aujourd’hui est encore plus élevée.

Les plus grandes possibilités d’innovation concernent les batteries avancées, les électrolyseurs d’hydrogène, ainsi que le captage et le stockage direct de l’air. Ensemble, ces trois domaines technologiques apportent une contribution essentielle aux réductions des émissions de CO2 entre 2030 et 2050 dans notre trajectoire.

L’innovation au cours des dix prochaines années – non seulement par la recherche et le développement (R&D) et la démonstration, mais aussi par le déploiement – doit être accompagnée de la construction à grande échelle des infrastructures dont les technologies auront besoin. Il s’agit notamment de nouveaux pipelines pour transporter les émissions de CO2 captées et de systèmes pour déplacer l’hydrogène autour et entre les ports et les zones industrielles.

C’est peut-être sur les technologies futures que le rapport de l’AIE est le plus optimiste… Et que le risque est grand de ne pas atteindre l’objectif « net zero ».

Encore plus de débits pour la 5G grâce à des liaisons THz

La demande croissante de services de données mobiles va augmenter avec l’arrivée de nombreux smartphones compatibles 5G, selon une récente étude d’Industry Research. Selon ce même cabinet, « la croissance de la 5G sera également favorisée par les applications professionnelles de type Machine-to-Machine, les maisons et villes intelligentes, etc. Par conséquent, il est logique d’optimiser les communications de réseau ».

Les réseaux mobiles ont évolué avec la cinquième génération (5G) en introduisant plusieurs nouvelles approches sans fil, telles que le multiplexage MIMO (Multiple-Input Multiple-Output) et les communications à ondes millimétriques (mmWave).

Mais ces solutions ne pourront pas répondre à la demande à long terme. « L’IoT exigera un upgrade important du réseau, car ses services ont besoin de peu de connexion mais par contre ils exigent une faible latence. Pour des applications critiques comme les téléopérations, les “allers-retours” de data doivent être très brefs », explique Alain Sibille, professeur à Télécom-Paris, Université Paris-Saclay.

L’Institut Fraunhofer Heinrich-Hertz (HHI) a développé des systèmes de transmission sans fil de nouvelle génération (Beyond 5G) qui reposent sur la technologie térahertz (THz). Ils permettent des capacités de transmission de plusieurs 100 Gbit/s, soit une multiplication par cinq à dix des technologies radio existantes.

La transmission de débits de l’ordre du Tbits/s est potentiellement possible avec les ondes THz. Par ailleurs, le faisceau THz étant plus diffractant et moins atténué par les objets secs (papiers, cartons, tissus…) et non-métalliques que l’infrarouge, il est intéressant pour la communication sans fil en intérieur.

Avec leurs collègues du Fraunhofer Institute for Applied Solid State Physics (IAF), les chercheurs du HHI ont réussi pour la première fois à transmettre une vidéo 4K en temps réel via une liaison THz sans fil, atteignant ainsi un débit de données de 100 Gbit/s sur une période prolongée.

Outre des performances élevées, les communications sans fil térahertz (THz) apparaissent comme une technologie complémentaire intéressante et attrayante comparée aux connexions par fibre optique qui sont moins flexibles et plus coûteuses.

Des connexions pour les zones rurales

Les applications potentielles de la technologie THz sont, par exemple, la connexion à haut débit des utilisateurs dans les zones rurales ou la communication entre appareils. « Il faut recourir à des liaisons sans fil qui utilisent des bandes de fréquences dans le régime térahertz (THz) comme extensions de backhaul des fibres optiques pour combler le fossé entre les zones rurales et les grandes villes, afin de fournir un Internet à haut débit à des vitesses de l’ordre du térabit par seconde », déclare Angeliki Alexiou, coordinatrice du projet TERRANOVA,

Financé par l’UE et s’appuyant notamment sur les travaux du Fraunhofer, ce projet a permis la mise au point d’une connectivité sans fil à la vitesse du térabit par seconde en repensant les émetteurs‑récepteurs afin d’étendre la capacité et la fiabilité des liaisons par fibre optique aux réseaux sans fil.

Cependant, la grande difficulté est de fabriquer des sources compactes, puissantes, et peu chères, et d’autre part des détecteurs sensibles au THz, intégrables et robustes.

Une nouvelle méthode pour évaluer l’efficacité de la phytostabilisation

Apparue à la fin des années 1960, la phytostabilisation consiste à implanter un couvert végétal afin de réduire la mobilité de polluants contenus dans un sol, principalement liée aux phénomènes d’érosion. Cette technique est utilisée pour réhabiliter de larges zones contaminées, comme d’anciens sites industriels, notamment miniers. Deux méthodes sont actuellement utilisées pour évaluer son efficacité : l’expérimentation en pot en conditions de laboratoire ou l’utilisation de placettes de quelques mètres carrés à même le sol et directement placées sur le futur site d’implantation. Ces deux méthodes présentent l’inconvénient d’étudier uniquement ce qui se passe au niveau de la surface du sol et des racines. Un projet de recherche nommé PhytoSELECT et coordonné par l’ISTO (Institut des Sciences de la Terre d’Orléans) a développé une nouvelle méthode d’étude de la phytostabilisation, plus précise, et qui permet notamment d’analyser l’impact de cette technique au niveau du sous-sol.

Le mésocosme est installé dans un laboratoire du BRGM à Orléans – Crédit photo BRGM

« Notre méthode se situe à une échelle intermédiaire, à mi-chemin entre la culture en pot et le système de placettes, explique Fabienne Battaglia-Brunet, microbiologiste au BRGM (Bureau de Recherches Géologiques et Minières), partenaire de ce projet. Dans notre laboratoire à Orléans, nous avons utilisé une colonne qui contient environ 1 m³ de terre, et sur laquelle nous avons placé des capteurs pour suivre différents paramètres, comme l’humidité. L’installation ressemble à un grand pot à la taille métrique que l’on appelle un mésocosme. Grâce à ces conditions contrôlées, nous sommes capables d’observer l’efficacité de la phytostabilisation au niveau de la surface du sol et des racines, mais aussi jusqu’à un mètre en dessous des plantes. Au fond de cette colonne, nous avons en plus créé une zone saturée en eau qui représente la nappe souterraine. »

Schéma représentant la coupe du mésocosme – Crédit photo BRGM

Une plante déjà adaptée à la toxicité du sol

Ce mésocosme a été rempli avec un résidu minier prélevé sur le site d’une ancienne exploitation de plomb et d’argent située dans le Puy-de-Dôme, et dont le sol contient différents polluants, principalement du plomb, mais aussi du zinc et de l’arsenic. Pour le choix de l’espèce végétale à implanter, le LBLGC (Laboratoire de biologie des ligneux et des grandes cultures), associé à ce projet, a sélectionné une plante déjà présente sur le site : l’Agrostis capillaris. Il s’agit d’une petite graminée présente sur de nombreux anciens sites miniers en raison de sa résistance aux métaux. Étant prélevée sur le site d’étude, elle a l’avantage d’être déjà adaptée à la toxicité du sol. Elle présente aussi l’intérêt de posséder un système racinaire dense et donc une capacité à stabiliser les polluants présents dans le sol.

Le résidu minier a été prélevé sur le site d’une ancienne exploitation de plomb et d’argent située dans le Puy-de-Dôme – Crédit photo BRGM

Comme il est souvent d’usage en phytostabilisation, plusieurs amendements ont été apportés à même le sol afin d’aider la plante à pousser. Tout d’abord du fumier pour fournir les nutriments à la graminée qu’elle ne trouve pas dans le sol. Ensuite, de la boue d’oxyde de fer afin de rendre l’arsenic moins mobile. « Les éléments toxiques présents dans le sol ont des comportements différents en fonction de son pH, ajoute la chercheuse du BRGM. L’apport de fumier a pour effet de le faire remonter et donc de rendre le plomb moins mobile. Par contre, l’arsenic a justement besoin d’un sol acide pour rester immobile. Nous rajoutons donc de la boue d’oxyde de fer qui empêche une trop grande mobilité de l’arsenic ». Un troisième amendement a été apporté, sous la forme de biochar, produit à partir de végétaux pyrolysés. Il a pour rôle de tamponner l’acidité de la terre et libère également des nutriments. Il permet aussi d’aérer le sol et d’aider les plantes à pousser.

Après le semis dans le mésocosme, les scientifiques ont observé une croissance rapide des plantes, même après plusieurs coupes. L’efficacité de la phytostabilisation a été jugée satisfaisante avec une stabilisation mécanique des éléments toxiques, c’est-à-dire leur piégeage par les racines, réduisant leur mobilité en cas de pluies et de vent. Sur le plan biogéochimique, les plantes ont démontré leur capacité à piéger les polluants grâce à des processus d’accumulation et d’encroûtement au niveau racinaire. Résultat : alors que 10 milligrammes par litre de plomb ont été constatés dans les solutions à la surface du sol au départ de cette expérimentation, sa concentration est descendue en dessous du milligramme grâce aux amendements.

Une augmentation du plomb dans l’eau souterraine

Mais surtout, le mésocosme a permis d’observer un phénomène que les deux autres méthodes d’évaluation couramment utilisées ne permettent pas. « Pendant une courte période, lors des apports d’amendements, nous avons observé une augmentation de la concentration en plomb dans la zone représentant l’eau souterraine, révèle Fabienne Battaglia-Brunet. Ce qui s’observe en surface ne reflète donc pas forcément la réalité de ce qui se passe en profondeur. Cela donne tout l’intérêt à notre travail de recherche et à notre mésocosme. »

Pour l’heure, les scientifiques émettent différentes hypothèses face à cette augmentation de plomb dans l’eau sous-jacente. L’une d’elles serait que la boue d’oxyde de fer ou le biochar libèrent des ions en solution qui entreraient en compétition avec les polluants adsorbés. Et ce phénomène provoquerait une modification du lien entre les polluants toxiques et les minéraux du sol, et favoriserait la mobilité du plomb en profondeur. « Lorsque nous aurons réussi à interpréter d’où vient ce phénomène, nous pourrons proposer des solutions pour le maîtriser, précise la chercheuse. Encore une fois, cela montre bien l’intérêt de notre méthode pour évaluer l’efficacité de la phytostabilisation. »

Les résultats de cette expérimentation doivent prochainement faire l’objet d’une publication scientifique. Le mésocosme pourrait être utilisé sur d’autres sites contaminés afin d’optimiser le processus de stabilisation des polluants avant l’installation d’un couvert végétal. Le bureau d’études IDDEA, intéressé par l’application de techniques de phytomanagement, est d’ailleurs associé à ce projet.

L’Europe se rêve leader de l’intelligence artificielle « digne de confiance »

La Commission européenne s’attaque à l’opacité des algorithmes et souhaite assurer la bonne balance entre bénéficies et risques de l’intelligence artificielle (IA). À l’image du RGPD qui protège les données personnelles, l’Union européenne (UE) souhaite protéger les utilisateurs des nouveaux risques de l’IA liés à la sécurité et aux droits fondamentaux. L’UE souhaite devenir une source d’inspiration ailleurs dans le monde. « En établissant les normes, nous pouvons ouvrir la voie à une technologie éthique dans le monde entier, tout en préservant la compétitivité de l’UE », assure Margrethe Vestager, vice-présidente exécutive pour une Europe adaptée à l’ère du numérique, via communiqué.

Une approche inédite basée sur les risques

Première disposition de ce nouveau paquet qui doit encore être adopté par le Parlement européen et les États membres : une proposition de règlement établissant des règles harmonisées sur l’intelligence artificielle. Ce règlement s’appliquerait à tout système d’IA mis sur le marché dans l’UE ou dont l’utilisation a une incidence sur des personnes vivant dans l’UE. Il repose sur une approche fondée sur les risques selon quatre niveaux : inacceptable, élevé, limité et minimal.  Pas question pour l’Europe d’autoriser les utilisations jugées inacceptables. La Commission vise les utilisations qui manipuleraient le comportement humain pour les priver de leur libre-arbitre. Elle y place tous les systèmes qui font peser « une menace évidente pour la sécurité, les moyens de subsistance et les droits des personnes ». Par exemple, elle cite les systèmes de notation sociale des États et s’interdit ainsi un système similaire au « système de crédit social » lancé en Chine. Dans un autre domaine, elle évoque des jouets à assistance vocale qui inciteraient des mineurs à avoir un comportement dangereux.

Des risques élevés à encadrer strictement

La commission identifie de nombreux systèmes à risque élevé. On y retrouve les technologies qui touchent aux infrastructures critiques comme celles liées aux transports, aux services privés et publics dit « essentiels » ou touchant à la sécurité des produits. Cette catégorie comprend aussi les technologies liées à l’éducation et à la formation professionnelle, au marché du travail, au maintien de l’ordre, à la gestion de la migration, de l’asile et des contrôles aux frontières, à la justice, et aux processus démocratiques. Leur mise sur le marché devra répondre à des « obligations strictes ». « Ces exigences portent sur la qualité des ensembles de données utilisés, la documentation technique et la tenue de registres, la transparence et la fourniture d’informations aux utilisateurs, le contrôle humain, ainsi que la robustesse, l’exactitude et la cybersécurité », détaille la Commission européenne.

Concrètement, à quoi peut ressembler un système d’IA à risque élevé ? Bruxelles évoque des systèmes permettant la notation d’épreuves d’examens, des systèmes intervenant dans la chirurgie assistée par robot ou encore les logiciels de tri des CV pour les procédures de recrutement. Il peut aussi s’agir de systèmes évaluant le risque de crédit privant certains citoyens de la possibilité d’obtenir un prêt ou encore vérifiant l’authenticité des documents de voyage.

Bruxelles met un coup de projecteur sur les systèmes biométriques. « Leur utilisation en temps réel dans l’espace public aux fins du maintien de l’ordre est en principe interdite », prévient la Commission européenne. Elle prévoit des dérogations en cas de recherche d’enfant disparu, de menace terroriste « spécifique et imminente » ou pour arrêter le suspect d’une infraction pénale grave. Toute dérogation devra être « soumise à des limitations appropriées concernant la durée, la portée géographique et les bases de données consultées », ajoute la Commission.

Du risque limité au risque minime

Il y a encore des systèmes où le risque est jugé limité. Il s’agit ici des cas où il existe un risque manifeste de manipulation. La Commission cite le cas des chatbots. Les utilisateurs doivent alors savoir qu’ils interagissent avec une machine « afin de pouvoir décider en connaissance de cause de poursuivre ou non ».

En bas de cette classification se trouve le risque minime. « La grande majorité des systèmes d’IA relèvent de cette catégorie », considère la Commission. Il s’agit par exemple des jeux vidéo ou des filtres anti-spam. Avec un risque considéré comme minime, voire nul, le projet de règlement ne prévoit aucune intervention pour cette catégorie.

Nouveau plan coordonné et règlement relatif aux machines et équipements

Le deuxième dispositif du paquet est la mise à jour du plan coordonné datant de 2018. Celui-ci jetait les bases d’une coordination des politiques et encourageait les États membres à élaborer des stratégies nationales en matière d’IA. La Commission en présente une version actualisée pour garantir un lien avec le Pacte Vert européen et le plan de relance pour renforcer les actions dans les domaines de l’environnement et de la santé.  Enfin, le troisième dispositif concerne un projet de règlement sur les machines et équipements. Ce règlement vient compléter le règlement général sur l’IA en garantissant l’intégration sûre des systèmes d’IA dans les machines et équipements pour ne pas compromettre la sécurité des dispositifs dans leur ensemble.

Les récifs coralliens : une richesse menacée à protéger

Une étude parue début mai dans la revue Biological Conservation nous met en garde : tout le corail pourrait disparaître d’ici 30 à 50 ans. Les chercheurs insistent sur l’urgence de sauvegarder les récifs coralliens dans les prochaines décennies. En ce sens, ils invitent à déployer rapidement trois familles d’actions prioritaires pour protéger les récifs coralliens : la réduction des émissions de gaz à effet de serre, la baisse des pressions anthropiques et l’innovation pour renforcer leur résilience. Mais quel est l’état et l’importance de ces récifs en France ?

Selon l’initiative française pour les récifs coralliens (Ifrecor), la France est le quatrième pays corallien au monde. Le pays compte près de 60 000 km² de récifs coralliens, soit 10 % de la surface mondiale. Ils se trouvent dans l’océan Atlantique, l’océan Indien et l’océan Pacifique. En plus de leur intérêt écologique, ces récifs apportent 1,3 milliard d’euros aux économies de neuf collectivités d’outre-mer. Ils font vivre 12 000 sociétés, 50 000 emplois et plus de 175 000 ménages.

Des récifs menacés par les activités humaines

Dans le monde, environ la moitié de la surface de corail vivant a disparu depuis les années 1870. Selon la Plateforme intergouvernementale scientifique et politique sur la biodiversité et les services écosystémiques (IPBES), près d’un tiers des coraux sont actuellement menacés. Dans la France d’Outre-mer, les récifs coralliens les plus dégradés se trouvent dans les Antilles françaises et dans l’Océan Indien (Mayotte, La Réunion). « La majorité (62 %) des récifs évalués sur ces territoires sont dégradés, contre seulement 30 % dans les territoires moins densément peuplés du Pacifique (Nouvelle-Calédonie, Wallis et Futuna, Polynésie française) et dans les îles Eparses de l’océan Indien », calcule l’Ifrecor.

Les effets combinés du réchauffement climatique et de la pollution due aux activités humaines constituent les menaces les plus importantes pour les coraux situés en outre-mer. Face à la multiplication des événements climatiques et une pression humaine accrue, les récifs perdent leur capacité de résilience, et ne parviennent plus à se reconstituer après un épisode de dégradation.

Protéger les récifs des eaux françaises

La France s’est engagée à protéger l’intégralité des récifs coralliens situées en outre-mer d’ici à 2025. Selon une étude d’Ifrecor, 67 % le sont aujourd’hui, notamment dans les aires marines protégées. L’institut relève des bénéfices « notables » sur les populations de poissons et l’état des écosystèmes dans ces zones de protection.

« La réduction des pressions issues des activités humaines à terre et en mer reste la principale marge de manœuvre pour sauver les récifs et maintenir les services qu’ils procurent : traitement des eaux usées, gestion des aménagements, promotion d’une agriculture respectant l’environnement, pêche durable… », conclut l’Ifrecor.

Que devient /e/, le système d’exploitation mobile dégooglisé?

C’était il y a environ trois ans. Fin 2018, le système d’exploitation mobile /e/ débarquait sur le marché, avec une grande ambition : « dégoogliser » les smartphones. Un pari fou de son créateur, Gaël Duval ? Pas tant que ça… Aujourd’hui, l’entreprise compte 20 000 utilisateurs quotidiens et a dépassé, pour l’année 2020, le million d’euros de chiffre d’affaires. Pour connaître l’évolution de ce système d’exploitation, mais également les futurs développements, Techniques de l’Ingénieur a questionné le fondateur de /e/.

Techniques de l’Ingénieur : Vous avez lancé fin 2018 le système mobile dégooglisé /e/. Est-ce que votre système d’exploitation (OS) mobile « dégooglisé » a évolué ?

Gaël Duval, créateur du système d’exploitation mobile /e/. Crédit : /e/

Gaël Duval : Il s’est passé beaucoup de choses depuis 2018. Nous venions de sortir une première version de /e/. Depuis, le produit a beaucoup progressé. Nous avons toujours cet OS mobile dégooglisé, c’est-à-dire qui n’envoie aucune information chez Google, et compatible avec les services Android. Nous avons également des services en ligne comme le mail, le calendrier, les contacts, etc. C’est une grosse infrastructure basée sur de l’open source, qu’on opère nous-mêmes.

Que signifie pour vous « dégoogliser » ?

Nous avons étudié tout ce qui sortait d’un téléphone classique et nous avons remarqué qu’il y avait de nombreuses fuites de données à tous les étages de la fusée, y compris dans les couches profondes du système. Puis en remontant les couches, on arrive jusqu’au navigateur web, au moteur de recherche, aux applications par défaut… qui envoient également des informations. Et ces données sont envoyées à Google.

Avez-vous un exemple pour les couches profondes ?

Quand on démarre un téléphone Android, il va faire une recherche pour trouver un réseau et un accès internet. Pour cela, il va envoyer une requête sur un serveur Google pour voir s’il arrive à se connecter. Ce qui permet à Google de savoir qu’un téléphone Android vient de démarrer, avec telle adresse IP et potentiellement à tel endroit. Ou par exemple les DNS par défaut qui permettent de traquer l’activité des utilisateurs dans les applications, qui sont par défaut, celles de Google.

Concrètement, vous enlevez traqueurs et applications liées à Google…

Le système d’exploitation mobile /e/ est proposé sur le FairPhone. Crédit : /e/

Notre système d’exploitation part d’une base Android, qui était à la base open source ! Nous modifions le système de manière profonde pour protéger l’utilisateur. Nous avons nettoyé toutes les couches en réalisant un gros travail d’analyse et en remplaçant avec des équivalents, y compris les applications par défaut. Nous n’avons ni Gmail, ni Google Maps, etc. Nous les remplaçons par des équivalents open source qui n’envoient pas de données chez Google. Nous aimerions en faire le moins possible, mais les modifications dans l’OS sont nombreuses…

Comment faites-vous le choix des applications ?

Nous prenons la plupart du temps des briques open source, qui ont un niveau fonctionnel suffisant pour répondre aux besoins et en faisant attention à l’expérience utilisateurs. Elles peuvent être bonnes, mais pas suffisamment au niveau de l’interface. On peut modifier certaines d’entre elles pour avoir une expérience utilisateur suffisante et les proposer.

Pouvez-vous nous donner quelques exemples d’applications open source que vous proposez ?

/e/ dispose de son propre installeur d’applications, pour remplacer Google Play. Crédit : /e/

Pour le service mail, on utilise le fork K9mail sur lequel on a fait un travail sur l’expérience utilisateur et on a ajouté le chiffrement. Pour le navigateur web, on fournit une version modifiée de chromium qui fonctionne très bien. Le moteur de recherche est un métamoteur, c’est-à-dire un relai anonyme vers une multitude de moteurs de recherches que l’utilisateur peut sélectionner. Il protège les requêtes utilisateurs du microciblage publicitaire. En deuxième et troisième choix, nous proposons Qwant et DuckDuckGo. Pour « Maps », nous utilisons Magic Earth, qui n’est pour le moment pas open source. L’entreprise y travaille. Mais elle fournit toute la documentation sur les échanges de données, pour être transparente. Et puis d’autres applications qui viennent de chez NextCloud, comme les notes. Pour la messagerie instantanée, nous avons décidé de ne pas inclure de messagerie par défaut. Quand j’ai posé la question à la communauté, la moitié voulait Signal et l’autre Telegram. Elles sont toutes disponibles, y compris d’autres… Nous avons développé notre propre installeur d’application, pour remplacer Google Play Store. Il donne accès à 60 000 applications Android environ.

Toutes les applications de votre store sont-elles vérifiées ?

Elles ont une note de « privacy » permettant d’informer les utilisateurs. Un peu comme les consommateurs avec les applications spécialisées sur la nourriture. Les applications que l’on propose sont analysées au niveau des traqueurs, une sorte de cookies d’applications, qui permettent d’utiliser des services tiers comme le tracking publicitaire, le login sur Facebook, l’affichage publicitaire, etc. Et en termes de données perso, c’est vraiment horrible. Par exemple, en allant sur des applications de média grand public, on imagine utiliser leur service. Mais quand on regarde, il y a une trentaine de traqueurs qui permettent à des entreprises tierces de savoir qui utilise l’application et comment.

Vous proposez des applications non « safe » ?

Nous essayons d’offrir le choix le plus large possible. L’idée n’est pas d’enfermer les gens dans un monde, mais d’offrir un système par défaut qui protège bien mieux les données personnelles qu’un système commercial. Nous savons bien que les utilisateurs ont des applications plus ou moins vertueuses, et nous ne les jugeons pas. Ils le font en connaissance de cause.

Avez-vous d’autres nouveautés ?

Nous proposons également des progressive web apps pour développer de nouvelles applications pour s’affranchir des stores. C’est une manière de développer des applications avec les technologies du web. Par exemple, si on prend une application classique Android ou iOS, elles vont être développées avec un langage spécifique (Java pour la première, et Swift pour la seconde). Les progressive dev apps s’affranchissent de ces langages et utilisent le HTML, CSS, Javascript, etc.

Quelles sont les prochaines étapes ?

Nous travaillons sur un nouvel outil : « Privacy Center ». Il va permettre de traquer les données envoyées par les trackers et de les couper ! Ensuite, on va intégrer des fonctionnalités pour permettre à l’utilisateur de naviguer de façon anonyme sur internet, de cacher son adresse IP, d’envoyer une fausse géolocalisation s’il le souhaite. Les utilisateurs ont le droit de ne pas communiquer leur vraie position géographique en temps réel et à tout le monde.

C’est le mois de la construction chez Techniques de l’Ingénieur !

Comme de nombreux secteurs, la construction et les travaux publics ont été affecté par la pandémie. Mais les commandes publiques reprennent et plusieurs milliards d’euros ont été alloués à des travaux d’infrastructures à travers le plan gouvernemental « France Relance ».

Pour aller plus loin et vous donner un coup de pouce supplémentaire en cette période de reprise, Techniques de l’Ingénieur fait du mois de juin le mois de la construction et vous propose de découvrir gratuitement chacune des offres de la gamme « Construction et travaux publics » à travers des articles gratuits. Nous vous offrons également une remise exceptionnelle de 50% pour tout abonnement à une offre de la gamme.

Alors, n’hésitez plus et découvrez tout de suite notre gamme « Construction et travaux publics » !

Découvrez dès à présent nos articles en consultation libre :

Et pour bénéficier de notre remise exceptionnelle, il suffit de vous rendre ici, alors n’attendez plus !

Un dispositif pour brouiller les drones hostiles

L’avènement récent du drone civil à la fois pour le loisir et dans un contexte professionnel est présenté comme une révolution pour certains secteurs d’activités et en particulier celui de la livraison. Huit ans après la présentation par Amazon de son projet de livraison à domicile par drone, différentes entreprises multiplient les expérimentations. Au Royaume-Uni, la poste britannique initie une nouvelle expérimentation de livraisons par drone entre les différentes îles du pays.

Ce mode de livraison continue à susciter beaucoup d’intérêt, mais son développement reste encore limité par les problèmes de sécurité évidents. L’intégration progressive des drones dans la circulation aérienne est un changement de paradigme qui nécessite « le développement de nouveaux systèmes et services, assortis de fortes exigences de sécurité sur les aéronefs (navigabilité), les opérations, les services et la formation des personnels », rappelait la DSAC (Direction de la Sécurité de l’Aviation civile) lors d’un symposium organisé en 2019.

Un drone qui passe sous l’aile d’un Airbus

 « Le nombre d’exploitants professionnels (plus de 8 500 à ce jour) augmente rapidement, à raison de 2 000 nouveaux acteurs par an. Il en est de même du nombre d’aéronefs professionnels déclarés, qui dépasse aujourd’hui les 15 000 », selon les chiffres fournis lors de ce symposium de la DSAC (Direction de la Sécurité de l’Aviation civile).

Grand public et professionnels ne peuvent pas faire n’importe quoi avec leur drone. En France, depuis le 31 décembre 2020, tout drone – quel que soit son régime d’utilisation – doit évoluer à une hauteur maximale de 120 mètres au-dessus du sol ou de l’eau. Cette hauteur vise à permettre une « ségrégation naturelle » avec la majorité des aéronefs habités qui, selon les règles de l’air en vigueur, doivent évoluer à une hauteur supérieure à environ 152 mètres.

Aucune mort n’est pour l’instant survenue en conséquence directe d’un accident de drone en France, mais les risques de collision entre drones ou avec un avion civil ou militaire ne sont pas nuls. Le 19 février 2016, les pilotes d’un Airbus A320, qui était en train d’amorcer sa descente vers Paris Charles-de-Gaulle, ont aperçu un drone  qui est passé sous leur aile gauche.

Quelques mois plus tard, un autre rapprochement anormal d’un drone avec un aéronef habité a été signalé. Il s’agissait d’un Airbus A319 qui effectuait un vol Air France entre Casablanca et Paris Charles-de-Gaulle. Le drone est passé à cinq mètres à droite du cockpit.

Il y a quelques années, l’aéroport de Gatwick a dû annuler plus de 1 000 vols pendant la période de pointe des vacances en raison de multiples signalements de drones dans la région…

Autres risques : des chutes sur les infrastructures au sol (champ cultivé, bâtiment public, industriel, axe de circulation…) ou des personnes. Le 14 juillet 2019, lors d’un festival de musique qui se déroulait sur la commune du Barcarès, un drone (qui était en panne) a chuté dans la foule. Deux personnes avaient été blessées.

Dispositif de brouillage

Pour prévenir ce genre de risques, il existe une liste des zones interdites de survol par tout engin volant (habité ou non). De même, le site internet Géoportail héberge une carte de France à destination des télépilotes de drones de loisir, indiquant clairement les zones interdites de survol.

L’Europe a également décidé de financer le projet ALADDIN. Ce « Système holistique avancé de détection, d’identification et de neutralisation de drones malveillants » intéresse notamment les forces de l’ordre et les concepteurs/opérateurs de la sécurité des infrastructures critiques.

L’objectif est de développer une solution capable de détecter plusieurs types de drones dans divers environnements et dans des conditions complexes. S’appuyant sur la solution commerciale de lutte-anti drones Boreades, développée par CS Group (fournisseur européen de systèmes critiques, intelligents et cyberprotégés), ce projet a amélioré les capacités du dispositif en y ajoutant de l’intelligence artificielle, des capteurs innovants et des capacités de neutralisation.

Le système exploite un radar 2D à longue portée, un radar 3D à moyenne portée, une capacité infrarouge panoramique et une caméra PTZ (pan-tilt-zoom), ainsi que des mécanismes de neutralisation tels que des lanceurs de filets, des brouilleurs et des intercepteurs de drones.

« Grâce à une représentation holographique de la situation réelle, l’utilisateur bénéficie d’une meilleure appréciation de la situation, sans parler de la possibilité de ‘voir’ et de réagir à la menace avant même qu’elle ne devienne visible », précise Philippe Robin, chercheur rattaché à CS Group, qui fait office de coordinateur du projet.

Lorsqu’un drone hostile est identifié, la solution utilise alors son dispositif de brouillage intégré, qui peut fonctionner de manière directionnelle ou omnidirectionnelle, pour neutraliser la menace.

Après différents tests réussis, une commercialisation serait envisagée prochainement.

Techniques de l’Ingénieur partenaire de Horizons Hydrogène

Horizons Hydrogène offre l’opportunité à tout un écosystème de s’informer, débattre, faire une veille complète sur les dernières innovations et projets en cours de ce marché en pleine ébullition. 

Les énergies renouvelables prennent de l’ampleur et le déploiement d’un modèle énergétique décentralisé est en cours, pour répondre aux objectifs nationaux, européens et internationaux de décarbonation. Face aux enjeux d’une demande fluctuante et des problèmes de stockage des énergies renouvelables, la réponse devient claire : l’hydrogène.

L’hydrogène suscite de plus en plus d’intérêt, et face à l’impact croissant du marché de l’hydrogène, il est essentiel pour les décideurs d’entreprise d’en comprendre toute la richesse et le potentiel de développement.

Le congrès a pour vocation de devenir un véritable lieu d’échanges et d’expertise entre industriels, experts-chercheurs, porteurs de projets, investisseurs publics et privés, consultants, institutionnels, utilities et énergéticiens, pour ainsi se positionner comme un grand rendez-vous annuel des professionnels de l’hydrogène.

500 professionnels sont attendus pour suivre les débats du congrès. Plus d’une centaine de speakers de haut niveau et d’expertise représentant les principaux acteurs du marché et de l’énergie seront présents à la tribune ainsi que sur les 3 scènes en salles thématiques.

A travers 2 jours de conférences stratégiques, de retours d’expériences et de projets, de démonstrations innovantes, de présentations de travaux et d’études, d’ateliers techniques, et enfin de sessions de formations métiers, nous vous offrons un panorama complet des perspectives et des opportunités liées aux évolutions de ce marché en pleine structuration.

Pourquoi participer à Horizons Hydrogène ?

  • Inspirez-vous grâce aux partages de nos 100 intervenants : plus d’une centaine d’intervenants sont attendus ainsi que sur nos 3 salles thématiques en parallèle.

Découvrez les intervenants annoncés.

  • Informez-vous sur les enjeux H2 actuels, formez-vous, découvrez les solutions R&D au cœur du marché de l’hydrogène : conférences, village Hynnovation, démonstrations, formations.

Consultez le programme des conférences

  • Rencontrez les acteurs de l’écosystème hydrogène et échangez sur vos enjeux

30 sponsors et partenaires

500 professionnels

100 speakers

Rencontrez nos partenaires

Retrouvez plus d’informations sur le site d’Horizons Hydrogène : https://horizons-hydrogene.com

La pollution a modifié le plancton de la rade de Brest de façon irréversible

Dans la rade de Brest, c’est une drôle de transformation qui s’est déroulée ces 80 dernières années. Grâce à l’étude de l’ADN préservé dans ses sédiments, des chercheurs de l’Ifremer ont reconstitué l’évolution des espèces composant le plancton marin côtier. Pour ce faire, ils ont prélevé des carottes de sédiments de plusieurs mètres en trois points de la rade de Brest. Leurs résultats sont publiés dans la revue Current Biology.

« Chaque carotte a été découpée le jour même, comme un saucisson, centimètre par centimètre, avec des extractions d’ADN à chaque tranche et d’infinies précautions pour ne pas contaminer nos échantillons avec de l’ADN contemporain lors des analyses », explique Raffaele Siano, biologiste à l’Ifremer, cité dans un communiqué. Les carottes ont ainsi permis environ 1 400 ans d’analyses rétrospectives sur les effets de la pollution humaine sur les protistes marins. Bilan : des variations importantes apparaissent depuis la Seconde Guerre mondiale au sein de deux groupes de protistes particuliers : les dinoflagellés et les straménopiles. En particulier, les chercheurs pointent désormais la présence de microalgues toxiques, notamment le dinoflagellé Alexandrium minutum qui produit des toxines paralysantes.

La pollution impacte les communautés du plancton

Les changements communautaires coïncident avec l’apparition de polluants, à partir de la Seconde Guerre mondiale. Des analyses mettent en évidence la présence de métaux lourds (incluant plomb, nickel et chrome) et de PCB dans les sédiments. Après la guerre et surtout entre les années 1980 et les années 1990, cette évolution suit les contaminations chroniques d’origine agricole.

« La rade de Brest a été marquée par des événements de pollution extrêmes lors de la Deuxième Guerre mondiale, avec notamment les bombardements des Alliés ; nous en avons retrouvé la trace avec de fortes teneurs de métaux lourds dans les couches de sédiments de l’époque. Et depuis, la rade est le réceptacle d’une pollution chronique avec des contaminants issus notamment de l’agriculture intensive. C’est ce qu’on retrouve dans les sédiments plus récents des années 1980 et 1990 », résume Raffaele Siano.

Grâce à des modélisations, les chercheurs démontrent l’irréversibilité des changements observés suite à l’effet combiné de la guerre et de la pollution agricole. En effet, les communautés microbiennes de l’époque préindustrielle ne se retrouvent plus dans le plancton actuel. Voici une nouvelle contribution montrant l’importance de la préservation des écosystèmes côtiers et la difficulté de leur restauration une fois dégradés.

Ecoutez notre podcast Cogitons Sciences : L’hydrogène bas carbone a le vent en poupe ! [Energie et mobilité #1]

Quelles sont les différentes technologies utilisées ? Comment avance la recherche pour chaque type de transport ? Comment la filière s’organise pour permettre un développement plus large des transports à hydrogène ? 

Pour répondre à ces questions, Techniques de l’Ingénieur reçoit Philippe Boucly, le président de France Hydrogène. L’association fédère les acteurs de la filière française de l’hydrogène et des piles à combustible. Au sein de cette association, il représente GRTgaz, opérateur français de réseau de transport de gaz naturel à haute pression.

Vous pouvez écouter l’épisode ici.

Hydrogène vert, bleu, gris : de quoi parle-t-on ? [1:15] – [4:39]

La différence entre les appellations provient essentiellement du mode de production de l’hydrogène : est-il fait à partir d’électricité renouvelable ? A partir d’énergies fossiles ? Philippe Boucly rappelle néanmoins que même l’hydrogène dit « vert » produit aussi du carbone, donc qu’il est préférable de parler d’hydrogène « bas carbone ».

Le secteur des transports est une priorité dans la lutte contre le réchauffement climatique car il est le deuxième contributeur d’émissions de gaz carbonique dans le monde. L’utilisation d’hydrogène bas carbone pourrait devenir une option particulièrement intéressante.

Hydrogène et transports : où en sommes-nous ? [4:40] – [24:01]

Philippe Boucly revient sur les différents projets en cours pour chaque moyen de transport. Du côté des trains, Alstom fait figure de pionnier en ayant déjà commercialisé des trains à hydrogène en Allemagne. En France, il a été décidé de développer un train « bi-mode » qui fonctionnera sur pile à combustible lorsque les lignes ne sont pas électrifiées, et sur caténaire lorsque les lignes sont électrifiées. Le président de France Hydrogène rappelle la nécessité de mettre en place une nouvelle réglementation pour accompagner l’essor des technologies à hydrogène.

Concernant les véhicules, la priorité est donnée à la mobilité lourde (bus, bennes à ordures, camions), et à la mobilité intensive (livraison à domicile, taxis, véhicules utilitaires). Par rapport aux véhicules électriques à batterie, l’hydrogène permet d’allonger l’autonomie.

La France souhaite aussi devenir le premier pays à développer l’avion à hydrogène avec l’objectif affiché de 2035. En 2025, Airbus est censé dévoiler son plan pour atteindre cet objectif. Pour le moment, les études sont en cours.

Comment organiser la chaîne de valeur ? [24:02] – [38:47]

À aujourd’hui, le nombre d’électrolyseurs en France est trop faible pour produire la quantité d’hydrogène bas carbone nécessaire à l’essor des transports à hydrogène. Il y a actuellement moins de 6,5 MW d’électrolyseurs et l’objectif est d’arriver à 6 500 MW d’électrolyseurs à l’horizon 2030. Des constructions de gigafactories sont en cours pour répondre à cette demande.

La logistique, notamment pour le transport et le stockage de l’hydrogène, a longtemps été laissée de côté. En fonction de la quantité d’hydrogène, le transport peut se faire par camions ou par canalisations. Les gaziers travaillent justement à l’adaptation de leur réseau à l’hydrogène.

Le prix est également une question essentielle. Pour l’instant, les solutions à base de gaz et de gasoil sont moins chères que celles à base d’hydrogène bas carbone. Des réflexions sont en cours afin de baisser les coûts des électrolyseurs, et de l’électricité utilisée pour produire l’hydrogène.

Afin d’accompagner cette transition, le gouvernement a dévoilé en septembre 2020 le Plan France Relance avec un plan hydrogène à hauteur de 7,2 milliards d’euros. Les moyens et stratégies sont conformes aux demandes de France Hydrogène exprimées dans leur manifeste publié en juillet 2020. En attendant, France Hydrogène propose une alternative moins « verte » : produire de l’hydrogène à partir de gaz naturel et capter les émissions de CO2. Une « phase transitoire » selon le président de l’association.

Ecoutez l’épisode !

Références citées :

Ressources pour aller plus loin :

  • Site de France Hydrogène
  • Livre L’hydrogène : un vecteur pour la transition énergétique de Gilles Guerassimoff et Lise Adegnon
  • Rapports de l’AIE, l’IRENA, la Commission européenne, Hydrogen Europe etc.

Cogitons Sciences est un podcast produit par Techniques de l’Ingénieur. Cet épisode a été réalisé par Alexandra Vépierre, en collaboration avec Intissar El Hajj Mohamed. Le générique a été réalisé par Pierre Ginon et le visuel du podcast a été créé par Camille Van Belle.

Voitures et utilitaires électriques: 100% des ventes de véhicules neufs en 2035 ?

Des véhicules électriques moins chers que les véhicules à essence ou diesel, c’est pour bientôt. À partir de 2025, le marché proposera des utilitaires légers électriques moins chers que des utilitaires diesel. Et ce, même avant subventions. Dès 2026, cela sera aussi le cas pour des utilitaires lourds électriques. En 2026 encore, des berlines et des SUV électriques seront moins chers à produire que leurs versions à essence. En 2027, viendra enfin le tour des petites voitures électriques. Voici le résultat d’une étude de Bloomberg New Energy Finance (BNEF) commandée par l’ONG Transport & Environment. Cette compétitivité à venir proviendra de « la baisse du coût des batteries ainsi que la mise en place de chaînes de production dédiées aux véhicules électriques », avance l’étude.

Véhicules utilitaires, voitures moyennes et petites voitures

« D’ici six ans, une voiture électrique sera moins chère qu’une voiture thermique pour tous les nouveaux acheteurs, familles et professionnels, avance Diane Strauss, directrice de l’ONG Transport & Environnement en France. C’est une bonne nouvelle pour le climat, car une voiture électrique émet quatre fois moins de CO2 que son homologue thermique, même en comptant la fabrication de la batterie. Il faut maintenant s’assurer que les constructeurs s’engagent dans cette transition en renforçant les normes de CO2 européennes.  »

Le fait que les véhicules utilitaires deviennent bientôt moins chers à produire constitue aussi une bonne nouvelle pour le climat. Ils représentent 20 % des émissions du transport routier en France. « La France possède la plus grande flotte d’utilitaires d’Europe (20 % UE27+UK) mais les utilitaires électriques ne représentent que 2 % des ventes », avance l’étude. Pour changer d’échelle, Transport & Environment invite les législateurs européens à fixer aux constructeurs d’utilitaires des objectifs ambitieux en matière d’émissions CO2, ainsi qu’un quota de ventes d’utilitaires électriques.

Préparer le changement d’échelle grâce à la législation

Avec les seules politiques actuelles, les voitures et utilitaires à batterie devraient représenter 50 % des ventes de véhicules neufs en Europe d’ici à 2030 et 85 % en 2035. Ils pourraient même représenter 100 % des ventes de véhicules neufs d’ici 2035 à condition que « les législateurs renforcent les normes de CO2 des véhicules et lancent d’autres politiques pour stimuler le marché, à l’instar d’un déploiement plus rapide des points de recharge » avance l’ONG.

Transport & Environment demande donc à l’Union européenne de renforcer les objectifs d’émissions dès aujourd’hui et de définir un nouvel objectif pour 2027. L’ONG demande en plus d’interdire au niveau européen la vente de voitures neuves thermiques à partir de 2035. En France, la loi prévoit pour l’instant la fin de vente de ces véhicules en 2040.

Après une crise violente, l’aéronautique française fait preuve de résilience

Depuis plusieurs mois, la filière aéronautique française traverse une sérieuse zone de turbulences. La crise économique liée à l’épidémie de coronavirus qui la frappe de plein fouet est d’une rare intensité. Lors de la présentation du bilan 2020 de la filière, Eric Trappier, PDG de Dassault Aviation et président du Groupement des Industries françaises aéronautiques et spatiales (Gifas), a déclaré que l’année 2020 avait été « éprouvante pour la filière avec une performance en net recul ». Le bilan annuel du Gifas fait état pour l’année passée d’une régression globale de 28 % du chiffre d’affaires pour l’ensemble du secteur, soit 50,9 milliards d’euros. Dans le même temps, les exportations ont été amputées de 30 %, pour plafonner à 33,6 milliards d’euros.

Certains secteurs ont été plus durement touchés que d’autres, et le plus fragilisé est celui de l’aéronautique civile. « Très touché par la crise », ce dernier a vu le nombre de commandes diminuer de 53 %. Cela équivaut à une perte de 28,2 milliards d’euros. Ce résultat en demi-teinte a été réalisé à 49 % grâce aux exportations. Le Gifas précise que ce fort décrochage intervient « après plusieurs années à très haut niveau de prises de commandes et d’augmentation forte des cadences de production dans l’aéronautique civile ». Les secteurs de la défense et du spatial ont, quant à eux, montré davantage de résistance.

Un « scénario catastrophe » pour la filière aéronautique

La crise que connaît la filière aéronautique depuis près d’un an et demi est inédite. De nombreux emplois ont vacillé sous son poids. « Le secteur n’avait pas connu de crise depuis plusieurs décennies. Même en 2008, on cherchait à recruter et à robotiser pour faire face aux montées en cadence, on pensait que cela allait continuer de monter au ciel », a déclaré à l’AFP Johnny Favre, secrétaire national de la CFDT Métallurgie. L’homme évoque même un « scénario catastrophe ». Le Gifas ajoute que dans cette conjoncture « difficile », 2021 devrait voir se poursuivre l’attrition de l’emploi. Les embauches externes devraient également être très limitées.

Selon l’Observatoire de l’emploi et de l’investissement Trendeo, Air France a annoncé la perte de 7 712 postes en France entre le 17 mars et le 17 septembre 2020. Dans le même temps, Airbus et Daher, le plus ancien constructeur d’avions au monde, ont respectivement mis un terme à 5 797 et 2 700 contrats. De son côté, le Gifas évalue la baisse du nombre d’emplois entre 30 000 et 40 000. Le nombre de recrutements qui s’élevait à 19 000 en 2019 n’était plus que de 6 700 l’année suivante.

Durant cette période, ce sont les PME qui ont été les plus concernées par les baisses d’emplois. Ces entreprises ont vu leurs effectifs reculer de 12 %. En parallèle, ceux des ETI et des grands groupes n’ont respectivement diminué que de 7 % et 2,7 %.

Des soutiens déterminants et indispensables

Bien que la crise soit sévère, la filière aéronautique veut se montrer résiliente. « Notre industrie verra néanmoins en 2021 se produire un nombre significatif d’embauches d’apprentis car nous continuons à investir dans de nouvelles compétences. L’avion de demain se fera avec les talents de demain », a confié Eric Trappier, confiant en l’avenir. « On commence à voir la sortie du tunnel » notamment grâce à la vente d’appareils commerciaux, a déclaré le président du Gifas sur à l’antenne de BFM Business le 31 mai 2021. En effet, Airbus a réussi son début d’année. En mars dernier, l’avionneur européen a vendu 72 avions à 34 clients. Il s’agit notamment de quatre avions régionaux canadiens A220, de soixante A320 et de huit long-courriers A350. C’est le double de ce que l’entreprise a été capable de faire en mars 2020. Ainsi, Airbus renoue avec sa cadence de livraison d’avant Covid.

Mais la reprise n’a pas vocation à ne profiter qu’aux grands groupes. Malgré la rudesse des derniers mois, peu d’entreprises ont déposé le bilan. « Le soutien de l’État, avec un plan ambitieux, et celui du Gifas ont été déterminants, avec une mobilisation immédiate », a indiqué Martin Sion, président du groupe des équipements (Gead) du Gifas. « La filière aéronautique et spatiale a subi une année critique, mais elle ne s’est pas effondrée. La qualité du soutien gouvernemental comme de l’ensemble de la profession a permis aux PME de la supply chain de résister et de poursuivre leur activité et les indispensables efforts d’adaptation requis », a confirmé Christophe Cador, président du comité Aéro-PME du Gifas.

Eric Trappier a indiqué que le fonds d’investissement Ace Aéro Partenaires, doté de 630 millions d’euros en juillet 2020, a finalement été peu sollicité. Le président du Gifas a précisé que le montant restant sera distribué aux entreprises ayant besoin d’aide pour favoriser leur reprise. En Occitanie, territoire particulièrement marqué par les difficultés de la filière aéronautique, le fonds Impulsion doté de 50 millions d’euros doit venir en aide aux PME et ETI. Les entreprises concernées pourront bénéficier d’aides financières allant jusqu’à cinq millions d’euros. Autre aide, le Pass Relance aéronautique. Celle-ci sert à rendre plus compétitives les entreprises industrielles et à se développer au-delà du secteur aéronautique.

Le dépôt de particules dans la neige impacte la durée d’enneigement

La neige est l’un pilier de notre système climatique. Grâce à sa blancheur et à son effet albédo, elle réfléchit l’énergie solaire qui, au lieu d’être absorbée par la terre, est renvoyée dans l’atmosphère. Un mécanisme important qui permet de réguler le climat. Par contre, la présence d’impuretés, telles que le carbone suie ou les poussières minérales, va modifier sa couleur et entraîner une diminution de l’effet albédo. Coordonné par le Centre d’études de la neige (CEN), le projet EBONI étudie ce phénomène qui provoque notamment une augmentation de la vitesse de fonte du manteau neigeux.

« Même une neige parfaitement propre ne renvoie pas 100 % de l’énergie lumineuse, mais autour de 90 %, explique Marie Dumont, directrice du CEN et chercheuse. Suite aux dépôts massifs de poussières sahariennes dans les Alpes et les Pyrénées en février dernier, nous avons observé une réduction de l’effet albédo autour de 50% sur le col du Lautaret dans les Alpes. Ce phénomène est plutôt rare, mais je ne pense pas qu’il soit exceptionnel. » 

Durant deux saisons, les scientifiques ont réalisé des campagnes d’analyses sur ce même col afin de mesurer les concentrations en impuretés dans la neige. La présence de carbone suie a été détectée, à raison de 0 et 80 nanogrammes par gramme de neige ; un chiffre relativement fréquent dans de la neige alpine. Ces particules proviennent de la combustion incomplète émanant des véhicules, d’usines ou de feux de forêt.

En additionnant la présence de ce carbone suie à celle de poussières minérales, provenant localement de terres nues ou de sables du Sahara, les chercheurs ont démontré que ces deux éléments provoquent une augmentation de l’énergie solaire supplémentaire absorbée par la neige comprise entre 50 et 200 watts par m². Un chiffre significatif, d’autant plus que sur les deux années de prélèvements, la quantité de poussières minérales dans la neige était relativement faible. « La présence de ces impuretés modifie la vitesse de fonte de la neige, déclare la chercheuse du CEN. Nous avons calculé qu’elles provoquent un raccourcissement moyen de la fonte de l’ordre de 10 jours. C’est un résultat non négligeable car cela signifie que l’eau est donc disponible 10 jours plus tôt. »

Les particules modifient la structure interne du manteau neigeux

Ce travail de recherche s’est concrétisé par la construction d’un modèle numérique permettant d’analyser les interactions entre la neige et les particules. Les deux campagnes d’analyse au Col du Lautaret ont permis d’étalonner ce nouvel outil. Ce dernier permet à présent de mieux prévoir l’évolution du manteau neigeux. En plus de son effet albédo et son rôle positif pour le climat, la neige représente également une ressource en eau importante pour l’agriculture, les écosystèmes, ainsi que pour la production d’hydroélectricité. Sa présence constitue aussi un bon isolant pour le sol et permet la régulation de sa température. La compréhension de l’évolution du manteau neigeux, dans un contexte de changements climatiques, est aussi essentielle pour mieux gérer les risques naturels comme les avalanches et les crues nivales.

Le projet EBONI a aussi consisté à étudier les effets indirects des impuretés sur la structure interne tridimensionnelle du manteau neigeux. La neige est un matériau poreux, composé d’air et de glace, et sa couleur est corrélée à sa structure. Par exemple, une neige fraîche venant de tomber se caractérise par une structure très fine et une capacité à réfléchir l’énergie solaire plus importante qu’une neige plus ancienne, car sa structure est grossière. Les scientifiques ont démontré que la présence de particules modifie indirectement la structure et donc la couleur de la neige, ce qui entraîne une diminution de l’effet albédo et augmente la vitesse de fonte.

Partant de ces analyses, les chercheurs ont étudié l’impact des particules sur la stabilité mécanique du manteau neigeux et le lien avec les avalanches. Ils révèlent que cet impact va dépendre des conditions météorologiques. Lorsque ces particules sont aussitôt recouvertes par une couche de neige, elles ne favorisent pas le risque d’avalanche. Par contre, lorsqu’un dépôt de poussière fait fondre légèrement la surface de la neige puis que des chutes de neige viennent la recouvrir quelques jours plus tard, alors une couche de neige fragile se forme et va potentiellement déclencher des avalanches. Ce risque est d’autant plus important que la pente est exposée au sud.

Techniques de l’Ingénieur participe aux International Business Days Le Mans

Cette convention d’affaires est centrée autour de l’innovation dans le secteur des transports. Ces deux journées sont une formidable opportunité business pour les entreprises de toutes tailles des secteurs de l’industrie manufacturière. Elles permettent de se retrouver dans un lieu unique et synonyme d’innovation afin de trouver des pistes pour de nouveaux business, de faire de la veille technologique, de mieux comprendre l’organisation des secteurs, et d’échanger en face à face avec des décideurs dans une ambiance conviviale.

Le programme des journées :

  • Rendez-vous personnalisés
  • Pitch des startups
  • Rencontres Etudiants ingénieurs – Entreprises
  • Conférences :

– Le futur de la mobilité passe par l’électrification

– Haïku : le management de la performance

– Etat de l’art de la Fabrication Additive

  • Tables rondes :

– La construction et le développement de bancs d’essais adaptés

– Profiter du dispositif de subvention PFA pour définir sa stratégie de diversification d’activités

  • Visite privée et guidée des stands de ravitaillement et des paddocks
  • Tech talks dans l’atelier de montage Michelin Compétition ou Goodyear Racing
  • Possibilité d’assister aux essais qualificatifs de nuit

L’équipe Techniques de l’Ingénieur sera présente sur place et nous vous invitons à nous rejoindre ! Pour trouver plus d’informations et vous inscrire : www.ibdlemans.fr

Avec la réforme de la PAC, les agriculteurs bio craignent pour leur avenir

Vendredi 21 mai, le ministre de l’Agriculture annonçait officiellement les premiers arbitrages du plan stratégique national (PSN), déclinaison de la future politique agricole commune (PAC). Le ministre évoque un maître mot : « la consolidation ». Il s’agit d’une PAC consolidée qui maintient les grands équilibres économiques en place. Mais elle risque surtout de décourager les agriculteurs bio français.

Les ONG fustigent ce nouveau plan. « Le constat que l’on peut tous faire est que la PAC actuelle ne fonctionne pas correctement, donc c’est cela que l’on va stabiliser », ironise Mathieu Courgeau, porte-parole de la plateforme Pour une autre PAC. Le collectif regroupant 46 organisations parle d’un « statu quo irresponsable ».  La fédération nationale de l’agriculture biologique (Fnab)  dénonce pour sa part « la caricature anti-environnementale » du gouvernement. Et pour la Confédération paysanne, le ministre est « en plein renoncement ».

Les agriculteurs bio craignent pour leur avenir

La Fnab dénonce l’abandon des aides au maintien à l’agriculture bio depuis 2017 et la baisse de certaines mesures agro-environnementales et climatiques (MAEC) dites « systèmes ». Ces aides sont souvent préalables à la conversion bio des exploitations agricoles. Sur les 260 millions d’euros d’aides annuelles dédiées aux MAEC, 30 millions vont être redéployées à des mesures localisées et 22 millions d’euros pourraient être redéployées sur des MAEC forfaitaires si le règlement européen l’autorise. En plus, 33 millions d’euros seraient alloués aux Régions pour le renouvellement des générations. « Le redéploiement de ces différents montants risque de faire baisser encore les aides aux MAEC systèmes utilisées en agriculture bio », déplore Mathieu Courgeau. Selon la Fnab, les paysans bio pourraient ainsi voir en 2023 leurs aides financières environnementales reculer de 66 %.

Le ministère de l’agriculture préfère communiquer sur un autre chiffre : une hausse de 250 millions à 340 millions d’euros des aides à la conversion bio. « La communication sur une enveloppe augmentée pour les paysans conventionnels qui veulent se convertir à la bio n’est que poudre aux yeux, ce budget est fictif et ne sera jamais dépensé, personne n’ira se convertir sans soutien durable », dénonce Loïc Madeline, secrétaire national PAC à la FNAB.

Mettre sur un pied d’égalité Haute Valeur Environnementale et bio

Dans la PAC actuelle, 30 % des aides directes concernent le « paiement vert ». Cette aide est versée à tout exploitant qui respecte trois critères environnementaux. Pour y prétendre, les exploitants doivent contribuer au maintien, au niveau régional, d’un ratio de prairies permanentes par rapport à la surface agricole utile de la région et ne pas retourner certaines prairies permanentes, dites « sensibles ». En plus, ils doivent diversifier leurs cultures avec au moins trois cultures dans le cas général. Et ils doivent disposer d’au moins 5 % de surfaces d’intérêt écologique (SIE) sur leur exploitation.

Avec la nouvelle PAC, ces aides deviennent une conditionnalité à l’ensemble des aides. Leur budget dédié est donc réorienté sur différents postes. Mais il y a une nouveauté en théorie à vocation environnementale : l’écorégime. Celui-ci représentera désormais 25 % des aides du premier pilier de la PAC en France. Le ministre prévoit deux niveaux (base et supérieur). Cet écorégime se veut « accessible à tous », selon le ministre. Ainsi, il sera accessible via trois voies d’accès : les pratiques agricoles, les certifications environnementales ou les infrastructures agroécologiques. « Le problème est que le niveau de base sera accessible à un niveau de certification environnementale 2+, un niveau qui reste à construire et qui risque de ne pas être assez ambitieux lorsque l’on sait que le niveau 2 est le simple respect de la réglementation et que le niveau 3 – le plus haut niveau – a déjà plusieurs trous dans la raquette. Ce qui a provoqué la colère des agriculteurs bio est que l’écorégime supérieur met sur le même pied d’égalité l’agriculture bio et les exploitations certifiées Haute Valeur environnementale (niveau 3) ».

Deux gigafactories d’électrolyseurs pour hydrogène « vert » lancées en France

Genvia, la nouvelle société commune de Schlumberger New Energy, CEA, Vicat, Vinci et la Région Occitanie, via son Agence régionale énergie-climat (Arec, qui a pris 6,5 % de Genvia, soit 3,5 M€), a commencé à s’installer dans les locaux de l’usine Cameron, à Béziers (appartenant à Schlumberger) dans l’Hérault, pour produire ses électrolyseurs. Les premiers équipements pourraient être produits dès juillet prochain. « Start-up » issue du CEA (Commissariat à l’énergie atomique et aux énergies alternatives), l’industriel, Genvia fait appel à une technologie de rupture de l’électrolyse du CEA.

Florence Lambert (ex-responsable du CEA-Liten), la directrice générale de Genvia, a rappelé lors de l’inauguration du site en avril que plus de 40 brevets ont été déposés autour de la technologie qui va être mise en œuvre.

Genvia, l’électrolyse « réversible »

La technologie Genvia d’électrolyseur d’oxyde solide à haute performance, développée par le CEA, est entièrement réversible, ce qui lui donne la flexibilité de passer de l’électrolyse à la pile à combustible. La conception de la technologie Genvia permettra d’augmenter de 30 % le rendement de conversion de l’électricité par kilogramme d’hydrogène produit, ramenant le coût de production d’hydrogène propre à un niveau concurrentiel par rapport aux autres sources d’énergies, signalent les partenaires.

Tirant parti de l’expérience de Schlumberger en matière d’industrialisation de nouvelles technologies, la première ligne pilote de fabrication s’appuiera également sur un centre technologique copiloté avec le CEA et installé sur le site du CEA-Grenoble, afin d’accélérer l’exploitation de la maturation de la technologie par le processus d’industrialisation.

Genvia participera à une série de projets de démonstration avec des partenaires dans différents cas d’utilisation pour les secteurs de l’industrie, de l’énergie et de la mobilité. Ces projets de démonstration ouvriront la voie au développement de la chaîne de valeur complète, pour l’utilisation de l’hydrogène comme « vecteur d’énergie » décarbonée de choix. Les différents projets de démonstration devraient porter sur des systèmes de 300 kW en 2023 et des systèmes d’une capacité de plusieurs mégawatts dès 2024.

Sur le site biterrois, quelque 70 personnes travailleront afin de fabriquer les fameux « stacks » réversibles, à des coûts compétitifs. À partir de juillet prochain, les équipements de l’usine comprendront une zone où s’opéreront les opérations de « coulage en bande et de découpe laser », « de fabrication des interconnecteurs », puis « de fabrication des sous-ensembles unitaires ». Une seconde zone accueillera les assemblages de stacks et leur conditionnement, enfin les tests pour assurer leur l’activation.

McPhy, leader de l’électrolyse alcaline sous pression

McPhy propose déjà une gamme d’électrolyseurs parmi les plus étendus du marché, de 3 kW à 100 MW, voire plus. La série « Augmented McLyzer » a une capacité de production doublée par rapport aux standards du marché, grâce à la combinaison unique de l’électrolyse haute pression de McPhy (30 bar) et d’électrodes avancées à haute densité de courant, précise le fabricant. Ces unités (4 MW) sont modulables afin de réaliser des unités de 20, 100 MW et plus. Jusqu’alors McPhy possède une usine en Italie capable de « sortir » quelque 300 MW par an d’électrolyseurs. Mais le site de Belfort, ancré au cœur de l’écosystème hydrogène européen et de la Vallée de l’Energie, donnera un coup de boost à cette production.

La décision finale devrait être prise d’ici à la fin de l’année, après la finalisation des études préliminaires, l’obtention des autorisations administratives, et sous réserve notamment de l’obtention des financements nécessaires, dont ceux sollicités dans le cadre du processus IPCEI.

L’IPCEI (« Important Projects of Common European Interest » ou PIIEC « Projets Importants d’Intérêt Européen Commun ») est en effet un système de financement qui permet de soutenir des projets jugés essentiels pour la compétitivité de l’Europe, autorisant les Etats membres à financer des initiatives au-delà des limites habituellement fixées par la réglementation européenne.

L’objectif est de débuter la production au cours du 1er semestre 2024 avec une montée en charge progressive jusqu’à atteindre une capacité de 1 GW par an.

La construction de cette nouvelle infrastructure industrielle représenterait un investissement de 30 à 40 millions d’euros et conduirait à la création, à pleine charge, de plus de 500 emplois chez McPhy, dont environ 400 en France, et une centaine en Allemagne et Italie. S’y ajouteraient plusieurs centaines d’emplois indirects en France et en Europe, indique le groupe.

Pascal Mauberger, président de McPhy, a déclaré, dans un communiqué publié lors de l’annonce de la présélection de Belfort : « Nous sommes très heureux d’annoncer la présélection de Belfort, grande métropole industrielle française et européenne, pour entamer aujourd’hui le chemin de la construction d’une gigafactory d’électrolyseurs alcalins. Cette future usine aura vocation à jouer un rôle majeur dans le passage à l’échelle industrielle de l’électrolyse, condition indispensable pour que l’hydrogène vert atteigne les objectifs de décarbonation fixés par le gouvernement français et les autorités européennes. Nous remercions tous les acteurs et partenaires qui nous accompagnent dans cette grande ambition, ainsi que les équipes McPhy. »

Regards de dirigeants #11 : Marwan Lahoud, ACE Capital Partners

Le fonds d’investissement ACE, qui possède à l’heure actuelle plus d’un milliard d’euros d’actifs sous gestion, a vu sa stratégie d’investissement mise à l’épreuve depuis le début de la crise sanitaire.

Marwan Lahoud, directeur général délégué d’Airbus chargé de la stratégie jusqu’en 2017, est aujourd’hui président exécutif – depuis le mois de janvier 2020 – de ACE Capital Partners. Il a expliqué à Techniques de l’Ingénieur comment la crise sanitaire et in fine économique qui a commencé il y a aujourd’hui plus d’un an, oblige à repenser les stratégies d’investissement sur les filières industrielles, en particulier en ce qui concerne le secteur aéronautique.

Techniques de l’Ingénieur : ACE Capital Partners a aujourd’hui dans son portefeuille des acteurs de la filière aéronautique et de la cybersécurité. Quelles sont les raisons de ces choix ?

Marwan Lahoud : ACE gère en effet un fonds pour l’aéronautique et un autre fonds pour la cybersécurité. Le fil conducteur de ces investissements est la volonté d’investir dans les secteurs d’activités où la technologie est capitale. Cette volonté d’investir sur des technologies à fort potentiel est le fil conducteur de notre stratégie.

Quel regard portez-vous sur la crise actuelle de l’ensemble du secteur aérien ?

Ce qui est certain, c’est que les gens vont continuer à voyager : la question de la survie du secteur ne se pose pas. Par contre, il y a une interrogation réelle, qui est de savoir quand la reprise du trafic va démarrer. A partir de là, il devient fondamental de réfléchir à la gestion de la supply chain, pour être opérationnel dès lors que le trafic reprendra.

Selon les prévisions, le voyage moyen courrier va retrouver son niveau d’avant Covid vers la fin 2023. Pour les voyages longs courriers, les choses vont reprendre, mais pas au niveau de ce que l’on a connu avant la crise sanitaire. Sur ce point, il va falloir réfléchir à des options pour s’adapter et repenser ce type de courrier.

Il faut aider l’ensemble de la supply chain à se restructurer pour repartir. Surtout, il ne faut pas lâcher la consolidation du secteur, pour être plus fort lors de la prochaine crise.
Une partie de mon travail, quand j’étais chez Airbus, a été d’établir des scénarios de crise. Ces scénarios mettent la plupart du temps en scène des crises localisées. Cela peut être un attentat, une guerre, une crise économique ou sanitaire touchant un continent… Parfois nous croisions deux de ces paramètres, mais jamais nous n’avons imaginé qu’une crise pourrait toucher la planète entière. C’est donc une situation totalement inédite à laquelle nous faisons face.

Comment s’adapter à cette situation ?

Dans le portefeuille d’ACE, nous avons une entreprise qui fait du traitement de surface. Le patron de cette entreprise a pris la décision, lors du premier confinement, de réorienter trois de ses lignes de production pour produire des lingettes, du gel hydroalcoolique… Cette décision lui a permis de sauver son année. Cet exemple montre que la situation que nous connaissons actuellement oblige les acteurs du secteur aéronautique à s’adapter, pour se créer de nouvelles opportunités de business et pour exister dans une filière qui va évoluer dans les années qui viennent. Pour cette entreprise, réorienter sa production était facile. Si nous avions pu anticiper plus en amont la baisse drastique qui allait toucher le secteur aéronautique, nous aurions probablement pu agir différemment et trouver des solutions pour continuer à produire. C’est une des leçons qu’il faut tirer de cette crise : la nécessité de consolider les activités, et de ne pas rester avec un grand nombre d’acteurs qui évoluent chacun de leur côté, de manière morcelée.

Parlez-nous de la stratégie d’ACE dans ce contexte économique particulier…

Je pars du principe que le succès industriel amène le succès financier. Il peut y avoir des succès financiers sans réel succès industriel, ce que l’on appelle des bulles, mais ce n’est pas notre stratégie. L’équipe d’investissement que j’ai le plaisir de diriger a donc plus pour ambition de dénicher les plateformes, les petites et les grandes entreprises autour et grâce auxquelles nous pouvons construire pour investir et élargir notre portefeuille.

Une autre approche consiste à miser sur des pépites leaders dans leur domaine. C’est ce que nous avons fait avec l’entreprise ARIES en fin d’année dernière. ARIES est une entreprise qui développe des technologies de pointe pour l’aéronautique. Nous pensons qu’en l’aidant à surmonter la crise actuelle, elle pourra retrouver rapidement un niveau de compétitivité important.

Ces deux approches, complémentaires, forment le socle de notre stratégie et correspondent à deux types d’investissements : des investissements support et des investissements plateforme. Les investissements type support se font à travers la France, et les investissements type plateforme se font essentiellement en Europe de l’Ouest. Il y a donc également une logique géographique.

Malgré le ralentissement du trafic aérien, le secteur continue de produire. Pour autant, on imagine que beaucoup d’acteurs vont faire face à des situations très compliquées, qu’en pensez-vous ?

Nous partons de l’idée que la montée en cadence dans l’aéronautique est réelle, même aujourd’hui. Nous étions à 55 Airbus construits par mois à la fin de l’année 2019, nous sommes déjà aujourd’hui revenus à 40. Après, nous savons tous qu’à ce niveau-là, tout dépend bien sûr de la volonté des acheteurs. ACE a des atouts sur ce sujet, puisque nous connaissons très bien les donneurs d’ordre que sont Safran ou Airbus pour ne citer qu’eux.

Après, pour répondre à votre question, les entreprises du secteur qui parviennent à suivre ces cadences seront beaucoup plus à même de consolider leur position dans le secteur aéronautique.

Comment est à ce jour constitué le portefeuille d’ACE ?

Nous avons à ce jour en portefeuille 27 participations, dans les domaines de l’aéronautique et de la cybersécurité. Nous avons longtemps eu une stratégie d’actionnariat minoritaire, qui évolue depuis quelque temps. Nous avons ainsi décidé de ne pas avoir de stratégie unique dans nos investissements avec une typologie d’entreprise sur laquelle investir, un secteur précis, avec uniquement des investissements minoritaires… Le choix que nous avons fait est celui de l’industrie et de la technologie. C’est ce qui guide notre stratégie. La structuration de nos investissements va ainsi obéir à un contexte industriel, plus qu’à une stratégie arrêtée.

C’est ainsi que pour une entreprise comme Mecachrome, nous sommes passés d’un actionnariat minoritaire à un actionnariat majoritaire.

Aujourd’hui les investisseurs sont obligés, j’en suis convaincu, d’être également des technophiles avertis, pour investir dans un secteur industriel, quel qu’il soit.

On parle beaucoup depuis un an de relocalisation des productions en France, de la nécessité pour les entreprises de devenir plus agiles… Ces tendances influencent-elles votre stratégie ?

On peut avoir une vision. Après il faut surtout être opportuniste. Une entreprise comme Airbus, par exemple, demande de plus en plus à ses sous-traitants de se diversifier le plus largement possible. Pour être plus agile justement.

En ce qui concerne la volonté de rezoner certaines productions en France, ce n’est pas forcément ce que l’on observe sur le terrain. C’est même plutôt l’inverse, les acteurs industriels ont compris qu’il fallait gérer la chaîne logistique dans son ensemble. Cela ne peut se faire qu’à un niveau mondial.

Aussi, il faut rester pragmatique et lucide. Par exemple, dans le secteur aérien, relocaliser en France l’assemblage complet des avions n’est pas forcément une stratégie gagnante économiquement, quand on sait que l’assemblage d’un avion de ligne ne représente que 7% de la valeur de sa production.

Aujourd’hui Ace Capital Partners est toujours en déploiement à la suite des investissements déjà réalisés. Quelle est la prochaine étape ?

D’ici la fin de l’année, nous aurons investi environ un milliards d’euros. Nous allons continuer à prospecter, nous avons à l’heure actuelle une trentaine d’entreprises que nous avons identifiées et que nous suivons.

Les annonces du secteur aéronautique sur l’avion électrique, la propulsion hydrogène, promettent une révolution du secteur dans les décennies à venir. Quelle solution technique vous paraît la plus prometteuse ?

J’ai trop d’expérience dans ce secteur pour penser qu’une solution unique va révolutionner l’aéronautique. Selon moi, nous sommes aujourd’hui aux limites de ce que l’on sait faire avec les technologies actuelles, avec les formules d’avions que nous connaissons. Il faut donc développer de nouveaux avions, changer de formule.

Notre mission aujourd’hui est de réfléchir à développer un avion d’ici 2035, avec une ambition : le zéro carbone. C’est un immense défi pour les jeunes générations d’ingénieurs, avec trois axes de travail identifiés : la décarbonation, l’autonomie, et les processus de développement et de fabrication.

Sur ce dernier point, les leviers sont immenses, que ce soit au niveau des datas, de l’intégration des données, de leur traitement… il faut absolument continuer à innover sur ce terrain-là.

Propos recueillis par Yves Valentin, directeur des éditions Techniques de l’ingénieur, et Pierre Thouverez, journaliste.

L’usage du plomb dans les alliages métalliques dans le viseur de l’Europe

Présent en faible proportion dans des matériaux à usinabilité améliorée tels que les aciers, les aluminiums et les laitons, le plomb est dans le viseur de la Commission européenne. Deux directives doivent évoluer prochainement pour encore davantage encadrer son usage en tant qu’élément d’alliages métalliques. La première, nommée Reach (Registration, Evaluation and Authorisation of Chemicals), est un règlement qui vise à mieux protéger la santé humaine et l’environnement contre les risques liés aux substances chimiques. La seconde, nommée RoHS (Restriction of hazardous substances in electrical and electronic equipment), tente de limiter la présence de substances dangereuses dans les équipements électriques.

Depuis une vingtaine d’années, le plomb bénéficie d’une exemption d’utilisation et est toléré à raison de 3 % dans les laitons et 0,35 % dans les aciers. Il joue un rôle essentiel en facilitant l’usinabilité des matériaux, c’est-à-dire leur capacité à être mis en forme à l’aide d’un outil coupant. Les industriels et les représentants de la profession (syndicats) sont inquiets car cette tolérance doit prendre fin en juillet 2021. L’Europe va-t-elle interdire totalement le plomb ou restreindre encore plus son usage ? Sous quel délai ?

Aucune solution universelle pour remplacer le plomb

« Le plomb apporte un meilleur fractionnement des copeaux lors de la coupe et permet d’éviter la formation de copeaux longs qui occasionnent des arrêts machines », explique Stéphane Maniglier, ingénieur études et prestations au CETIM (Centre technique des industries mécaniques). Il offre aussi un point de fusion beaucoup plus bas lors du contact entre l’outil coupant et la matière, en créant un film à la surface du matériau, ce qui entraîne une diminution des pressions de coupe et une moindre usure de l’outil coupant. »

Depuis plusieurs années, les fabricants de matières concentrent leurs efforts à la recherche d’une structuration de la matière, d’un substitut au plomb ou de nouvelles formulations pour optimiser l’usinabilité de ces matières « sans plomb ». Sauf qu’ils se heurtent à une quasi-impossibilité à trouver une solution universelle pouvant s’adapter aux différentes familles de matériaux. Chaque situation doit être traitée au cas par cas en prenant en compte de multiples paramètres, car il n’y a pas uniquement l’aspect de l’usinage de la matière à considérer. Il faut aussi veiller au comportement final des matériaux, c’est-à-dire leurs caractéristiques mécaniques, leur résistance à la fatigue, à la corrosion… Tout comme l’aspect recyclage des copeaux ainsi que le type de machines utilisées lors de l’usinage.

« Le choix d’une matière de remplacement au plomb doit prendre en compte tous ces aspects et intégrer également une vision prospective sur les éventuels substituts au plomb qui pourraient être utilisés », analyse l’expert du CETIM. Par exemple, le bismuth, intégré à raison de 0,10 à 0,15 % dans un acier, offre une amélioration de l’usinabilité quasi équivalente à celle du plomb, mais des dégradations importantes du matériau sont constatées lors du travail à chaud avec notamment la formation de fissures. Et quid de sa production mondiale en cas d’utilisation massive par les industriels ? Et de l’envolée du cours de cette matière ? Quant au sulfure de manganèse, il fait partie des substituts potentiels mais pose des problèmes de soudabilité et de corrosion. L’association du tellure avec le sélénium offre des résultats intéressants, par contre son prix est élevé et elle n’est pas sans risque toxique. Le silicium donne de très bons résultats en termes d’usinabilité mais peut augmenter l’usure des outils.

Le coût de production pourrait augmenter de 77 %

Selon une étude suédoise, l’interdiction du plomb dans les éléments d’alliage risque de faire augmenter jusqu’à 77 % le coût de production des pièces en laiton. « Les opérations d’usinage vont user plus prématurément les outils coupants, déclare Stéphane Maniglier. Les problématiques de copeaux longs vont générer des arrêts machines beaucoup plus fréquents, car ils risquent de s’enchevêtrer dans les machines. »

Le recyclage est aussi à prendre en compte. En utilisant des matières avec des additifs différents en remplacement du plomb, les industriels seront obligés de créer plusieurs circuits et équipements internes de récupération des différents copeaux. Ils ne pourront en effet pas mélanger les copeaux issus de matières intégrant certains additifs aux autres matières.

Face à l’état actuel de la recherche, il semble qu’à court terme, la solution face à l’interdiction du plomb consistera davantage à adapter les outils de production (machines, outillages, procédés) qu’à développer un élément d’alliage de substitution au plomb.

Un mois dans l’espace #17

Comment voir l’ISS dans le ciel ?

Le mois dernier, nous vous indiquions comment suivre sur le net les pérégrinations de Thomas Pesquet et du reste de l’équipe de la mission Alpha à bord de la station spatiale internationale.

L’astronaute français effectuera deux sorties extravéhiculaires les 16 et 20 juin prochains, en compagnie de Shane Kimbrough.

Il est possible d’observer l’ISS, sans passer par votre téléphone ou votre ordinateur. En effet, la station spatiale internationale peut s’observer à l’oeil nu, à condition d ‘être ponctuel. 

Concrètement, la station est visible autour des heures de lever et de coucher du soleil, car il s’agit du moment où l’ISS reflètera les rayons du soleil, à plus de 400 kilomètres d’altitude.

L’ISS est alors visible sous forme de point lumineux, traversant le ciel très rapidement, plus vite que les avions que vous pourrez voir dans le ciel à cet instant.

Si vous ratez un passage, pas de panique. L’ISS fait le tour de la terre 16 fois par jour, d’Ouest en Est. 

Pour l’observation au coucher du soleil, il vous faudra regarder du côté Ouest de l’horizon. L’ISS passe alors du jour à la nuit. Au lever du soleil, c’est l’inverse. La station passe de la nuit au jour, et est visible toujours du côté Ouest de l’horizon.

Si vous voulez tenter d’apercevoir l’ISS, cet article vous donnera tous les éléments pour prévoir avec précision l’endroit et le moment auxquels l’ISS sera visible, en fonction de votre position géographique. La vidéo ci-dessous, diffusée sur France Télévision en 2017, peut aussi vous donner une idée de ce que vous risquez de voir dans le ciel. Beaucoup d’applications gratuites vous permettent également de savoir à toute heure où se trouve l’ISS.

Nouveau vol habité couronné de succès pour Virgin Galactic

Il n’y a pas que SpaceX. S’il est vrai que les décollages des fusées imaginées par Elon Musk font le buzz régulièrement, beaucoup d’autres firmes, américaines mais pas que, tracent leurs routes autour de projets consistant, d’une manière ou d’une autre, à mettre au point des vols habités dans l’espace proche. Pour y développer une activité touristique, notamment.

Virgin Galactic, l’entreprise fondée par la milliardaire américain Richard Branson, multiplie les essais en proche atmosphère depuis quelques années. Le 22 mai dernier, un nouveau vol d’essai s’est parfaitement déroulé. L’avion suborbital de Virgin Galactic, VSS Unity, avec à son bord deux pilotes, a atteint une altitude de près de 90 kilomètres, avant de redescendre, en planant, et de se poser tranquillement, comme vous pouvez le constater sur cette vidéo :

La station spatiale chinoise prend forme

Alors que tous les yeux sont rivés sur l’ISS depuis quelques semaines, le programme spatial chinois suit son cours, inexorablement. Le 30 mai, c’est un nouveau module, Tianzhou 2, qui s’est amarré au module de base de la station, Tianhe, qui est déjà en orbite :

Une dizaine de missions supplémentaires seront nécessaires pour que la station spatiale chinoise soit en ordre de marche. D’ici là, des vols habités seront mis en place pour aménager la station et la rendre opérationnelle (voir vidéo ci-dessous). Avec la perspective de voir la station spatiale internationale prendre une retraite bien méritée (vers 2028), la station spatiale chinoise devrait devenir dans les prochaines années le poste humain le plus éloigné de la terre. En attendant la mise en place de bases lunaires ?

Par Pierre Thouverez

Le meilleur de la tech #7

Un zeste de bois transparent

En 2016, un matériau structurel prometteur pour la construction fait son apparition : le bois transparent. En plus d’emmagasiner l’énergie thermique, il laisse passer la lumière naturelle. Malheureusement, les monomères biosourcés capables de combiner une haute performance à des processus avantageux sont rares… Les chercheurs du KTH Royal Institute of Technology sont pourtant parvenus à obtenir un biocomposite de bois transparent totalement biosourcé ! Leur polymère, décrit le 2 mai 2021 dans Advanced Science, résulte de la synthèse verte d’un nouveau monomère d’acrylate de limonine – issu d’agrume renouvelable, comme le rebut de zeste de l’industrie du jus d’orange. Sans même employer de solvant, ledit monomère est imprégné puis polymérisé dans un substrat de bois succinylé dont la lignine a au préalable été retirée. Cette dernière assure sa consistance au bois… et absorbe la lumière. Le biocomposite final est donc optiquement transparent. En effet, sa transmission optique atteint 90 % sur 1,2 millimètre d’épaisseur, tandis que son trouble est très léger : 30 %. Sans oublier son élasticité de 17 Gpa, qui laisse entrevoir de hautes performances mécaniques.

Vers la fin des fuites d’eau ?

L’accès à l’eau durable est un défi perpétuel, qui requiert une détection rapide et précise des fuites de canalisations. Or, les piézoélectriques actuels dépendent d’éléments lourds toxiques. Une alternative réside dans leurs penchants biomoléculaires, qui ont l’avantage d’être non toxiques et renouvelables tout en restant abordables. Ainsi, une collaboration irlandaise entre la University of Limerick et la University College Dublin a présenté le 11 mai 2021 dans Cell Reports Physical Science un intrigant appareil polycristallin. Ce capteur, composé d’aminoacides cristallisés, est capable de détecter des fuites de seulement 2 millimètres en temps réel ! La vibration due à une possible fuite entraîne une réponse des cristaux qui, par effet piézoélectrique, génèrent de l’électricité. Le lien entre vibration et voltage permet au capteur d’identifier avec précision l’état de dégradation d’une canalisation. Avantage supplémentaire sur les accéléromètres habituels, ce nouveau capteur est flexible. Il peut donc adhérer correctement à la section à surveiller, contrairement à ses prédécesseurs rigides.

Un aérogel dans le freezer

Les aérogels sont des matériaux semblables à de la mousse, aux particularités singulières. Leur densité par exemple peut être abaissée jusqu’à une valeur de 2 kg/m³, contre 1,23 kg/m³ dans le cas de l’air ! La procédure standard de fabrication consiste à disperser dans de l’eau des nanofibrilles de cellulose – ou cellulose de plante – avant d’assécher le milieu. Mais cette méthode, équivalente à la lyophilisation, est gourmande aussi bien en temps qu’en énergie. Pour y remédier, des chercheurs du KTH Royal Institute of Technology et de la Lund University ont mis au point une nouvelle approche à faible coût, efficace et durable, avancée le 19 mai 2021 dans Materials Today. Ils ajoutent ainsi dans l’eau de l’alginate – un polymère issu des algues – puis du carbonate de calcium. Le tout est ensuite placé au freezer. Là, l’eau va se changer en glace, compressant par la même occasion les divers composants du mélange. Résultat : un hydrogel gelé. Ce dernier est alors déposé dans de l’acétone, qui va avoir pour effet de retirer l’eau et le carbonate de calcium du matériau. Cet aérogel possède alors une surface de 810 m²/g, soit neuf fois supérieure aux aérogels standards (90 m²/g). Associée à une densité très faible, cette grande surface est idéale pour des applications visant les hôpitaux et les cliniques, que ce soit pour de nouveaux pansements comme pour l’administration programmée de médicaments.

La fin des CAPTCHA grâce aux clés dédiées à la double authentification ?

Qui n’a jamais pesté contre un site dont le CAPTCHA nous oblige à cliquer plusieurs fois sur les « bonnes » images sous prétexte qu’on aurait mal interprété sa requête ? Il faut reconnaître que cela tourne parfois au casse-tête lorsqu’il faut identifier tous les éléments concernant des feux de signalisation ou des passages piétons. Résultat, nous perdons quelques précieuses secondes à passer cette épreuve.

Selon Cloudflare, un fournisseur de Content Delivery Network (un maillon essentiel de l’internet puisque cette mise en réseau d’ordinateurs permet de réduire les temps d’accès à des sites), « 500 années humaines sont gaspillées chaque jour, juste pour que nous prouvions notre humanité ». Pour trouver ce chiffre impressionnant, Cloudflare s’appuie sur la base de calcul suivante : 32 secondes en moyenne pour compléter un CAPTCHA, un test effectué tous les 10 jours et 4,6 milliards d’internautes dans le monde.

Contourné à 99 % par des robots-logiciels…

Mais pourquoi met-on autant de secondes à trouver les bonnes images ? Le fameux acronyme signifie « Completely Automated Public Turing test to tell Computers and Humans Apart » et c’est une marque commerciale déposée par l’université Carnegie-Mellon.

Apparue dans les années 90, cette méthode permet aux sites de se prémunir contre certaines cyberattaques, les spams ou encore la récupération de données. L’objectif est donc de différencier de façon automatisée l’intelligence humaine de celle d’une machine. Une version plus récente, appelée reCAPTCHA, a été développée pour compliquer la tâche des robots-logiciels. Ce système a été racheté en 2009 par Google. Indirectement, en cochant ces fameuses cases, nous aidons Google à améliorer gratuitement son IA.

Mais manifestement, ce dispositif n’est pas vraiment efficace. Les premiers CAPTCHA se présentaient sous la forme d’un texte modifié de manière à ce que les robots ne puissent pas le lire. Si, au départ, ils ont eu beaucoup de succès, les progrès rapides de l’informatique ont fait que les logiciels ont pu lire ce que disait le texte. Et ces derniers ont continué à progresser au point qu’en 2014, Google avait constaté que reCAPTCHA pouvait être contourné par les robots dans plus de 99 % des cas.

Des clés pour s’identifier

Sur son blog, Cloudflare indique qu’il faut « se débarrasser complètement des CAPTCHA » en les remplaçant par une autre méthode prouvant que nous sommes un être humain. Le fournisseur américain évoque l’idée d’une « Attestation cryptographique de personnalité ».

Elle pourrait être prise en charge par des clés dites de « double authentification » comme les clés YubiKeys, HyperFIDO et Thetis FIDO U2F, trois marques qui font partie de l’Alliance FIDO. Ces petites clés USB permettent de renforcer la confidentialité de ses identifiants puisqu’en plus de taper son login et son mot de passe, il est nécessaire d’appuyer sur leur petit bouton intégré pour valider son compte.

L’attestation cryptographique de personnalité s’appuie sur l’attestation d’authentification Web (WebAuthn). Il s’agit d’une API (application programming interface) qui a été validée par le World Wide Web Consortium, un organisme de standardisation à but non lucratif. Cette API est déjà mise en œuvre dans la plupart des navigateurs Web et des systèmes d’exploitation. Elle vise à fournir une interface standard pour authentifier les utilisateurs et utiliser la capacité de cryptographie de leurs appareils.

Selon Cloudflare, « trois clics au maximum sont nécessaires pour compléter une attestation cryptographique de personnalité ». De quoi facilement oublier les CAPTCHA qui nous redemandent de cliquer plusieurs fois sur les images montrant une colline…

Cette nouvelle méthode présenterait également un avantage majeur en termes d’accessibilité, car les personnes souffrant d’un handicap visuel ne sont pas toujours en mesure de répondre aux CAPTCHA sous leur forme actuelle.

Les Américains, les Russes et les Chinois brouillent régulièrement le GPS

Des avions déviant de leur trajectoire, entrant accidentellement dans l’espace aérien militaire, incapables de manœuvrer… De nombreux pilotes ont eu besoin d’être guidés par le contrôle du trafic aérien pour poursuivre leur vol. Heureusement, ces incidents n’ont pas entraîné de crashs.

Survenus principalement aux États-Unis, ils sont dus à des brouillages des signaux GPS. Il ne s’agirait pas de cas isolés selon un article publié récemment aux États-Unis. La FAA en a comptabilisé plusieurs centaines en 2017 et 2018. En un seul jour de mars 2018, 21 avions avaient signalé des problèmes de GPS aux contrôleurs aériens près de Los Angeles. Il s’agissait notamment d’un hélicoptère d’évacuation sanitaire, de plusieurs jets privés et d’une douzaine d’avions commerciaux.

Le responsable de ces perturbations serait l’Armée américaine qui multiplie les tests dans différents Etats (Michigan, Wisconsin, Dakota…). Selon un rapport de la RTCA (Radio Technical Commission for Aeronautics), une association à but non lucratif, le nombre de tests GPS militaires a presque triplé entre 2012 et 2017. Les rapports de sécurité de l’ASRS ont constaté 38 cas en 2019, soit près de dix fois plus qu’en 2018…

L’armée américaine brouille les signaux GPS pour développer ses propres défenses contre le… brouillage du GPS. La capacité à brouiller le GPS devenant chaque jour plus facile et moins chère, les militaires veulent développer des systèmes qui permettraient aux avions, aux drones et aux missiles de ne pas voir leur système de navigation perturbé.

Brouillage de drones et de missiles

Les Américains ne sont pas les seuls à tester différentes techniques d’attaques électroniques et notamment la capacité à leurrer un récepteur de navigation avec de mauvaises informations. Une étude du Center for Advanced Defense Studies (C4ADS), un centre d’analyse américain, avait recensé presque 10 000 cas d’usurpation (un appareil, utilisant une fréquence proche, « remplace » le satellite GPS) de la part des Russes, entre 2016 et 2018.

Pour la Russie, la guerre électronique fait partie de l’arsenal permettant de déstabiliser l’adversaire. Durant l’invasion de l’Irak en 2003, les Russes avaient réussi à perturber le système de navigation des missiles de croisière américains.

En Chine, de mystérieuses attaques ont perturbé le GPS de navires alors que les bateaux utilisant BeiDou (système de positionnement par satellites d’origine chinoise) n’auraient pas été affectés. En 2019, la base russe de Hmeimim, en Syrie, avait été accusée d’être indirectement à l’origine de la perte des signaux GPS constatée en Israël, ce qui affectait la circulation aérienne.

Enfin deux récents rapports de l’Organisation pour la sécurité et la coopération en Europe (OSCE) relèvent une augmentation du brouillage GPS, vraisemblablement par les forces russes ou pro-russes en Ukraine. « Au cours des deux derniers mois, 62,5 % des vols de drones à longue portée menés par la Mission spéciale d’observation en Ukraine (créée par l’OSCE, NDLR) ont rencontré des interférences avec le signal GPS », apprend-on dans le premier rapport.

Dans le second, publié le 9 avril, on apprend que de nombreuses missions d’observation ont dû être annulées à cause de brouillage du GPS.

RGPD : un bilan mitigé

Malgré la pandémie mondiale, l’application du RGPD s’est en effet poursuivie à un rythme soutenu. Selon le site GDPR Enforcement Tracker, plus de 220 décisions d’application ont été prises jusqu’à présent.

Dans l’ensemble, les APD ont infligé un total de 280 millions d’euros d’amendes. Et la CNIL a parfois eu la main lourde. « Selon mes calculs, la France a prononcé 138 577 300 € d’amende en 2020, le tout réparti sur seulement 8 sociétés, détaille maître Julien Le Clainche, avocat au barreau de Montpellier et spécialiste en Droit de l’informatique et des télécommunications. Le 7 décembre 2020, elle a sanctionné Google de 100 millions d’euros d’amende (60 M pour Google LLC et 40 M pour Google Ireland à cause de cookies). Le même mois, Amazon a écopé de 35 millions d’euros d’amende, toujours à propos des cookies. Il y a également eu Spartoo (500 000 €), Carrefour France (2 250 000 €) et Carrefour banque (800 000 €) ».

En France, de nombreuses entreprises ont mis en place des mesures pour être en conformité avec le RGPD. « Le côté positif est la prise de conscience auprès d’un grand nombre de chefs d’entreprise de la nécessité de renforcer la protection des données personnelles, mais également de celles considérées comme stratégiques. Le RGPD a favorisé l’application des bonnes pratiques en matière de cybersécurité. En revanche, cela coûte très cher aux organisations et il est difficile d’être en complète conformité avec les 99 articles du RGPD et les 128 articles de la loi 78-17 dite “informatique et Libertés”, car il y a de nombreuses zones grises et de points à interpréter », constate maître Julien Le Clainche.

Lutte contre le terrorisme

Pour maître Jérôme Boisseau, « les entreprises s’en tirent très bien, car les citoyens européens n’exploitent pas encore correctement leurs droits, nouveaux ou renforcés par le RGPD qui est un texte extrêmement riche et précis.Mais il n’est en vigueur que depuis peu de temps quand on sait qu’un contentieux, avant un appel, dure deux ans et que ce texte européen a, étrangement, fait l’objet de mesures de transposition [alors qu’il s’agit d’un règlement de l’Union avec effet direct], dont le dernier acte a été adopté il y a deux ans seulement [il s’agit du décret n° 019-536, publié le 30 mai 2019, applicable aux fichiers de la sphère pénale] ».

Pour cet avocat au barreau de Paris et spécialisé en droit des affaires et de la concurrence, le côté positif est « l’instauration d’une coresponsabilité entre l’entreprise (considérée comme la responsable du traitement des données personnelles) et ses partenaires qui doivent eux aussi mettre en place des mesures de sécurité informatique ».

Et de préciser un élément essentiel : « Les droits des citoyens se trouvent indirectement renforcés en raison des effets normatifs du RGPD sur les pouvoirs publics : si l’actuelle discussion au Parlement du projet de loi relatif à la prévention d’actes de terrorisme et au renseignement est si complexe (le Gouvernement vient d’engager ce 12 mai 2021 la procédure accélérée sur ce texte et d’adresser aux parlementaires, de manière inédite, une lettre rectificative), c’est en partie parce que les pouvoirs publics doivent se conformer à l’interdiction posée par la Cour de justice de l’Union (dans un arrêt du 6 octobre 2020) et appliquée par le Conseil d’État, dans sa décision French data Network du 21 avril 2021 d’imposer aux fournisseurs d’accès à des services de communication au public en ligne et aux fournisseurs de services d’hébergement des règles généralisées et indifférenciées de conservation des données à caractère personnel, y compris dans l’effort de lutte contre le terrorisme ».

Beaucoup de plaintes et peu de sanctions

Mais de nombreux spécialistes notent également que peu de plaintes donnent lieu à des sanctions. Un constat dû en partie à l’évolution de la philosophie concernant la protection des citoyens et de leur vie privée. « Avant l’entrée en application du RGPD en mai 2018, la CNIL pouvait ou non autoriser des traitements grâce à des pouvoirs de contrôle a priori. Avec le RGPD, nous sommes passés d’un contrôle a priori à un contrôle a posteriori et de la réglementation à l’autorégulation. En contrepartie, le montant des sanctions pécuniaires peut s’élever jusqu’à 20 millions d’euros ou, dans le cas d’une entreprise, jusqu’à 4 % du chiffre d’affaires annuel mondial. Par exemple, toutes les entreprises peuvent mettre en œuvre des traitements de données sensibles sans avoir obtenu l’aval de la CNIL », explique maître Julien Le Clainche.

Selon son dernier rapport pour 2020, la CNIL indique avoir « reçu 13 585 plaintes soit 62,5 % d’augmentation depuis la mise en œuvre du RGPD. Ce chiffre, toujours élevé et constant par rapport à 2019, confirme une prise de conscience conséquente des Français vis-à-vis de leurs droits. Parmi ces plaintes, 4 528 ont été suivies d’une réponse rapide et 9 057 ont nécessité une étude plus approfondie ». Mais la formation restreinte de la CNIL n’a prononcé que 14 sanctions, dont 11 amendes.

« En consultant les précédents rapports de la CNIL, j’ai constaté qu’en 2010, il y avait eu 4 821 plaintes, 308 contrôles, 111 mises en demeure, 3 avertissements et 5 sanctions financières. En 2012, il y avait eu 6 017 plaintes, 458 contrôles, 43 mises en demeure, 9 avertissements et 4 sanctions financières. En 2017, pour 8 360 plaintes, il y avait eu 9 sanctions, dont 6 publiques. Je trouve surprenant de constater une augmentation constante des plaintes mais une baisse constante des contrôles depuis 2018. Les mises en demeure restent stables depuis 2018 (environ 40) mais nous sommes loin des 93 de 2015. Enfin, je ne vois pas de corrélation évidente entre le nombre de contrôles et le nombre de sanctions. En revanche, il est incontestable que le montant des sanctions est considérable depuis le RGPD », constate maître Julien Le Clainche.

Même constat pour la Data Protection Commissionner (DPC) en Irlande, pays où se trouvent les sièges de plus de 1 000 entreprises étrangères dont huit multinationales informatiques sur dix (comme Apple, IBM, Siemens et Microsoft).  L’équivalent de la CNIL française indique « avoir reçu pas moins de 10 000 plaintes en 2020 ». Cependant, elle n’a rendu que deux décisions l’an passé et espère en rendre « entre 6 et 7 » cette année. Les plaintes concernent pourtant de gros poissons : Google, Facebook, Microsoft, PayPal, Apple, eBay.

Le peu d’empressement des CNIL française et irlandaise à traiter les plaintes est également souligné par la Quadrature du net. Sur son site, cette association indique qu’elle a déposé « avec 12 000 personnes cinq plaintes devant la CNIL, une contre chacun des GAFAM. Trois ans plus tard, aucune de ces plaintes n’a donné le moindre résultat. Ce total échec résulte d’une multitude d’irrégularités qui, toutes ou presque, révèlent le rôle coupable de la CNIL pour protéger les GAFAM contre le droit ».

 

Les cinq plus grosses amendes, infligées l’an passé et jusqu’à présent, ont concerné :

  1. Google (100 millions d’euros en France) pour avoir déposé des cookies publicitaires sur les ordinateurs d’utilisateurs du moteur de recherche google.fr sans consentement préalable ni information satisfaisante.
  2. H&M (35 millions d’euros en Allemagne). Les violations du RGPD impliquaient la « surveillance de plusieurs centaines d’employés ». Selon le tribunal d’Hambourg, les cadres supérieurs de H&M ont acquis « une vaste connaissance de la vie privée de leurs employés… allant de détails plutôt anodins à des problèmes familiaux et des croyances religieuses ».
  3. TIM (27,8 millions d’euros en Italie) : l’opérateur de télécommunications italien TIM (ou Telecom Italia) a été condamné pour une série d’infractions (stratégie marketing trop agressive avec notamment des appels promotionnels et de communications non sollicitées) et de violations qui se sont accumulées au cours des dernières années.
  4. British Airways (22 millions d’euros au Royaume-Uni) pour une fuite de données qui avait concerné 400 000 clients.
  5. Marriott (20,4 millions d’euros au Royaume uni) pour des violations de données ayant rendu accessibles à des tiers de très nombreuses données personnelles.

La forêt amazonienne brésilienne rejette plus de carbone qu’elle n’en stocke

Il n’y a pas que la déforestation qui porte atteinte à la forêt. Les multiples dégradations lui sont aussi très préjudiciables : coupes sélectives, feux, dépérissement des arbres lié au climat, notamment des sécheresses répétées… C’est ce que révèle une étude publiée dans Nature Climate Change par des chercheurs de l’INRAE, du CEA et de l’Université d’Oklahoma. En observant sur dix ans (2010 à 2019) la forêt amazonienne brésilienne, ils concluent que la perte de sa biomasse végétale aérienne est davantage liée à la dégradation (73 %) qu’à la déforestation (27 %). Et qu’au final, elle rejette davantage de carbone qu’elle n’en stocke sur cette même période.

Si l’étendue de la déforestation peut facilement s’observer à partir d’images satellites, les multiples dégradations le sont beaucoup moins. « Aucun outil n’existe pour évaluer l’impact de ce phénomène, affirme Jean-Pierre Wigneron, directeur de recherche à l’INRAE. Les mesures optiques permettent seulement d’observer le dessus de la canopée, mais nullement de distinguer ce qui se passe en dessous. Or, beaucoup d’arbres peuvent rester en place malgré les multiples dégradations. Des mesures in situ sont parfois pratiquées, mais restent localisées et ne peuvent être réalisées à grande échelle ».

Calculer l’extinction des radiations micro-ondes

Face à cette difficulté, les chercheurs ont contourné le problème en utilisant l’indice de végétation appelé L-VOD (L-band vegetation optical depth) qui permet de sonder l’ensemble de la strate végétale et pas uniquement le sommet de la canopée. Issu des observations spatiales du satellite SMOS, cet indice mesure la quantité de biomasse de la forêt, en prenant en compte à la fois l’impact de la déforestation et la dégradation. Concrètement, il calcule l’extinction des radiations micro-ondes qui traversent la végétation, car lorsque ces radiations se propagent dans une forêt, elles sont atténuées. Le L-VOD calcule alors le facteur d’atténuation en utilisant la bande fréquence L et une longueur d’onde de l’ordre de 30 cm.

Pour évaluer la dégradation de la forêt, les scientifiques ont procédé par différence, c’est-à-dire qu’ils sont partis des résultats de l’indice L-VOS auxquels ils ont soustrait les données relatives à la déforestation. Pour calculer cette dernière, ils se sont appuyés sur une nouvelle technique de suivi développée par l’université d’Oklahoma. Cette dernière a mis au point une méthode d’évaluation de la déforestation plus précise à partir de données optiques, mais aussi radars en provenance de plusieurs satellites. La méthode présente également l’intérêt d’utiliser des données d’observations quasi journalières, ce qui permet de faire face aux difficultés de lecture des images en présence de nuages. « Les travaux de l’université d’Oklahoma ont démontré que la déforestation de la forêt brésilienne a été multipliée par quatre en 2019 comparé aux années 2017 et 2018, complète le chercheur. Cette très forte augmentation est probablement liée au relâchement de la politique environnementale de ce pays. »

Le climat joue un rôle important dans la dégradation de la forêt

En soustrayant cette déforestation à l’indice L-VOD, les chercheurs ont donc réussi à évaluer l’impact de la dégradation. Leur étude démontre que ce phénomène est la principale cause des pertes de carbone de la forêt amazonienne brésilienne. C’est en 2015, lors de l’épisode climatique El Niño, que cette perte a été la plus importante sur la dernière décennie. Cette année-là, il a notamment été observé une augmentation de la mortalité des arbres et des dégradations dues aux feux. L’étude met en lumière à quel point le climat a un impact important sur la forêt. Et au global, en prenant en compte à la fois la dégradation et la déforestation, les pertes de carbone de la forêt brésilienne sont supérieures aux gains d’environ 18 % entre 2010 et 2019.

Ce travail de recherche va se poursuivre sur d’autres régions du monde ; il est d’ailleurs déjà en cours en Australie pour observer l’impact des grands feux ainsi qu’en Sibérie. « Il est important d’essayer de comprendre à l’échelle de la planète, les zones où la forêt capte du carbone et celles où elle a plutôt tendance à en relâcher, analyse Jean-Pierre Wigneron. Alors qu’on comptait sur la forêt pour capter une partie du carbone, il ne faut peut-être plus compter elle. Il s’agit d’un cercle vicieux, car le changement climatique est en train d’affecter le fonctionnement des forêts qui n’arrivent plus à jouer leur rôle de capteur de CO2 et qui dans certains cas contribuent à accélérer le réchauffement du climat. »

Les thèses du mois : Ingénierie bioinspirée

Pour notre dossier de mai, « Les océans : une immense richesse pour le biomimétisme », voici les thèses sélectionnées par le REDOC SPI. Retrouvez le résumé de ces thèses ainsi que les thèses des mois précédents sur le site de notre partenaire.

Indexation bio-inspirée pour la recherche d’images par similarité
Dorian Michaud
Doctorat en Traitement du signal, informatique et application, 16-10-2018
XLIM (Limoges)

Vision par ordinateur évènementielle couleur : cadriciel, prototype et applications
Alexandre Marcireau
Doctorat en Ingénierie neuromorphique, 23-09-2019
Institut de la Vision

Innovation bio-inspirée : modélisation d’un processus interdisciplinaire de conception biomimétique outillé et intégration d’un nouvel acteur, le Biomiméticien
Eliot Graeff
Doctorat en Conception, 07-07-2020
Laboratoire Conception de Produits et Innovation

Formalization and Simulation of Bio-Inspired On-chip Dynamic Attractors for Low Power Computer Vision
08-01-2020
Unité d’Informatique et d’Ingénierie des Systèmes (ENSTA)

Réseaux de collecte de données pour les zones blanches étendues
Ichda Adamou
Doctorat en Réseaux, information et communications, 29-11-2019
Laboratoire des signaux et systèmes

Miniaturisation bioinspirée d’un convertisseur aéromécanique pour l’exploitation des faibles vitesses de vent
Aurélien Carre
Doctorat en Sciences Pour l’Ingénieur, 19-07-2019
Systèmes et matériaux pour la mécatronique (Annecy)

Motricité bio-inspirée d’un bras artificiel : vers l’intégration de coordinations motrices naturelles dans le contrôle d’une prothèse de membre supérieur
Sebastien Mick
Doctorat en Sciences cognitives et Ergonomie, 30/09/2020
Institut de Neurosciences cognitives et intégratives d’Aquitaine

Multiscale analysis of multi-layered tissues constructs: interfaces in the musculo-skeletal system based on tissue engineered osteotendinous junctions
Alejandro Garcia Garcia
Doctorat en Bio-ingénierie, Biomécanique, Biomatériaux, 11-06-2019
Unité de Recherche Biomécanique et Bio-ingénierie (UTC Compiègne)

Des cellules biomimétiques pour étudier les déformations de membrane induites par l’actine
Camille Simon
Doctorat Physique, 11-10-2019
Laboratoire Physico-Chimie Curie

Transport properties in biomimetic tissues
Manon Valet
Doctorat Biophysique, 06-09-2019
Laboratoire Jean Perrin

Nouveaux hydrogels à base de polysaccharide obtenus par voie biomimétique ou par photoréticulation.
Ahdi Hadrich
Doctorat Chimie, 28/06/2019
Polymères, Biopolymères, Surfaces

Les lauréates du concours Ingénieuses 2021

Le jury du concours Ingénieuses, dont fait partie Techniques de l’Ingénieur, s’est réuni pour délibérer et choisir les lauréates de l’édition 2021 du concours Ingénieuses.

Au total, neuf prix ont été décernés lors de la cérémonie :

  • l’ESIROI, école lauréate du prix de l’école la plus engagée – catégorie administration, pour son projet « Mois de la femme ingénieure (MFI) » ;
  • l’INSA Lyon, école lauréate du prix de l’école la plus engagée – catégorie association de l’école, pour son projet « Semaines thématiques de sensibilisation autour de nombreux thèmes » ;
  • l’ENSSAT, école lauréate du prix du projet le plus original, pour son projet « ADA LOVELACE » ;
  • l’ESIEA, école lauréate du prix spécial du jury, pour son projet « #SiJeVeuxTuPeux #IfIWantYouCan » ;
  • l’ENSTA Bretagne, école lauréate du prix Cap Ingénieuses, pour son projet « L Codent L Créent » ;
  • Alix DUTHOIT, lauréate du prix de l’élève-ingénieure France ;
  • Chaima LAKSYBY, lauréate du prix de l’élève-ingénieure Maghreb ;
  • Christelle OLALDE, lauréate du prix de la femme ingénieure ;
  • Florence GABORIT, lauréate du prix de la femme ingénieure junior.

Techniques de l’Ingénieur est fier d’avoir contribué à l’opération 2021 et vous donne rendez-vous en 2022 pour la prochaine édition de l’opération Ingénieuses.