StopCovid : les défis techniques de l’application de traçage des individus

Comme de nombreux pays, la France projette de déployer une application mobile de “contact tracing” permettant le traçage des personnes entrées “en contact” des malades atteints du Covid-19. “Par « contact tracing », on désigne la capacité à pouvoir informer une personne, à travers une application présente sur son smartphone, qu’elle a été au contact lors des jours précédents (typiquement de deux à trois semaines) de personnes qui ont été diagnostiquées positives au Covid-19, explique Bruno Sportisse, PDG d’Inria dans une longue déclaration sur le site de l’institut. Ce « cas contact » présente, de ce fait, un risque d’être porteur du virus et d’accélérer la diffusion de l’épidémie”. L’application génère régulièrement des pseudonymes (des codes aléatoires composés de chiffres et de lettres), qu’elle transmet via la technologie Bluetooth lorsque deux smartphones sont à proximité (quelques mètres). Son utilisation est basée sur le volontariat et l’anonymat des individus.

Pour permettre le développement d’une telle application, différents protocoles de communication – des procédures décrivant comme une application doit fonctionner – ont été mis au point par des spécialistes de la sécurité : PACT (par le MIT), DP-3T (par les écoles fédérales de Lausanne (EPFL) et Zurich (ETHZ)), Apple/Google et le dernier, publié la semaine dernière, ROBERT (d’Inria et AIESEC de Fraunhofer).

L’ensemble de ces propositions garantit la sécurité de la vie privée des utilisateurs. Dans ces propositions, les approches diffèrent sur la façon dont les pseudonymes sont gérés : décentralisé pour DP-3T, PACT et Apple/Google et centralisé pour ROBERT. Derrière ce dernier protocole, l’équipe-projet StopCovid qui vient, le 26 avril, de se structurer pour développer l’application française StopCovid. Celle-ci, menée par Inria, rassemble des acteurs multidisciplinaires français : ANSSI, Capgemini, Dassault Systèmes, Inserm, Lunabee Studio, Orange, Santé Publique France et Withings.

Deux approches : centralisée et décentralisée

Un groupe de chercheurs spécialisés dans la cryptographie (University of Canada, CNRS, Inria, EPFL) a réalisé une analyse de risque du traçage des individus des protocoles précédemment cités. Qu’il s’agisse de l’approche centralisée ou décentralisée, “ces deux modèles comportent des avantages et des inconvénients. Le modèle centralisé nécessite de faire confiance à une autorité centrale. […] Le modèle décentralisé ne pose a priori pas ce problème, mais ouvre la porte à certaines attaques”, explique le groupe.

En effet, “la vie privée des gens atteints du Covid-19 est un peu plus à risque car des attaques de dé-anonymisation sont possibles, ajoute Sonia Ben Mokhtar, directrice de recherche au Laboratoire d’informatique en image et systèmes d’informations (LIRIS) du CNRS. Lorsqu’une personne se déclare infectée, elle va diffuser des pseudos qu’elle a utilisés avec des informations temporelles à gros grain (par exemple, jour J dans la matinée). Des adversaires vont pouvoir potentiellement recouper l’information”. Par exemple, comme illustré par le groupe d’experts en cryptographie, plusieurs voisins qui ont reçu l’alerte vont pouvoir se dire que la personne infectée se trouve dans l’immeuble et non dans leur monde professionnel.

Dans le modèle centralisé de ROBERT, “le choix s’est porté sur une solution où un serveur central fait le matching des personnes à risque”. La personne qui est diagnostiquée Covid-19 va envoyer anonymement les pseudos qu’elle a rencontrés. Le serveur central va changer le statut de ces pseudos en les notant “à risque”. Un utilisateur de l’application, qui se demande s’il a croisé une personne qui a le Covid-19 peut questionner le serveur. “Bien sûr, ajoute Sonia Ben Mokhtar, il faut des garanties de sécurité sur le serveur en lui-même. Mais je fais entièrement confiance à l’équipe Privatics [Inria, NDLR] pour mettre en place les mécanismes nécessaires afin de sécuriser le serveur et garantir les propriétés nécessaires aux usagers.”

Du code en open-source

Le code des protocoles publié en open-source permet à des experts de regarder ce qui a été réalisé par les équipes de recherche. “L’open-source est indispensable, affirme Sonia Ben Mokhtar. Quand on dit que les données ne sont pas stockées, c’est vraiment le cas. Ou quand elles seront supprimées au bout de 14 jours, elles le seront. Une communauté scientifique est mobilisée sur la question, et propose des améliorations sur le site”. Et si une personne malveillante venait s’emparer du code ? “Si on s’en tient à l’application officielle, auditée par de nombreuses personnes, la fuite de données est assez faible, explique Gaëtan Le Guelvouit, responsable laboratoire confiance et sécurité chez B<>com. Par contre, il est possible de faire une copie de l’application et d’y ajouter des portes dérobées. Mais avec l’application officielle, le risque est assez faible.”

Google et Apple au centre ?

Pour permettre aux applications de fonctionner plus efficacement, Google et Apple ont annoncé leur partenariat afin de développer des interfaces de programmation (API) disponibles pour les développeurs. Le problème est que ces applications développées par le gouvernement ne peuvent fonctionner en tâche de fond et doivent obligatoirement rester actives et affichées à l’écran. Ce qui empêche son propriétaire de l’utiliser pour une autre tâche, et utilise beaucoup de batterie. Autre problème, La première version de la solution Apple/Google, qui est attendue pour le 28 avril, s’interfacera bien avec le protocole décentralisé DP-3T mais pas avec le centralisé ROBERT. Les négociations sont en cours.

La question de la dépendance à ces géants du numérique a été soulevée par le patron de Sigfox, Ludovic Le Moan, dans un entretien accordé aux Echos. Pour lui, quelle que soit l’application, elle passera forcément par Apple et Google. “On parle beaucoup des applis de tracing, mais je veux mettre en garde. Les Gafa savent déjà qui on est, ce qu’on fait et quel type de publicité ils peuvent nous pousser pour maximiser leurs revenus. Mettre, demain, dans leur système d’exploitation une technologie qui dévoile qui est avec qui à quel moment, c’est encore un pan de liberté qui va nous échapper et des données supplémentaires pour Apple et Google…”. Il prône un bracelet indépendant du téléphone, moins intrusif que le smartphone.

Quid de l’acceptabilité ?

Hormis le choix important du protocole de communication qui sera intégré dans l’application, une question importante reste en suspens… Qu’en sera-t-il des utilisateurs ? “Il y a de vrais enjeux sur l’acceptabilité de ces applications par nos sociétés, affirme Sonia Ben Mokhtar. Il faut expliquer aux gens quels sont les risques et quelles sont les garanties offertes en termes de sécurité et de préservation de la vie privée. De nombreux systèmes qui manipulent nos données personnelles (données de mobilité, données de santé) sont « centralisés ». Par exemple, les réseaux sociaux, les systèmes manipulant nos données bancaires, notre dossier médical partagé. Je ne comprends pas pourquoi la centralisation de ces données ne fait pas polémique alors que celle d’une application comme StopCovid (qui offre un certain nombre de garanties : anonymisation, encryption des données) créé autant de réticences”. Un collectif de scientifiques et de professionnels de santé affirme d’ailleurs, dans une tribune publiée dans Le Monde, que StopCovid serait un outil indispensable contre la diffusion du virus.

Pour le groupe d’experts en cryptologie, le rapport bénéfices-risques ne semble pour le moment pas pencher pour les applications : “A notre connaissance, l’estimation des bénéfices d’un éventuel traçage numérique est aujourd’hui encore très incertaine, alors même que les scénarios que nous avons développés ici [dans leur rapport, NDLR] sont, eux, connus et plausibles”.

La Cnil se prononce

Cependant, le 26 avril, la CNIL a donné son accord au développement de cette application, sous conditions. “La CNIL estime que l’application peut être déployée, conformément au RGPD, si son utilité pour la gestion de crise est suffisamment avérée et si certaines garanties sont apportées. En particulier, son utilisation doit être temporaire et les données doivent être conservées pendant une durée limitée. La CNIL recommande donc que l’impact du dispositif sur la situation sanitaire soit étudié et documenté de manière régulière, pour aider les pouvoirs publics à décider ou non de son maintien.”

Si l’adoption de ce dispositif est votée suite au débat du Parlement, prévu le 28 avril, la CNIL émet des recommandations sur l’architecture et la sécurisation de l’application : “L’ensemble de ces précautions et garanties est de nature à favoriser la confiance du public dans ce dispositif, qui constitue un facteur déterminant de sa réussite et de son utilité”. Le compte-à-rebours s’accélère, la décision devrait être prise dans les jours à venir…

Le dialogue de Petersberg sur le climat s’ouvre en conférence vidéo

Le 11e dialogue de Petersberg est le premier grand événement de diplomatie climatique en 2020. Il réunira en conférence vidéo les ministres de 35 pays parmi les plus influents du processus de la Convention-cadre des Nations unies sur les changements climatiques (CCNUCC) autour de la chancelière allemande Angela Merkel, du président de la COP26 Alok Sharma et du secrétaire général des Nations Unies António Guterres. Parmi eux : les ministres et négociateurs des États Unis, de la Chine, de l’Inde, du Brésil, du Canada, de la Russie, de l’Arabie Saoudite, et de plusieurs États membres de l’Union Européenne.

La conférence devrait être l’occasion d’envoyer un message de solidarité avec la communauté internationale et d’exprimer des engagements en faveur d’une action climatique ambitieuse. Cette réunion est vue par de nombreux experts comme une chance de relancer les efforts mondiaux sur le climat, et de s’assurer que les principaux émetteurs tiennent compte des objectifs climatiques dans la préparation de leurs plans de relance économiques.

 Une relance économique décarbonée

Les ministres devront donner les pistes d’une reprise économique qui rend les sociétés plus résilientes et plus respectueuses du climat. Les gouvernements sont en effet face à un choix capital. « Ils peuvent simplement donner de l’argent aux entreprises ou plutôt l’orienter dans des domaines qui créent rapidement des emplois et soutiennent les objectifs de décarbonation et de conservation de la biodiversité, analyse Michael Jacobs, professeur à l’Institut de recherche en économie politique de Sheffield à l’Université de Sheffield, lors d’un point presse organisé sur Zoom. Cela concerne l’efficacité énergétique, l’infrastructure de recharge des véhicules électriques, les voies pour mobilité douce, le transport public dans les villes, la gestion des déchets, les activités circulaires, etc. »

« La reprise économique doit passer par les activités économiques comme l’agriculture écologique et l’agroforesterie, la pêche durable, la conservation et la restauration des écosystèmes, la mobilité durable et l’abandon de toutes aides aux énergies fossiles », complète Jennifer Morgan, directrice exécutive de Greenpeace International. « Nous avons besoin de reconnaître que le focus sur la croissance à court terme est mal placé et nous concentrer sur le bien-être et l’environnement, poursuit-elle. C’est ce que j’espère entendre de la part de la chancelière Merkel et des autres ministres. »

Aligner les plans de relance et les contributions nationales

Les ministres devront dire comment le changement de priorités pourrait booster l’ambition climatique et les contributions nationales (NDC). « C’est un moment où les ministres doivent faire rencontrer les mesures qu’ils préparent pour la relance post-Covid avec le processus de négociation international de l’Accord de Paris, car le contenu de leur plan déterminera leurs contributions nationales et leur stratégie de long-terme », déclare Jennifer Morgan. « Il est absolument vital que les personnes qui s’occupent des NDC et des plans de décarbonation gouvernementaux soient intégrées aux équipes des plans de relance, car cela aidera à aligner leurs objectifs », soutient Michael Jacobs.

« Nous attendons un message fort de coopération internationale et de solidarité en support à un plan Marshall nécessaire au niveau mondial et européen pour affronter les multiples crises, partage Christoph Bals, directeur politique de l’ONG allemande Germanwatch. Il faut un message clair que le Green Deal européen sera un cadre pour guider tous les investissements pour une meilleure reprise». En particulier, il faudrait que l’Allemagne soutienne un objectif européen de réduction des émissions de gaz à effet de serre plus ambitieux. Les études scientifiques montrent que pour espérer limiter le réchauffement climatique à 1,5°C, les émissions de l’UE devraient diminuer d’au moins 65 % d’ici 2030 par rapport aux niveaux de 1990, alors que l’objectif sur la table s’élève entre -50 à -55 % ».

Visioconférence : des réunions pas toujours privées

Tous les secteurs ne sont pas impactés par la pandémie du Covid-19. C’est le cas notamment du marché de la visioconférence. Microsoft a indiqué qu’en mars, sa plate-forme de collaboration Teams comptait 44 millions d’utilisateurs actifs chaque jour.  En novembre dernier, ils n’étaient « que » 25 millions.

Zoom, autre service de vidéoconférence, a vu son trafic quotidien augmenter de 67 % depuis janvier 2020. Seulement voilà, Zoom est victime de son succès. Reconnue et appréciée pour sa facilité d’usage et son ergonomie intuitive, la solution de cette start-up créée en 2011 attire aussi les pirates et autres chasseurs de failles de sécurité.

Résultat, les révélations sur les vulnérabilités de Zoom se sont multipliées ces dernières semaines. La situation devenant tellement ingérable, son fondateur Eric S. Yuan (ex-vice-président ingénierie de WebEx, un autre outil de visioconférence) a décidé de geler tous les développements informatiques afin que son équipe se concentre durant 90 jours sur la sécurité informatique.

L’épreuve du feu de la cybersécurité

Il est vrai que Zoom est devenu un cas d’école. Pas de chiffrements des connexions (ce qui permet à l’entreprise de les intercepter sur ses serveurs), des données qui partaient chez Facebook sans le consentement des utilisateurs, plus de 500 000 comptes Zoom en vente sur le dark web… Pire, les failles de sécurité étaient un secret de polichinelle selon une enquête du New York Times.

« Pour se trouver une place sur ce marché qui compte de nombreux poids lourds, la start-up n’a pas géré plusieurs problématiques de sécurité. C’est une erreur, car les autres solutions grand public comme Google Hangouts, Microsoft Teams/Skype sont passées à l’épreuve du feu de la cybersécurité ; les entreprises qui les proposent ont déjà été victimes de piratage et elles ont l’habitude de gérer ce genre de situation », explique Gerome Billois, sssocié cybersécurité et confiance numérique chez Wavestone.

Zoom risque de payer cher cette stratégie, car de nombreuses entreprises américaines (Tesla, Google) et françaises, mais aussi le Sénat américain et le département de l’éducation de New York ont décidé d’abandonner ce service et son offre payante.

Une analyse des risques

« Le principal risque pour les entreprises est l’écoute de ce qui va se passer lors d’une vidéoconférence. Elles doivent prendre différentes mesures. Premièrement, il est important de contrôler les accès aux réunions virtuelles. Deuxièmement, des mots de passe doivent être utilisés pour empêcher une personne malveillante d’y accéder sans autorisation. Enfin, il faut savoir par où transitent les flux et si les données sont localisées sur des serveurs européens afin d’être en conformité avec le Règlement Général sur la Protection des Données (RGPD) », explique Gerome Billois.

Qu’il s’agisse de visioconférence ou d’une autre application ou service, cet expert rappelle que les entreprises doivent faire leur analyse de risques. « S’il s’agit d’une réunion interne sur un sujet sans importance, le risque est limité avec Zoom ou Teams. Par contre, si l’on commence à évoquer la stratégie commerciale de reprise post-confinement sur les marchés à attaquer en priorité et avec quels niveaux de prix, c’est beaucoup plus délicat. Dans ce cas, il faut mieux utiliser d’autres plates-formes plus sécurisées et garantissant la confidentialité des informations ».

Les grands comptes doivent plutôt utiliser des solutions françaises comme Tixeo (certifiée et qualifiée par l’ANSSI), Adista ou encore Visio4you. Pour un usage personnel (ou en PME/PMI), il est recommandé d’utiliser Meet du Suisse Infomaniak et qui repose sur la solution open source Jitsi. Autres alternatives : Scaleway et Framatalk de l’association française Framasoft.

Vers des effondrements soudains de la biodiversité dans le monde

L’étude publiée dans Nature prédit de graves perturbations écologiques dans les prochaines décennies. Si les émissions mondiales de gaz à effet de serre ne faiblissent pas, les régimes de température sans précédent pour certaines espèces commenceront avant 2030 dans les océans tropicaux. Les premières vagues seraient même déjà en train de se produire, comme semble en témoigner le blanchissement en masse récent des coraux sur la Grande Barrière de Corail. Les latitudes plus élevées et les forêts tropicales devraient être menacées d’ici 2050.

Alex Pigot, auteur principal de l’étude, alerte dans un communiqué : « Nous avons constaté que les risques du changement climatique pour la biodiversité n’augmentent pas progressivement. Au lieu de cela, à mesure que le climat se réchauffe, la plupart des espèces d’une même zone résistent pendant un moment, jusqu’à ce que la température franchisse un seuil au-delà duquel une grande partie d’entre elles affronteront soudainement des conditions qu’elles n’ont jamais connues auparavant ». Il fait allusion à un monde avançant vers une « série de falaises » et non sur une « pente glissante ».

Comprendre les conditions de survie de chaque espèce

Avec ses collègues des États-Unis et d’Amérique du sud, Alex Pigot a d’abord établi les conditions de survie de chaque espèce. Pour ce faire, ils ont utilisé les données climatiques (températures et précipitations) couvrant la période 1850-2005 et les ont recoupées avec l’aire de répartition géographique de 30 652 espèces d’oiseaux, de mammifères, de reptiles, d’amphibiens, de poissons, d’autres animaux et de plantes. Ils ont récolté des données pour toutes les régions du monde et ont divisé la Terre en cellules de 100 km de côté.

Les auteurs ont utilisé les projections thermiques et hydriques de 22 modèles climatiques jusqu’en 2100. Ils ont alors pu prédire quand les communautés biologiques, à savoir les assemblages d’espèces dans chaque cellule, commenceraient à subir des températures constamment plus élevées, que celles qu’elles ont déjà connues dans toute leur aire de répartition géographique pendant au moins cinq ans d’affilée. Les scientifiques ont testé trois types de scenarii climatiques RCP (pour  Representative Concentration Pathway) établis par le GIEC: les RCP2.6, RCP4.5 et RCP8.5, correspondant respectivement à une hausse moyenne des températures de 1,6°C, 2,4°C et 4,3°C entre 1850 et 2100.

Les espèces vont affronter des conditions inconnues

Dans toutes les communautés biologiques étudiées, en moyenne 73 % des espèces franchissent le seuil de températures qui les place hors de leur zone de confort dans la même décennie. « Lorsque les températures dans une zone donnée atteindront des niveaux que l’espèce n’a jamais connus, nous nous attendons à ce qu’il y ait des extinctions, mais pas nécessairement – nous n’avons tout simplement aucune preuve de la capacité de ces espèces à persister après ce point », analyse dans le communiqué Christopher Trisos, co-auteur de l’étude.

Dans le scénario d’émissions hautes du GIEC, les températures mondiales augmenteraient de 4 ° C d’ici 2100. 81 % des communautés terrestres et 37 % des communautés marines verraient alors au moins une de leur espèce exposée à des températures annuelles moyennes sans précédent à cet horizon. Les tropiques seront particulièrement touchés. Respectivement 68 % et 39 % des communautés terrestres et marines tropicales verront au moins 20 % leurs espèces rencontrer des températures sans précédent d’ici 2100. Ces chiffres sont à comparer avec 7 % des communautés terrestres et 1 % des communautés marines en dehors des tropiques. Dans le monde, plus de 15 % des communautés biologiques verront au moins 20 % de leurs espèces affronter des conditions au-delà de leur zone de confort. Un tel événement pourrait causer des dommages irréversibles au fonctionnement de l’écosystème.

Si le réchauffement est maintenu à 2 ° C ou moins, seulement 2 % des communautés pourraient être confrontées à de tels événements d’exposition. Les chercheurs mettent toutefois en garde contre le fait que ces 2 % comprennent certaines des communautés les plus riches en biodiversité de la planète, telles que les récifs coralliens.

À l’instar de la lutte contre le coronavirus, il s’agira d’aplanir la courbe. Au lieu de donner du temps aux hôpitaux, cela donnera plus de temps aux communautés pour s’adapter. En espérant qu’elles puissent absorber le choc. « Le maintien du réchauffement climatique en dessous de 2 ° C aplanit efficacement la courbe d’accumulation de ce risque pour la biodiversité au cours du siècle, donnant plus de temps aux espèces et aux écosystèmes pour s’adapter au changement climatique – que ce soit en trouvant de nouveaux habitats, en modifiant leur comportement, ou avec l’aide d’efforts de conservation menés par l’homme », prévient Alex Pigot. Les auteurs appellent enfin à la mise en place d’un programme de surveillance décennal de la biodiversité, semblable à ce que font les climatologues.

Le plein de propositions pour la transition du secteur aérien

« Nous n’avons pas fait un rapport idéologique ou à charge, défend Nicolas Imbert, directeur de Green Cross France & Territoires. Nous avons travaillé de façon à nous demander quelles mesures pouvaient avoir un vrai levier pour le climat et l’environnement et qui pouvaient aussi générer de l’emploi et une nouvelle forme de prospérité pour une filière mise à mal qui a besoin de se réinventer. »

Il apparaît que les 10 propositions construites avec l’ensemble des acteurs socio-économiques (qui restent anonymes) ne constituent pas une feuille de route idéale ou idéologique de ce qu’il faudrait faire. Au menu, pas d’objectifs contraignants de réduction des émissions de gaz à effet de serre ou d’interdiction de distribution des dividendes des actionnaires, comme le prône Greenpeace. Ces propositions constituent plutôt « une première étape opérationnelle », reconnaît Nicolas Imbert. « Nous avons mis en avant 4 piliers : le renouvellement de la flotte, l’efficacité opérationnelle, une fiscalité ciblée et l’implication de l’ensemble de la filière du transport aérien, depuis le constructeur jusqu’au voyagiste », résume Nicolas Imbert.

Renouveler la flotte et améliorer l’efficacité opérationnelle

Des avions modernes volent en même temps que des avions plus énergivores. La première proposition vise à travailler sur la fiscalité pour rendre incontournable le démantèlement des avions de la flotte consommant plus de 30 % de carburant de plus par km/passage que le leader de leur catégorie. La deuxième permet de travailler sur le post carbone en obligeant les compagnies aériennes à remettre en service les avions les moins émetteurs après la crise sanitaire. « Il est essentiel que la fiscalité rende incontournable le démantèlement des avions et empêche leur vente à l’exportation, prévient Nicolas Imbert. Nous avons déjà observé avec le transport automobile l’effet désastreux qui consistait à exporter en Afrique des véhicules dont on ne voulait plus en Europe pour des questions d’émissions. »

Les propositions font une place à l’efficacité opérationnelle. L’objectif est de développer l’éco-pilotage en vol et au sol, ainsi que l’efficacité énergétique. Green Cross France & Territoires propose de rendre obligatoire la certification Airport Carbon Accreditation (ACA) niveau 3 ou supérieur de tous les aéroports français avant le 1er janvier 2022.

Une nouvelle fiscalité plus égalitaire

Le secteur aérien bénéficie d’exemptions fiscales historiques sur la TVA et sur le carburant JET-A1. Ces exemptions fiscales confèrent un avantage compétitif à l’aérien par rapport au train ou aux transports en commun routiers. Green Cross propose donc l’instauration d’une taxe carburant qui fonctionnerait comme une TIPP flottante, évoluant suivant le prix du baril. « Il est temps de rétablir l’égalité des prix », insiste Nicolas Imbert. Cette nouvelle taxe s’élèverait à 40 % lorsque le pétrole se trouve sous la barre des 50 euros, 20 % jusqu’à 80 euros et 8 % au-delà. En parallèle, les carburants alternatifs plus durables seraient défiscalisés.

En plus, l’association souhaite rendre obligatoire la compensation carbone pour tous les trajets intérieurs, notamment entre la métropole et les outremers. Elle s’établirait à 24 euros la tonne de CO2 émise en 2021, jusqu’à atteindre 100 euros la tonne en 2035.

Un meilleur aménagement du territoire

« En matière d’aménagement du territoire, nous insistons beaucoup sur le fait que pour tous les trajets de moins de 3 heures où le rail existe, il n’y a aucun intérêt à prendre l’avion si ce n’est un effet d’aubaine dû à une illusion des prix bas, explique Nicolas Imbert. En arrêtant la distorsion de concurrence qui met l’avion en avant, le rail devient naturellement l’outil d’aménagement du territoire et de transport pour tous. »

Là où Green Cross France & Territoires met en avant l’avantage de l’avion sur le train pour tous les trajets de moins de 3 heures, Greenpeace recommande de retenir un seuil de 6 heures. « L’urgence est de s’entendre sur un horizon de 3 heures de train dans un premier temps pour avoir une reconstruction responsable du secteur aérien, car on saurait le faire en France et en Europe à l’horizon de 6 mois à un an, défend Nicolas Imbert. Une ambition de 6 heures suppose un plan d’investissement pour le transport ferroviaire important que nous pourrions soutenir dans une deuxième étape, d’ici 2022. »

Impliquer l’ensemble de la filière

Le social doit prendre en compte l’ensemble de la filière. Green Cross demande à ce que l’ensemble des voyagistes consacrent 10 % de leurs commissions à des projets de compensation à haute valeur écologique et sociale. L’association appelle les opérateurs à se doter d’une vraie politique de transformation autour de la sortie du pastique, de l’économie circulaire, de la diversité et du handicap d’ici juin 2021. Enfin, elle appelle à une approche sanitaire et de santé irréprochable, sur l’ensemble de la chaîne pour garantir des conditions sanitaires irréprochables.

Face aux nombreux témoignages de consommateurs, Green Cross France & Territoires propose d’installer avant juin une mission d’enquête parlementaire sur les annulations, surfacturations et reports de vols dans le cadre de la crise sanitaire. Elle s’intéresserait en particulier aux surfacturations de vols opérés dans le contexte du rapatriement par les compagnies aériennes françaises ou ayant opéré à la demande d’opérateurs français.

«Le transport aérien va continuer à se développer dans les années à venir»

Gérad Feldzer intervient dans de nombreux médias sur les sujets touchant à l’aéronautique.

Gérard Feldzer est un touche à tout, c’est le moins que l’on puisse dire. Ancien pilote de ligne au sein d’Air France, il a successivement volé sur Caravelle, Boeing 707 et 747, avant d’être commandant de bord puis commandant de bord instructeur d’Airbus A310, A340 et A330.

Entrepreneur, Gérard Feldzer a fondé la société Carwatt, qui propose aux entreprises de faire passer leurs véhicules d’une motorisation thermique à du 100% électrique grâce à un kit qu’elle a conçu. 

Il est également président d’Aviation Sans Frontière, une ONG qui s’est donnée pour missions, entre autres, d’apporter un soutien logistique aux ONG évoluant en Afrique et d’y prendre également en charge le transport de personnel médical et de produits pharmaceutiques. Le tout via deux avions Cessna Caravan.

Depuis début avril Aviation Sans Frontières met tout en oeuvre pour permettre le transport des personnels médicaux en France dans les régions où la crise sanitaire actuelle l’exige.

Cette interview a été réalisée avant l’annonce du Ministre de l’économie Bruno Le Maire d’une aide de 7 milliards d’euros pour Air France, et la volonté de voir la compagnie être plus rentable tout en devenant la compagnie «la plus écologique du monde».

Techniques de l’Ingénieur: Quelles étaient les perspectives pour le transport aérien avant la pandémie que nous connaissons aujourd’hui ?

Gérard Feldzer : Juste avant la crise, la grosse crainte des compagnies aériennes était de ne pas pouvoir suivre l’évolution et l’augmentation du chiffre d’affaires, qui suivait une courbe ascendante jamais vue auparavant.

Nous étions à 4,5 milliards de passagers par an, avec une projection à 7 milliards pour 2025. Cela fait beaucoup à absorber. Pour ce faire, un consensus était établi sur la nécessité de former 300000 pilotes dans les 15 années à venir.

Depuis un an, on observait une concurrence exacerbée entre les constructeurs aéronautiques, Boeing et Airbus en tête…

Le problème de la vente des avions, avec la concurrence sauvage à laquelle nous  assistons, a fini par pousser Boeing à la faute. Cette histoire est classique mais dommageable : quand Airbus a décidé de développer l’A321 Neo avec des nouveaux moteurs, les Américains ont réagi rapidement, en écrivant à toutes les compagnies aériennes, leur demandant de ne pas acheter le nouveau modèle d’Airbus, arguant du fait que Boeing préparait un avion nouvelle génération, qui n’aura plus rien à voir avec ce que l’on a connu jusqu’à maintenant. Les Américains se sont alors aperçus que l’investissement pour un nouvel avion, totalement différent, de rupture technologique, chiffrerait autour de 14 milliards de dollars d’investissement, une somme énorme.

Sauf que les compagnies aériennes ont massivement acheté le nouvel avion d’Airbus. 

Comment a réagi Boeing à ce moment-là ?

Boeing s’est senti obligé de répondre rapidement, et a décidé de modifier son 737. Mais le 737 est «bas sur pattes», il a un petit train d’atterrissage. C’est pour ça qu’il est limité en inclinaison à l’atterrissage, afin que les moteurs ne touchent pas le sol. Les ingénieurs américains de Boeing ont donc décidé d’avancer les moteurs, afin de modifier la structure de l’avion au minimum, et ainsi avoir plus d’espace avec un train avant soulevé. Cela provoque un centrage qui est différent. Pour le contrer, ils ont rajouté avec une commande de gouverne arrière une protection électronique. C’est cela qui n’a pas marché. Cela a provoqué un premier accident, au cours duquel les pilotes n’ont pu absolument rien faire pour éviter le crash.

Cela montre d’ailleurs qu’il est indispensable que les pilotes soient associés à ce genre d’évolution . Ce n’était pas le cas ici, et cela a beaucoup été reproché à Boeing. La compagnie a décidé de faire quelques modifications, a envoyé des bulletins de service à toutes les compagnies aériennes, s’est contentée de deux sondes (Airbus en a trois)… Et un deuxième accident est survenu. 

Il s’agit alors d’une faute lourde pour la compagnie américaine, avec un procès à la clef et probablement des peines de prison à venir pour certains, car des choses ont été cachées.

L’origine de tout cela, on le voit, c’est la concurrence acharnée.

Cela a t-il eu une incidence sur les ventes de Boeing ?

La compagnie américaine a quand même réussi à vendre 5000 avions, ce qui est colossal, pendant que les Européens – via Airbus – en ont vendu 7000. A la différence près que Boeing voit une partie de ses avions cloués au sol depuis des mois, ce qui lui coûte très cher. Le coronavirus constitue la goutte d’eau de trop, si l’on peut dire.

On estime aujourd’hui qu’il faudra plusieurs années pour retrouver la progression que l’on a connue l’année dernière.

Comment ont réagi les constructeurs face à la pandémie actuelle ?

Ils ont déjà ralenti leur production, après l’avoir augmentée considérablement. Airbus et Boeing, qui tablaient sur la production de deux avions par jour, ont déjà diminué cet objectif de 30%. Il y a donc une fragilisation des constructeurs, mais aussi des compagnies aériennes, qui sont leurs clients.

Aujourd’hui, il est difficile de prévoir ce qu’il va advenir au niveau économique. Mais il y a aussi le facteur écologique. Comme le pétrole n’est pas cher actuellement, la volonté de respecter les engagements environnementaux s’en trouve très affectée. L’objectif au niveau international, de stabiliser les émissions à l’horizon 2025, paraît fortement compromis. Entre autre parce que l’argent nécessaire pour innover et atteindre ces objectifs manque cruellement aujourd’hui.

Les avions ont continué à voler, à vide, après le début de la crise sanitaire. Pourquoi ?

Ce n’est plus le cas aujourd’hui. En fait, pour la maintenance des avions, la pratique exige un atterrissage toutes les 200 heures. Aujourd’hui on maintient les avions en exploitation en faisant tourner les moteurs, en mettant l’informatique en route, en utilisant des déshumidificateurs… Il y a un certain nombre de procédures à suivre pour pouvoir remettre ces avions en service le jour où cela sera possible. Cela dit, même en suivant ces procédures, le redémarrage ne sera pas immédiat, cela va prendre un certain temps.

Il y a aussi la problématique d’attribution des créneaux, qui valent très cher. Pour les attribuer, le nombre d’atterrissages et de décollages sont comptabilisés. C’est purement administratif. Depuis le début de la crise sanitaire que nous connaissons, tout le monde a demandé aux instances européennes de geler cette pratique pour mettre fin à cette ineptie, ce qui a été fait.

Enfin, les avions transportant des passagers doivent opérer un certain nombre de décollages et d’atterrissages pour maintenir leur activité. Cette pratique a également pris fin depuis quelques semaines.

Avant la pandémie mondiale que nous connaissons, la montée en puissance du transport aérien chinois avait commencé à rebattre les cartes en termes de concurrence internationale. Comment appréhender cette problématique aujourd’hui et demain ?

Les Européens et les Américains se sont retrouvés – avant la crise sanitaire – devant un dilemme : l’immense marché chinois, et un discours maintenant habituel de Pékin, consistant à dire : «Nous achetons vos avions, à condition que vous veniez les produire chez nous», avec toutes les contraintes que cela implique en termes de transferts de technologies. Donc Airbus et Boeing ont accepté de construire des usines en Chine, pour ne pas être exclues de ce marché. Airbus a ainsi trouvé un accord, stipulant que tous les avions fabriqués en Chine sont destinés au marché chinois. La réalité risque d’être différente, et on imagine mal les Chinois ne pas créer de filiales pour vendre ces avions à l’étranger. 

Aussi les Chinois ont déjà développé un moyen courrier, le COMAC – copie de l’A320-, et coopèrent avec les Russes pour développer des avions long courrier. 

Il est donc très vraisemblable que les Américains et les Européens soient soumis à une forte concurrence chinoise – et même russe – dans les années à venir. 

Est-ce inquiétant pour les deux géants que sont Airbus et Boeing ?

Cela constitue une inquiétude, mais également une opportunité : il ne fait aucun doute que le transport aérien va continuer à se développer dans les années à venir, en Afrique, dans les pays émergents. Cette montée en puissance de la Chine permettra de répondre à ces nouvelles demandes. À terme, on peut tabler sur un marché mondial constitué d’Airbus, de Boeing, d’une compagnie chinoise et d’une compagnie russe.

Aujourd’hui, l’Europe commence doucement son déconfinement. Si tant est que ce dernier soit un succès et que l’activité économique redémarre à l’été, quand est-ce que le trafic aérien pourrait reprendre son niveau d’avant crise ?

Si on table sur un déconfinement total avant l’été comme vous le dites, il faudra attendre le mois de février 2021 pour voir un niveau de trafic aérien correspondant à celui d’avant crise. Il y a plusieurs raisons à ce délai : l’entretien du matériel, l’obligation de qualification des équipages. Par exemple, il faudra que les pilotes s’entraînent sur simulateur, et la France n’en possède qu’une vingtaine. Cela va donc prendre du temps. 

Vous êtes le président de l’ONG Aviation Sans Frontière. Présentez-nous les missions de cette organisation.

Je faisais partie des créateurs d’Aviation Sans Frontière (ASF) il y a 40 ans, et j’en ai pris la présidence il y a un an. L’idée de départ était d’apporter un soutien aérien – logistique, humanitaire – en Afrique, mais pas seulement. La volonté de former des pilotes africains a émergé au fur et à mesure et aujourd’hui il y a un véritable transfert de technologies vers l’Afrique, un continent où l’aviation est en pleine croissance. Au-delà de l’Afrique, nous avons voulu à travers ASF développer une activité plus locale, qui s’est matérialisée à travers les «ailes du sourire». L’idée est de permettre à des enfants gravement malades d’embarquer pour un vol pendant une journée, afin de s’évader un peu de leur quotidien à l’hôpital.

Depuis le 7 avril, ASF opère des vols pour transporter les personnels médicaux en France vers les points de tension hospitaliers. Comment avez-vous mis tout cela en place ?

Depuis le début de la crise sanitaire, nous avons constaté que le transport des personnels médicaux pour répondre aux besoins hospitaliers locaux n’était pas optimal. Par exemple, un bus transportant 20 médecins est parti de Bordeaux pour Mulhouse afin de renforcer les équipes locales dans une région très touchée par le virus. Résultat : 10 heures de route et des médecins épuisés à leur arrivée.

C’est loin d’être idéal en ce moment. Aussi le trafic aérien étant à l’arrêt, ASF a fait appel à l’aviation d’affaires pour transporter ces personnels plus rapidement et confortablement. Le résultat est fantastique, puisque tout le monde a répondu favorablement à nos sollicitations et nous avons aujourd’hui 50 avions disponibles à tout moment, avec les équipages. Nous avons commencé ces transports le 7 avril et depuis nous programmons des vols quotidiens, selon les besoins et les urgences. ASF est, en ce moment, la plus grosse compagnie aérienne sur le territoire, avec la capacité de transporter 500 personnes en permanence. C’est un formidable élan de générosité qui s’est mis en place et je tiens à saluer l’action de Total, qui nous offre le pétrole, ce qui est loin d’être anodin puisque nous avons besoin d’environ 50000 litres par semaine pour mettre en oeuvre tous ces transferts. Ce n’est pas tout, puisque la DGAC [Direction générale de l’Aviation civile, NDLR.] nous dispense des redevances aéroportuaires, et les aéroports aussi nous facilitent grandement les choses. Aussi tous les pilotes sont bénévoles et beaucoup d’autres nous proposent leur aide. On peut dire que cette crise participe d’une certaine façon à ressouder la famille de l’aéronautique.

Pour l’anecdote, les personnels médicaux que nous transportons ne sont pour la plupart jamais montés dans des avions d’affaires, donc il y a aussi un certain plaisir pour eux à profiter de ces conditions de transport. Cela participe à les mettre dans un état d’esprit positif avant le travail compliqué et éreintant qui les attend, et nous sommes ravis de leur apporter ce soutien tellement mérité.

Soulignons également l’engagement courageux des équipages, qui prennent des risques en côtoyant quotidiennement des personnels soignants directement en contact avec les malades.

Propos recueillis par Pierre Thouverez

Application de traçage, analyses de données épidémiologiques, télémédecine : l’importance des NTIC pour la santé publique

Lors de son allocution du 13 avril 2020, le président Emmanuel Macron a annoncé une fin de confinement progressif à partir du 11 mai.

Bien que les détails de cette phase de  déconfinement ne soient pas encore connus, le président a néanmoins mentionné la création d’une application smartphone qui, sur la base du volontariat et de l’anonymat, permettrait de savoir si l’on a été en contact avec une personne contaminée.

Cette application soulève néanmoins des questions et devra faire appel à des technologies variées.

La question des libertés individuelles et de la collecte d’informations personnelles doit évidemment être abordée. La CNIL a déjà émis un rappel en mars sur les données qu’il est autorisé de collecter et cette application mobile ne pourra pas être envisagée sans respect des règles RGPD.

Cette application, comme toute les solutions liées à la médecine électronique, s’avère compliquée à mettre en œuvre et très encadrée.

Afin de vous aider à bien comprendre ces enjeux, Techniques de l’Ingénieur propose de découvrir gratuitement une sélection d’articles sur le sujet :

Conséquences prévisibles de la crise du Covid-19 sur les acteurs du secteur électrique

Comme le rappellent les auteurs de la note, Etienne Beeker et Marie Dégremont, « les chiffres de consommation journalière d’électricité révèlent une forte baisse de la demande, de l’ordre de 15 % à 20 % en moyenne les deux premières semaines du confinement par rapport à un mois de mars ‘’classique’’ ».  Un chiffre qui demeure à peu près constant à l’aune de la prolongation des mesures sanitaires, comme le montrent les derniers chiffres de RTE sur le sujet.

Ce recul de la demande entraîne un moindre recours aux centrales au gaz et au charbon. En effet, indiquent les auteurs, « en temps normal, pour répondre à la demande, les moyens de production sont appelés suivant des coûts marginaux croissants : d’abord les énergies renouvelables (hors hydraulique, géré pour optimiser le stockage et la flexibilité apportés au système), qui sont prioritaires sur le réseau, ensuite le nucléaire, enfin les centrales à gaz ou au charbon ». La consommation étant faible, les centrales gaz et charbon sont moins appelées, et les prix baissent sur les marchés qui sont « couplés » en Europe, c’est-à-dire qu’ils interagissent.

Pour les auteurs de la note, « les systèmes électriques des pays européens étant largement interconnectés et les marchés couplés, les baisses de prix se sont généralisées sur le continent au fil des ordres de confinement, y compris pour les contrats à terme en 2021 et 2022, preuve que le marché anticipe une crise assez longue ». En outre, ce mouvement a été amplifié par une chute concomitante du prix du carbone sur le marché européen des quotas (soit environ 40 %, passant de 25 €/tCO2 à 15 €/tCO2). Néanmoins, ce niveau est remonté un peu depuis, suite à l’annonce récente par EDF d’une baisse de la production nucléaire sur l’année autour de 300 TWh (contre 380-390 TWh prévus), « peut-être parce que le marché anticipe une reprise économique à base de fossiles très bon marché », indiquent les auteurs. Et d’ajouter que « néanmoins, la plus grande incertitude règne sur son évolution future, qui dépendra de la vigueur de la reprise et de sa nature. »

Impact de la baisse des prix sur tous les acteurs du système

Cette chute des prix, qui sont de plus en plus souvent « négatifs » notamment parce que les renouvelables, et plus particulièrement le solaire, produisent un maximum grâce à une météo favorable, impacte tous les acteurs du système. Les producteurs, d’abord, ceux qui ne bénéficient pas de conditions d’achat, comme Engie en France et EDF notamment, réduisent leurs productions, donc vendent moins. Les fournisseurs (tous), réalisent moins de vente, donc ont moins de rentrées. Et les réseaux, à la fois RTE, le gestionnaire du transport et Enedis, le distributeur (ainsi que les autres distributeurs en régie) dont la rémunération est fixée par le Tarif d’utilisation des réseaux publics d’électricité (Turpe) perçoivent une part par kWh qui transite sur les lignes, ce qui signifie que si moins de kWh sont transportés, les rentrées diminuent d’autant. Comme l’indiquent les auteurs de la note, « leurs dépenses étant essentiellement constituées d’investissements, le Turpe devra nécessairement augmenter en 2021 pour couvrir ces dépenses, faisant augmenter le prix du kWh au consommateur final. Le réseau comptant pour moitié environ de ce prix HT, une diminution de 10 % de la consommation d’électricité induirait en première approximation une augmentation du tarif de 5 %. »

EDF s’en sort un peu mieux malgré l’arrêt de plusieurs centrales nucléaires, car une partie de ses ventes sont réalisées au « tarif réglementé », et une autre partie via le mécanisme de l’Arenh (Accès régulé à l’électricité nucléaire historique). « Ce mécanisme qui oblige EDF-producteur à alimenter les fournisseurs alternatifs en énergie nucléaire au prix régulé de 42 €/MWh (pour une quantité limitée à 100 TWh, soit un quart de la production nucléaire totale, sur la base de 400 TW par an) se retourne à l’avantage d’EDF avec la crise », indiquent les auteurs de France Stratégie. Les fournisseurs alternatifs (Total, mais aussi Engie et nombre d’autres), ont en effet réclamé en début d’année beaucoup d’Arenh (le maximum) alors que les prix de marché étaient à 50-55 €/MWh, mais désormais, ils sont tenus d’acheter à EDF les volumes demandés au prix de 42 €/MWh, soit bien au-dessus du prix du marché actuel, qui tourne autour de 20 €/MWh.

Comme le soulignent les auteurs de la note, « ils demandent aujourd’hui l’activation de la clause de « cas de force majeure » pour suspendre leurs contrats d’approvisionnement et opter pour le marché qui atteint en moyenne 20 €/MWh. La Commission de régulation de l’énergie (CRE) a opposé une fin de non-recevoir à cette demande. Le 6 avril, les fournisseurs alternatifs ont toutefois attaqué la CRE devant le Conseil d’État, qui a rejeté leur requête le 18 avril. Le différend portait sur des milliards d’euros, au vu des écarts de prix et des volumes en jeu. »

Les producteurs renouvelables ne sont pas non plus trop touchés par la crise, dans la mesure où leurs prix d’achat sont encore en règle générale très majoritairement garantis par un tarif d’achat fixé.

Un système électrique instable

Autre conséquence de la crise, quand la demande globale décroît, les moyens de production « non pilotables » (solaire et éolien, mais aussi certaines tranches nucléaires et au gaz non flexibles) voient leur part augmenter en proportion. À certains moments, la part de ces moyens non pilotables peut même dépasser la demande, insistent les auteurs. « Dans ce cas, la priorité d’injection sur le réseau des énergies renouvelables conduit les gestionnaires de ce réseau à arrêter des centrales conventionnelles – au charbon, gaz ou nucléaire –, pourtant par nature flexibles et permettant d’assurer l’équilibre offre-demande à court terme. À cela s’ajoute le fait que de nombreuses installations industrielles sont à l’arrêt, privant le système d’un levier important d’ajustement de la consommation (via l’effacement ou interruptibilité, NDLR). »

Et les deux auteurs d’insister : « Le mois de mars et la première période d’avril qui incluent la période de confinement ont été particulièrement ventés et ensoleillés et sont typiques d’une telle situation. La demande y a été si basse par moments, les week-ends en particulier, que plusieurs centrales nucléaires et conventionnelles ont été mises à l’arrêt en Europe, générant des épisodes de prix négatifs particulièrement longs. Les centrales à gaz dont le coût marginal de fonctionnement est généralement le plus élevé sont les premières à être arrêtées, alors que ce sont souvent les plus flexibles ». La sécurité d’approvisionnement s’en trouve ainsi affectée.

La conclusion de ce point de vue est loin « du monde d’après, radieux » que certains tentent aujourd’hui de dessiner. « En conclusion, les conséquences de la chute d’activité sur la consommation d’électricité invitent à réexaminer la robustesse des systèmes français et européen de production, de transport et de distribution d’électricité. Des évolutions importantes devront être étudiées pour que ces systèmes puissent répondre dans de bonnes conditions de sécurité aux défis des années à venir. La décarbonation de l’économie conduira en effet à une hausse marquée de la part de l’électricité dans la consommation d’énergie, et nos systèmes n’y sont pas prêts. »

Les bienfaits du respect des recommandations nutritionnelles sur l’environnement

Suivre les recommandations nutritionnelles fait du bien à la planète, telle est la conclusion d’une étude réalisée par des chercheurs de l’INRAE, l’Inserm, l’Université Sorbonne Paris Nord et Solagro. En 2017, lorsque le nouveau PNNS (Programme national nutrition santé) est publié, il intègre pour la première fois la dimension environnementale de l’alimentation. « Nous avons démontré que les personnes qui suivent les recommandations nutritionnelles de 2017 réduisent l’impact global sur l’environnement de leur alimentation de 50% comparé à celles qui les suivent moins, confie Emmanuelle Kesse-Guyot, directrice de recherche à l’INRAE. En comparaison, celles qui suivaient les préconisations de 2001 le réduisaient de seulement 25 %. »

Un questionnaire sur 250 aliments consommés

Ce résultat a été obtenu grâce à une étude de cohorte. Depuis 2009, 165 000 adultes volontaires sont suivis afin d’étudier les liens entre nutrition et santé via le programme NutriNet-Santé. Parmi ceux-ci, plus de 28 000 personnes ont accepté de répondre à un questionnaire spécifique portant sur la fréquence et les quantités consommées de 250 aliments. Des scores d’adhérence ou non aux recommandations nutritionnelles ont été établis à travers un système de notation. Ces données ont été jumelées avec l’impact des 250 aliments sur l’environnement grâce aux travaux de l’association Solagro. Trois indicateurs ont été retenus  : les rejets de gaz à effet de serre (GES), l’énergie demandée pour produire les aliments et enfin l’occupation des sols.

« La meilleure préservation de l’environnement s’explique principalement par la baisse de la consommation de viande combinée à une alimentation davantage basée sur le végétal », analyse Emmanuelle Kesse-Guyot. Depuis 2017, le PNNS conseille de limiter la consommation hebdomadaire de viande rouge à 500 grammes et la charcuterie à moins de 150 grammes. Alors qu’en 2001, il préconisait la consommation de viande, de poisson et d’œufs à raison d’une à deux fois par jour. Une évolution importante car les aliments d’origine végétale préservent beaucoup plus l’environnement que ceux d’origine animale. Ces quelques chiffres en témoignent  : 1 g de protéines de blé émet 52 fois moins de GES que 1 g de protéines de ruminants et 8 fois moins que 1 g de protéines de poulet ou de porcs.

Une étude future sur l’alimentation bio

Même si, pour la première fois, les recommandations 2017 incitent à la consommation d’aliments issus de l’agriculture biologique, ce mode de production n’a pas été pris en compte parmi les critères positifs pour l’environnement. « Nous allons réaliser une étude spécifique pour mesurer l’impact de ce régime alimentaire », précise la chercheuse. Ce manque aurait pu avoir un effet négatif sur les résultats puisque l’agriculture biologique, avec des rendements par hectare moins élevés que ceux de l’agriculture conventionnelle, entraîne une plus grande occupation des sols, qui est lui l’un des critères environnementaux retenus. Là encore, le fait que les personnes qui mangent bio soient à la fois celles qui mangent le moins de viande a permis de les classer comme ayant un impact limité sur l’environnement dans l’étude. Bien sûr, consommer des aliments bio présente l’avantage de limiter l’exposition aux pesticides. « Sur le plan de la santé, l’étude démontre que l’application des recommandations nutritionnelles de 2017 permettrait de prévenir la mortalité prématurée de 35 000 personnes en France, principalement liées aux maladies cardiovasculaires, soit 10 % de plus que les recommandations de 2001 », ajoute Emmanuelle Kesse-Guyot

Dans le monde, les systèmes alimentaires sont responsables d’environ un quart des GES et contribuent, de façon importante, à la pollution de l’eau, des sols et à la perte de biodiversité. Dans une étude dévoilée en 2018, l’Université d’Oxford a évalué qu’à l’horizon 2050, en considérant une population mondiale comprise entre 8,5 et 10 milliards d’habitants et un triplement du revenu global, les GES issus des systèmes alimentaires pourraient progresser de 87 %. Changer son mode alimentaire, en adoptant par exemple le régime méditerranéen ou végétarien, sera l’un des leviers pour limiter cet impact.

Médecine électronique et gestion de la pandémie de Covid-19

photo Daniel BattuBien avant que l’application StopCovid ne soit un sujet brûlant, la médecine connectée s’est révélée salutaire dès les premiers jours de la crise sanitaire liée au Covid-19. Télésurveillance, téléconsultation, dépistage en ligne, plateformes de recrutement de personnel soignant… Des solutions diverses ont été adoptées en France et ailleurs afin d’aider à endiguer la progression de la pandémie. Pour en savoir plus, nous avons rencontré Daniel Battu, consultant indépendant pour l’association ECTI. L’ingénieur en chef des télécommunications retraité a publié une quinzaine de livres techniques sur les réseaux de télécommunications, et est également auteur de ressources documentaires chez Techniques de l’Ingénieur dont plusieurs portant sur la médecine électronique. Entretien.

Techniques de l’Ingénieur : Si la médecine électronique avait davantage été développée, et tout particulièrement les algorithmes de prédiction, pensez-vous qu’on aurait pu prévenir la pandémie de Covid-19 ?

Daniel Battu : La prévention d’une pandémie résulte d’une coordination parfaite entre les travaux de recherche et un pouvoir politique dont l’administration régionale et nationale aurait été organisée dans ce but. Pendant ces dix dernières années, le programme américain de recherche Predict, aujourd’hui abandonné, a étudié 20 000 virus sur les 600 000 identifiés sur les animaux. Dennis Carrol, professeur en biologie médicale qui dirige aujourd’hui le Global Virome Project qui fait suite à Predict, avait alerté en son temps les cercles scientifiques de l’évolution naturelle et permanente de ces virus, protéines qui ont besoin du support d’une espèce animale pour survivre avant d’attaquer l’espèce humaine.

L’entreprise canadienne BlueDot, spécialisée en intelligence artificielle, avait détecté les premiers signes d’une infection au coronavirus en Chine quelques jours avant que l’OMS ne lance l’alerte dans le monde entier. A noter que les travaux de BlueDot reposent sur des masses d’informations issues de diverses sources et traitées avec des technologies d’intelligence artificielle. 

Mais la science n’a pas la capacité d’être un outil politique. Elle permet d’évaluer le danger et l’action politique doit faire la somme de tous les risques à court et à long terme afin de mettre en place les mesures qu’elle estime nécessaires. Ces choix sont difficiles, car ils mettent sur un même plan la vie, la mort et l’économie, sachant que les ressources allouées aux systèmes de soins de santé sont limitées et que ces derniers peuvent être victimes de surcharges.

Est-ce que la simulation informatique peut aider à la gestion de l’épidémie ?

Les gouvernements du monde entier s’appuient sur des projections mathématiques et statistiques, et sur des simulations épidémiologiques pour modéliser la pandémie du coronavirus afin d’orienter la gestion de cette crise. Malheureusement, il est apparu que tous les modèles de simulation de l’expansion du Covid-19 reposaient sur des données insuffisantes : il demeure encore beaucoup d’incertitudes quant au pourcentage de transmission du virus effectif au sein et entre les différents groupes d’âge, et à la façon dont les personnes infectées peuvent manifester les premiers symptômes. Cela rend les liens entre les différentes équations des modélisations difficiles à définir correctement. Les modèles statistiques ne bénéficient pas de la fiabilité des données issues des épidémies précédentes proches de la grippe. 

De plus, de nombreuses informations sur la façon dont le SARS-CoV-2 se propage sont encore inconnues et doivent être estimées ou supposées – et cela limite la précision de ces estimations. Les études modélisent la situation des patients en catégories : sensibles au virus, infectés, guéris (porteurs du virus et immunisés) et les décédés. Mais au fur et à mesure que les chercheurs poursuivent leurs investigations, ils apprennent de nouveaux faits sur le comportement du virus et ajoutent d’autres variables clés, de façon à « actualiser » les simulations. 

En Mars 2020, les auteurs de ces modélisations informatiques les jugeaient fiables à 30% ; un tiers des résultats reposant sur des modèles spécifiques et environ deux tiers sur l’expérience antérieure acquise et sur de l’intuition. 

En termes de e-santé, quels sont les pays les plus performants dans la gestion de la crise de Covid-19, et pourquoi ?

En matière de gestion de crise sanitaire, tous les pays ne sont pas logés à la même enseigne, en structures de décisions, en réserves médicales, en lits, en médicaments et en outils thérapeutiques. Même à l’heure actuelle, on ne connaît pas encore l’ensemble des processus de ces infections humaines et les raisons des variabilités observées. Bien que nous ne soyons pas au terme de cet événement, il est possible de dresser un bilan mondial simplifié et provisoire des performances en matière de gestion de crise.

La palme de l’efficacité semble revenir indiscutablement à la Corée du Sud et à Taïwan, parce que ce sont des démocraties qui ont su agir vite et en toute transparence, avec la disponibilité de tests de masse pour un dépistage massif de l’ordre de 15 000 tests de dépistage quotidien. 

En Corée du Sud et à Taïwan, le suivi de la population à travers les smartphones a constitué une mesure efficace majeure, et les sanctions y sont particulièrement sévères. Les personnes en quarantaine sont contactées deux fois par jour pour suivre leur état et leur position. De plus, le gouvernement suit à la trace les infectés sur la base de l’activité de leur téléphone et de leur carte bancaire, et informe les personnes situées à la proximité d’un malade.

Taïwan est situé à une centaine de kilomètres de la Chine et les échanges entre les deux pays sont nombreux. Pourtant, il n’y a que 60 cas de coronavirus enregistrés et un seul mort à Taïwan depuis le début de l’épidémie [mise à jour des chiffres : à ce jour du 22 avril 2020, Taïwan subit la seconde vague de contaminations et a enregistré depuis le début de la pandémie 425 cas infectés et 6 morts, NDLR]. Des distributeurs automatiques de masques ont été mis en place et la vente est contrôlée par un système électronique. Les autorités taïwanaises ont distribué des téléphones portables avec suivi GPS aux personnes suspectées d’être porteuses du virus afin que la police puisse les localiser et surveiller leur quarantaine. Le gouvernement de Taïwan, échaudé par l’épidémie de SRAS (l’épidémie de syndrome respiratoire aigu) en 2003, avait préparé un solide plan de gestion des épidémies, incluant la fermeture des frontières, qui a été instauré avant la diffusion de l’alerte de l’OMS et qui a porté ses fruits.

Dans ce palmarès, l’Allemagne vient ensuite, car elle a pratiqué de tests de façon massive dès le début de l’épidémie (12 000 tests par jour) avec des adaptations de ces tests à la conduite automobile (drive) et à la visite chez le médecin généraliste. L’Allemagne dispose d’un maillage territorial important de laboratoires et d’une structure fédérale qui confère une certaine autonomie aux Landers dans la décision du confinement. Chaque région décide de ses stocks et des mesures à prendre, néanmoins en collaboration avec les autres régions 

Par ailleurs, l’Allemagne est l’un des pays d’Europe les mieux dotés en nombre de lits hospitaliers, particulièrement en soins intensifs. Selon Eurostat, l’Allemagne disposait ainsi en 2017 de 600 lits en soins intensifs pour 100 000 habitants, soit le double de la France (309 lits pour 100 000 habitants) et de l’Italie (262,5 lits pour 100 000 habitants). Pour ces raisons, l’Allemagne présente un taux de mortalité des patients atteints du Covid-19 près de six fois inférieur à celui de la France. 

Masques et gels hydroalcooliques en rupture de stock, saturation des lits dans les hôpitaux… Existe-t-il des solutions numériques qui puissent aider à résoudre ces lacunes ? Sont-elles adoptées en France ?

Les blocages vécus en France liés à la pénurie de matériels essentiels aux soins cités ici résultent de l’absence de stocks et d’une malencontreuse stratégie d’économies budgétaires. Un choix politique qui aujourd’hui est jugé regrettable par tous ! 

Les techniques numériques propres à résoudre ces lacunes appartiennent aux classiques protocoles de gestion des stocks et aux méthodes d’organisation des entreprises (DPO, décision par objectif). L’excès du recours aux méthodes d’approvisionnement à délai court (Just In Time) avec un fournisseur unique à 20 000 km de distance explique ces ruptures de stock. L’intelligence artificielle et l’informatique rapide ne suffisent pas pour rappeler aux décideurs l’existence de menaces aux lourdes conséquences ! En avril 2020, le gouvernement et les entreprises impliquées dans le marché de la santé ont révisé leur stratégie et réorientés une bonne partie de leurs décisions.

Avec la pandémie, trouvez-vous qu’il y ait une prise de conscience en France de la nécessité de généraliser les solutions numériques en santé ?

La pandémie actuelle va certainement provoquer de nombreux changements en France, ainsi que dans tous les pays qui en ont été victimes. Le meilleur des solutions numériques en santé va se multiplier dans les centres de soin, dans le réseau des pharmacies et même chez les particuliers. Le changement peut trouver son origine dans le sentiment moral et impérieux de la nécessité d’une mise en œuvre indispensable au plus grand nombre ou de la notion de profits en raison de l’ouverture de nouveaux marchés.

On peut s’attendre à un usage plus étendu de l’informatique personnelle, des outils de communication audiovisuelle de personne à personne, d’outils efficaces, comme le thermomètre médical à infrarouge, des divers capteurs spécialisés pour diagnostic médical rapide, et de terminaux de télémédecine.

Les services de téléconsultation médicale devraient se développer pour toute la population afin de mieux accompagner les patients dans la gestion de leur santé et alléger la tâche des médecins par des conseils personnalisés de prévention.

Reste également à mettre en place les solutions pour aider les seniors et les personnes souffrant d’un handicap qui vivent en zone isolée à maîtriser les outils informatiques. La lutte contre l’illettrisme numérique (ou incapacité à utiliser les services en ligne ou à se servir d’un terminal de communication numérique) qui concerne 17 % de la population française, devrait mobiliser de nouvelles initiatives publiques et privées par la disponibilité de tutoriels et de supports d’aide en ligne. Sur ce point essentiel, Jacques-François Marchandise, délégué général de la Fondation Internet nouvelle génération (Fing), a rappelé récemment qu’à l’opposé du numérique chronophage de luxe, l’innovation pertinente, telle que celle déployée par la plateforme MedNum (pour Médiation Numérique) était en mesure d’agir en solidarité en faveur des plus démunis.

Propos recueillis par Intissar El Hajj Mohamed, avec l’aide de Maud Buisine.

Retrouvez la ressource documentaire Applications de la médecine électronique écrite par Daniel Battu. 

Revue du Web #133 : les vidéos les plus étonnantes du mois

Un robot désinfectant pour éliminer le Coronavirus

Des scientifiques de Singapour ont inventé un robot désinfectant qui imite les gestes humains afin d’aider le personnel de nettoyage débordé depuis le début de la crise du coronavirus. Le robot est équipé d’un tube qui peut asperger du désinfectant rapidement sur de grandes surfaces. Ce robot se distingue des autres robots sur le marché surtout destinés à nettoyer les sols et qui ne peuvent pas désinfecter des objets de formes variées.

Le chantier numérique de Notre-Dame de Paris

Un an après l’incendie qui a ravagé la toiture de Notre-Dame de Paris, le chantier de restauration avance dans la mesure du possible. Des scientifiques issus des laboratoires du CNRS ont travaillé pour décrypter ce monument centenaire et aider à évaluer les dégâts engendrés par les flammes.  Dans cette vidéo, qui met en scène de magnifiques reconstitutions de la cathédrale après le drame, on comprend l’ampleur du travail effectué par les chercheurs.

Comment mesurait-on la profondeur de l’océan au XIXe siècle ?

Dans cette reconstitution historique, le SHOM (Service Hydrographique et Océanographique de la Marine) nous emmène en 1804 dans l’embouchure de la Charente . Sur cette chaloupe ballottée par le clapot, on procède à un levé hydrographique, avec une sonde à main et un « cercle hydrographique » – appareil proche du sextant, et servant à mesurer des distances angulaires avec précision et donc à déterminer la position du navire. On s’y croirait presque.

Des organes bio-imprimés en 3D

Cœur, foie ou rein imprimé en 3D ; il reste encore beaucoup de chemin à faire avant de pouvoir proposer à un patient en attente un organe sur-mesure et à la demande. L’objectif est de trouver une solution pour toutes les personnes en attente de greffe et faire face au manque de donneurs dans le monde.

Ce zoom dans notre galaxie a été réalisé avec le même appareil photo mais avec des objectifs de plus en plus puissants. Parmi la multitude d’étoiles de la Voie lactée, c’est une petite constellation célèbre et brillante qui est visée : la Lyre, où se cache, une minuscule nébuleuse invisible, qui mesure dix mille milliards de kilomètres.

Fabrication additive et course automobile

L’équipe de course hollandaise Van Amersfoort Racing  utilise l’impression 3D FDM, plus particulièrement des machines Ultimaker, pour fabriquer de l’outillage en fibres de carbone. En se tournant vers l’impression 3D, l’écurie automobile peut imaginer des outils adaptés à la réalité de chaque voiture et tout cela en peu de temps. Ils deviennent donc plus réactifs et plus agiles.

Un nouveau scanner médical issu de travaux sur la matière noire

Un nouveau scanner médical inventé à partir d’un travail de recherche sur la détection de la matière noire, c’est le projet de recherche que mène actuellement Subatech, le laboratoire de physique subatomique et des technologies associées. Ce projet, baptisé Xémis, regroupe l’Institut Mines-Télécom Atlantique, le CNRS et l’université de Nantes. « Au sein d’une équipe internationale, nous travaillons sur la détection de signaux de matière noire à partir du xénon à l’état liquide, explique Dominique Thers, chercheur et responsable d’une équipe de recherche de ce laboratoire à l’IMT Atlantique. Ce gaz rare est présent dans l’air à une densité de 10-7 atomes par molécule d’air. Nous avons eu l’idée de nous en servir pour développer une nouvelle technique d’imagerie médicale. »

Une meilleure qualité des images

Le scanner se présente sous la forme d’une baignoire cylindrique en forme de tube à l’intérieur duquel le patient peut s’allonger. Les parois, de 12 centimètres d’épaisseur, sont remplies de xénon.

L’appareil s’inspire directement de l’imagerie par tomographie par émission de positons (TEP-Scan), technique qui repose sur l’injection dans le sang d’un traceur faiblement radioactif. Habituellement, le fluor18 est utilisé car il émet, lors de sa désintégration, deux photons gamma diamétralement opposés (180°). Cette propriété permet de tracer une ligne qui passe dans le corps du malade et de localiser la zone d’émission, proche de celle où l’atome s’est fixé. Des algorithmes se chargent ensuite de traiter tous les points afin de reconstruire une image. « Nous employons un autre traceur : le scandium 44, révèle le chercheur. Il a la particularité d’émettre un 3ème photon qui passe par le point d’émission et permet ainsi une triangulation directe de la position et donc une meilleure qualité de l’image ».

Un prototype du scanner au xenon est en cours d’installation au CIMA (Centre d’’imagerie appliquée) du CHU de Nantes. – Crédit photo Laboratoire Subatech

 Autre différence significative : le xénon liquide fait office de caméra. Nul besoin de faire déplacer un anneau de capteurs le long du corps du patient, comme c’est le cas avec les appareils actuels. Les images ne sont plus retranscrites « en tranches » mais offrent un champ de vision homogène dans toutes les directions. Là encore, avec une meilleure précision.

Pour obtenir une image de qualité égale aux scanners actuels, les chercheurs pensent utiliser 100 fois moins de médicament radioactif. Normalement, quelques mégabecquerels sont injectés par kg de patient. « Ici, quelques kilobecquerels suffiront, analyse Dominique Thers. Les patients seront ainsi beaucoup moins exposés à la radioactivité ». Un bénéfice car le risque individuel d’une telle exposition n’est pas nul et chaque indication d’examen doit être soigneusement pesée suivant le bénéfice attendu. Ce scanner au xénon offrira ainsi la possibilité, pour un même patient, de faire plus d’examens. Une fréquence plus élevée qui permettra une plus grande personnalisation de l’examen avec une meilleure précision du diagnostic et du suivi thérapeutique pratiqué en cancérologie. La durée du scannage devrait aussi être plus courte, permettant ainsi de réaliser plus d’examens quotidiennement pour chaque appareil. Actuellement, un temps d’environ vingt minutes est nécessaire pour chaque patient. Ici, quelques minutes seulement devraient suffire.

Des tests sur de petits mammifères

Esquisse de la caméra au xénon utilisée sur des petits mammifères – Crédit photo Laboratoire Subatech

Ce projet de recherche va à présent rentrer dans sa phase d’essai. Un premier prototype va être installé au CHU de Nantes et des tests vont débuter sur des souris et des rats.

La baignoire, d’une longueur de 24 cm, permettra de scanner le corps entier de ces petits mammifères en une seule fois. « Ce nouveau scanner médical vient directement d’un autre domaine, celui de la recherche de matière noire, nous sommes vraiment en rupture avec les autres pistes explorées à l’heure actuelle, confie Dominique Thers. Ces essais auront pour objectif de convaincre les industriels de l’intérêt de cette nouvelle technologie ». Un scanner à l’échelle de l’homme pourrait voir le jour à l’horizon 2025-2026.

Les industriels du plastique surfent sur la vague de la crise sanitaire

Aux États-Unis, la Plastics Industry Association a écrit au département américain de la Santé et des Services sociaux pour lui demander de vanter publiquement les bénéfices du plastique à usage unique pour la santé et la sécurité. En Europe, l’industrie européenne veut faire reculer les dernières avancées réglementaires en matière de lutte contre le plastique à usage unique. Le 8 avril, la Confédération Européenne de la plasturgie (EuPC) a ainsi adressé une lettre ouverte à la Commission européenne. Face à une législation qualifiée de « politique », elle appelle la Commission à prendre en compte les « conséquences hygiéniques de l’interdiction ou de la réduction des plastiques à usage unique ». En ce sens, elle lui demande de repousser d’un an l’application de la Directive SUP sur les plastiques à usage unique et de lever toutes les interdictions prévues de produits.

L’industrie avance, la Commission européenne résiste

« Le report de la mise en œuvre donnera à tous les États membres de l’UE plus de temps pour se concentrer sur des mesures plus urgentes dans la lutte contre le COVID-19, en distribuant aussi des plastiques à usage unique dans des situations d’urgence », tente le représentant des plasturgistes européens. Masques, surblouses, bouteilles de gel hydroalcoolique sont en effet indispensables dans la lutte contre le Covid-19. Le hic est que la Directive ne prévoit en aucun cas des interdictions de plastiques à usage unique dans le domaine médical. Il s’agit d’emballages et objets qui n’ont pas de rôle dans la lutte contre le coronavirus : les couverts et assiettes, les pailles, les touillettes à café, les tiges pour ballons, les cotons-tiges, les récipients pour aliments et gobelets en polystyrène expansé.

La Commission a donc opposé au courrier de l’EuPC une fin de non-recevoir. « Les délais dans le droit de l’UE doivent être respectés », répond Vivian Loonela, porte-parole de la Commission européenne pour les questions environnementales. « Dans les circonstances actuelles où de nombreuses activités économiques essentielles, y compris la gestion des déchets, sont sous pression, il est encore plus important de poursuivre les efforts globaux de réduction des déchets », estime-t-elle. Ceci est d’autant plus important que le secteur du tri et du recyclage fait face à une activité fortement réduite dans certaines régions, notamment en Île-de-France.

Non, le plastique ne protège pas du coronavirus

Elipso, le représentant des entreprises des emballages en plastique souple, tente sa chance en parallèle. Dans un communiqué daté du 8 avril, il vante la mobilisation des entreprises de l’emballage plastique et leur solidarité face à la crise du Covid-19. Sa présidente Françoise Andres avance que « l’emballage garantit un effet barrière », soit « la première protection des produits ». Elipso voit dans le plastique « un partenaire essentiel dans la lutte contre le virus ».

Un sondage d’Elipso mené auprès de ses adhérents montre que l’activité des plasturgistes de l’emballage tourne à plein régime. La moitié des entreprises ayant répondu à son enquête, pour la plupart des fabricants d’emballages à destination de l’alimentaire vendu en grande distribution, connaissent une hausse d’activité. 17 % d’entre elles font face à une hausse de 20 à 30 % et 20 % répondent à une hausse de 10 à 20 %. Face aux craintes d’une contamination par l’eau du robinet, les bouteilles d’eau figurent parmi les emballages les plus demandés.

Mais les experts sanitaires sont formels : les emballages ne protègent pas contre le virus, car ils sont eux même manipulés. Plusieurs études ont montré que le coronavirus pouvait rester plusieurs jours sur les matériaux plastiques. Selon une étude de l’Université de Hong Kong, présentée dans le Lancet Microb, le SARS-CoV-2 pourrait même survivre 7 jours sur le plastique ou l’acier inoxydable, contre 4 jours pour le verre, 2 jours pour le bois et moins de 3 heures pour le papier.

L’Anses a notamment dressé plusieurs recommandations concernant l’alimentation, les courses et le nettoyage. Le plastique ne fait pas partie des recommandations pour limiter les risques. L’agence rappelle que « les emballages peuvent avoir été contaminés par des mains souillées lors de leur manipulation par une personne infectée ». Elle recommande d’« essuyer les emballages avec un essuie tout à usage unique humidifié ». Elle conseille par ailleurs de laver ses fruits et légumes à l’eau potable et de cuire ses aliments à cœur à au moins 70°C.

Quels sont les risques des incendies dans la zone d’exclusion de Tchernobyl ?

François Besnus est directeur de l’environnement à l’Institut de radioprotection et de sûreté nucléaire (IRSN), le bras technique de l’Autorité de sûreté nucléaire (ASN) française. Igor le Bars est adjoint au directeur expertise de sûreté à l’IRSN. L’Institut est notamment chargé du suivi de la radioactivité dans l’environnement, et donc du réseau de balises Teleray afin d’assurer cette tâche en France. Un suivi assuré également en partenariat au niveau européen. Dès que des traces anormales de radioactivité sont détectées dans l’air quelque part en Europe, un réseau informel d’experts, appartenant à des organismes publics tels que l’IRSN, se mobilise pour en localiser l’origine et évaluer les risques pour la population. C’est dans ce cadre qu’intervient l’IRSN à l’aune des gigantesques incendies qui ravagent la zone d’exclusion de la centrale accidentée de Tchernobyl, en Ukraine.

Techniques de l’ingénieur : Quelle est la situation globale sur le site ? Et qu’est-ce qui pose problème ?

François Besnus : Après une pause dans les incendies, depuis la dernière note de l’IRSN du 15 avril, les feux ont repris, avec un très gros foyer d’incendies situé à environ 70 km à l’Ouest de la centrale de Tchernobyl, s’étalant sur 25 km vers l’Ouest. Cela représente une superficie totale d’environ 220 km² (22 000 ha). Par ailleurs, un autre foyer important d’incendies a été réactivé à environ 30 km à l’Ouest de la centrale de Tchernobyl en limite de la zone d’exclusion. Enfin, deux foyers mineurs sont notés dans la zone d’exclusion à environ 2 km de la centrale.

Deux questions se posent. D’abord, un risque de remobilisation de la radioactivité présente sur le site de la zone d’exclusion, par rapport à l’environnement qui a été brûlé. La problématique à prendre en compte est : quelle est la quantité de radiation ? Et y-a-t-il un nuage radioactif secondaire (à cause des fumées des incendies) ? Ainsi que les impacts associés à ces dégagements.

La deuxième question soulevée est plus particulière au site contaminé : quelles inquiétudes sur les effets des feux sur place ? Il existe en effet de nombreux dépôts sur le site et hors site de la centrale. Certains de ces dépôts sont dans la zone des foyers, qui sont très très importants.

Quels sont les risques à la fois sur le site et à l’extérieur ?

FB : Les incendies étant très importants, si les installations sont dans des flammes d’une telle intensité, il y a des risques de dispersion de la radioactivité. En général, on applique les règles de base de la sûreté : dégager les alentours en déboisant afin de disposer d’une zone où il ne peut pas y avoir d’incendie.

C’est le cas notamment autour de la centrale accidentée. Il y a au moins un kilomètre déboisé autour de ce bâtiment. Même quand les feux peuvent « transporter » des particules incandescentes, ce phénomène est limité à quelques centaines de mètres.

C’est la même chose pour les bâtiments qui sont proches de l’installation, donc qui ne sont pas dans une zone forestière, comme la piscine d’entreposage des combustibles. Il existe en outre une casemate bétonnée, qui accueille des déchets de nettoyage lors et après l’accident. Il s’agit donc de déchets qui peuvent être de haute activité. Néanmoins, le béton doit suffire à les protéger des feux. En outre, ces installations ne sont pas loin de la centrale accidentée, donc a priori pas dans une zone forestière (même si les arbres ont repoussé dans certains endroits qui avaient été déboisés après la catastrophe de 1986).

Par ailleurs, il existe un site de stockage en tranchées, Buriakovka. Ce site contient essentiellement des déchets de faible et moyenne activité. Il s’agit certes de déchets mis en tranchées, mais celles-ci sont recouvertes par une couche d’argile conséquente, empêchant une migration.

Enfin, le risque le plus certain est celui de neuf sites de stockage en tranchées, mais des sites recouverts de sable uniquement et peu profonds, qui peuvent être dans des zones de feux. Ces tranchées ouvertes pour des besoins immédiats post-accident contiennent à la fois des équipements, des véhicules et tout un tas de matériel contaminé. Mais sur ces sites, la forêt a repoussé. Il y a certes une surveillance de ces zones (car s’il y a neuf sites, il faut s’imaginer que cela consiste en de multiples tranchées à chaque fois), mais celle-ci ne semble pas très « robuste ». Il est aujourd’hui pour nous difficile d’exclure que ces entreposages n’ont pas été atteint.

Igor Le Bars : S’il est certain que la piscine centralisée qui accueille les combustibles des réacteurs 1 à 3 de Tchernobyl, c’est-à-dire ceux qui n’ont pas été accidentés, est dans une zone de déforestation, la problématique ne peut pas survenir avec les flammes. En revanche, ce qui est à suivre, c’est la perte d’alimentation électrique. Mais cette piscine a soutenu les scénarios des stress-tests lancés par l’Union européenne après Fukushima. Il existe des diesels de secours, dont selon les normes les combustibles doivent être protégés. Les combustibles entreposés devraient être transférés à partir de cette année dans une nouvelle installation de stockage à sec.

En cas de perte d’alimentation électrique, l’analyse issue des stress-tests a montré qu’en l’absence de refroidissement de la piscine, la température de l’eau pourrait monter jusqu’à 60°C, ce qui n’est pas susceptible de remettre en cause la sûreté de l’installation.

L’alimentation électrique pourrait constituer aussi un enjeu en cas de perte de lignes qui, elles, traversent la forêt. C’est un scénario considéré, d’où les diesels de secours. Par ailleurs, sur la centrale accidentée elle-même, encapsulée dans un sarcophage, la protection est conçue pour pouvoir fonctionner en « statique » c’est-à-dire sans ventilation assistée. De même, pour les casemates de béton accueillant les déchets à plus haute activité, le risque a été pris en compte pour les études de sûreté en amont de la conception.

FB : A ce jour, notre analyse consiste à dire que si les déchets les plus dangereux (ceux des casemates ou de la piscine accueillant des combustibles retirés des réacteurs de Tchernobyl) avaient été atteints, la radioactivité aurait été détectée. Pour le moment, il n’y a pas de relâchement important constaté.

Les relâchements aujourd’hui, « le nuage », sont attribués à la combustion de la forêt (contaminée). Et ledit nuage se déplace, mais en se diluant. Les dernières indications montrent que celui-ci se déplacerait dans les jours à venir vers l’Est-Sud-Est.

Le principal élément radioactif que l’on retrouve est le césium, qui est mesuré. Mais, quelques mesures indiquent aussi la présence de strontium. Toutefois, pour l’heure, les résultats du suivi montrent que l’impact est faible, voire extrêmement faible. De même, l’estimation de l’impact résultant de « l’inhalation » de la radioactivité transportée par les masses d’air arrivant en France montre qu’il reste non significatif et sans conséquence sanitaire.

Photo de Une : Zone d’exclusion de Tchernobyl

Industries : la formation en réalité virtuelle entre dans les habitudes

La formation en réalité virtuelle a révolutionné l’apprentissage de nombreux métiers et les industries ne dérogent pas à la règle. Pour en savoir plus, Techniques de l’Ingénieur a rencontré Indira Thouvenin, enseignante chercheuse au laboratoire Heudiasyc UMR CNRS de l’Université de Technologie Compiègne. Spécialiste des environnements virtuels intelligents, elle a été présidente entre 2011 et 2015 de l’Association française de Réalité Virtuelle, Augmentée, Mixte et d’Interaction 3D (AFRV) et est membre de la toute nouvelle Association française de toutes les réalités virtuelles (AFXR). Avec son équipe, elle a travaillé sur la formation à la production et la formation au geste technique en milieu industriel.

Techniques de l’Ingénieur : Certaines industries se prêtent-elles mieux que d’autres à la formation par réalité virtuelle ? 

Indira Thouvenin : Oui, c’est le cas des usines de production, notamment. Il peut s’agir par exemple de formations sur des machines. L’évolution de ces systèmes se fait rapidement et la formation “sur le tas” ne suffit plus. La réalité virtuelle laisse l’apprenant commettre des erreurs et réessayer, sans risques, grâce à la création d’un jumeau virtuel. Cette maquette virtuelle, selon l’objectif recherché, représente en 3D l’usine ou la machine. Si l’on veut former sur un processus par exemple, ce sera une maquette virtuelle d’usine car il faut donner à l’apprenant la possibilité d’aller d’une machine à l’autre, de se déplacer dans les couloirs, tout en respectant les mesures de sécurité.

Quels sont les critères pour mener à bien une formation en réalité virtuelle (RV) ? 

Le matériel comme le casque de réalité virtuelle en lui-même n’est que la coquille. Ce qui compte le plus est la qualité du contenu pédagogique. Avec mon équipe, nous avons interrogé les formateurs et avons essayé de prendre en compte les différentes catégories de public formé. Nous devons adapter le contenu pédagogique selon que les apprenants sont des novices ou s’ils souhaitent seulement perfectionner ou mettre à jour leurs connaissances. Ces formations en réalité virtuelle peuvent se présenter comme des séquences de plusieurs jours sur plusieurs semaines, mais dans le cadre de ces formations nous ne coupons pas l’apprenant de la réalité : il revient fréquemment se former dans l’usine, et nous parlons alors de formation hybride. Généralement, les formations en RV se déroulent dans une école de formation située à proximité de l’usine. Elle se fait toujours en présence du formateur : on ne le remplace pas, on lui donne simplement le support technique. La formation en elle-même peut se dérouler selon plusieurs cas de figures : tous les apprenants peuvent être en réalité virtuelle ou alors cela peut être en collaboratif, c’est-à-dire qu’une personne porte le casque de réalité virtuelle et les autres observent sa progression. 

Qu’en est-il de la conception de la formation en RV ? 

La conception de la formation se fait à l’aide de maquettes qu’on va tester et améliorer, en co-conception avec les experts du domaine. Il faut ensuite tester la formation en elle-même : combien de temps il faut pour la compléter, comment elle évolue, réaliser des data analytics sur les difficultés rencontrées par les testeurs… La mise en place d’une formation en RV prend plusieurs mois. Si l’on prend l’exemple d’une formation sur l’utilisation d’une machine, il faut que l’industriel ait la possibilité de dégager du temps pour contribuer à la co-conception mais il ne peut pas non plus geler l’activité de ses équipes… Et plus l’outil est complexe, plus il y aura des discussions entre les différents acteurs.

La formation en RV se sont-elles démocratisées dans l’industrie ? 

Absolument. Nous avons observé que le coût des formations classiques a été divisé par au moins deux et sa durée par deux voire trois lorsque l’on utilise la RV ce qui rend cette technologie accessible pour un industriel. Nous remarquons aussi que dès le début de la formation par la RV les apprenants comprennent vite le système virtuel. Et même si cela constitue toujours un investissement considérable, il est aussi très profitable et les générations à venir y sont habituées. Quand on parle de jeux-vidéos, le coût de développement est rentabilisé car ils attirent des millions d’utilisateurs et sont donc exploités et vendus massivement. Alors qu’une formation en RV demande un environnement virtuel très complexe avec parfois quelques dizaines d’utilisateurs par an : la conception est spécifique et donc plus chère selon les cas. Cependant, les industriels restent gagnants puisqu’ils réfléchissent en terme de coût global : ces formations le réduisent puisqu’elles génèrent moins d’accidents et moins de rebuts dans la production finale, qui sera optimisée. De plus, on prend en compte le niveau d’employabilité des opérateurs formés dans le numérique grâce à la RV, ce qui est un facteur important pour leur futur.

Aujourd’hui, en pleine crise sanitaire liée au Covid-19, le télétravail est de mise pour de très nombreux travailleurs en France et dans le monde. Est-il possible de recourir à la formation en réalité virtuelle en étant confiné chez soi ? 

Je pense que c’est largement faisable si la séquence de formation a été prévue en ce sens. Et tant qu’un formateur est présent à distance ! Le formateur répondra ainsi aux questions de plusieurs apprenants à la fois. Dans ce cas, l’idéal chez soi serait de délimiter un endroit où l’on peut bouger pendant la formation en RV, c’est-à-dire une sorte de périmètre de sécurité qui ressemblerait aux rubans que l’on trouve dans les musées. Et en RV, le formé pourra apprendre les différentes zones dans l’usine par exemple, en explorant une maquette virtuelle, et il faudra que cette progression soit suivie par le formateur à l’aide de quizz et de questionnaires. 

Selon vous, quelles améliorations technologiques faut-il encore effectuer pour optimiser la formation en RV ? 

Il faut travailler encore sur les aspects cognitifs. Par exemple, quand on est formé en RV à la réparation d’une éolienne en haut d’une plateforme, il faut que ce soit assez réaliste pour donner une sensation de peur du danger. Un autre exemple : un apprenant qui se forme en RV à aiguillonner un TGV devrait entendre le son 3D du train à l’approche. Les retours sensoriels sont en effet très importants et se manifestent sous la forme de visuels en 3D, de sons, de sensations haptiques, ou encore par la proprioception ou perception du corps qui est par exemple à l’oeuvre dans les nacelles des simulateurs de vol. Il faut également donner à l’apprenant conscience de la précision de ses gestes techniques, et cela peut être réalisé avec des algorithmes d’intelligence artificielle en formation adaptative temps réel. Ces algorithmes calculent la distance entre le geste réel et le geste expert et assistent ainsi l’apprenant pour améliorer la précision de son geste. Mais il ne faut pas que l’IA se transforme en GPS du mouvement car l’apprenant peut devenir dépendant du GPS. Il faut donc peu à peu réduire cette assistance pendant la formation. 

Quel est l’objet de vos travaux de recherche portés sur le retour sensoriel ? 

Avec mon équipe, nous travaillons sur un type de retour sensoriel très particulier. C’est le projet SocialTouch (financé par l’ANR). Le but est de comprendre et d’évaluer le toucher social entre l’humain et un agent conversationnel. Il s’agit d’un agent conversationnel incarné (humain virtuel, un peu comme un avatar) qui vient vous toucher et qu’on peut aussi toucher, et la question est de traduire ce que c’est que d’être touché par cet humain virtuel et quelle réaction il aura une fois touché par l’utilisateur humain. Ce projet demande l’utilisation d’interfaces sensorielles adaptatives, d’IA, de retours sensoriels liés à la robotique… Cet avatar virtuel est une forme transparente 3D intangible et il faut être équipé d’une petite veste haptique, car sinon comment être touché par quelque chose d’intangible ? Sachant qu’on a préféré une veste à un exosquelette haptique car celui-ci serait très lourd à porter et à manipuler. Et du côté de l’avatar : quand on s’approche de lui, un calcul de collision se réalise et l’agent conversationnel reçoit l’information géométrique selon laquelle il a été touché sur la main par exemple, et selon notre geste et son intensité il se mettra alors à bouger, ou à parler, ou encore il manifestera de la colère ou sera réconforté… Cet agent conversationnel peut toucher l’utilisateur pour le réconforter par exemple ou encore il peut être présent pour nous empêcher de prendre des risques en environnement virtuel et ainsi limiter les accidents (virtuels). Quand on est dans un monde virtuel, on parle du concept de présence : pourquoi par exemple quand on est en RV fait-on le tour d’un pupitre virtuel au lieu de passer au travers ? C’est une question qui est elle aussi au centre d’études en sciences cognitives, sur lesquelles nous nous appuyons pour concevoir des environnements virtuels intelligents.   

Propos recueillis par Intissar El Hajj Mohamed

Vous pouvez vous inscrire ici à notre Webinar sur la réalité virtuelle avec notre invitée Indira Thouvenin. Il sera diffusé en direct le 23 avril à 14h30. Vous pourrez également le voir en replay par la suite.     

Une bactérie capable de décontaminer les eaux radioactives

Des chercheurs du CNRS ont mis en évidence la capacité d’une cyanobactérie, encore appelée algue bleue en raison de sa couleur, à piéger certains isotopes radioactifs même en présence d’une d’eau riche en calcium. A l’origine de leurs travaux, une propriété de certaines de ces bactéries, capables de minéraliser le calcium pour former du carbonate de calcium solide. Plus largement, toute la famille des alcalino-terreux peut potentiellement être transformée en granules carbonatés car leurs éléments chimiques présentent des propriétés quasi-identiques. C’est-à-dire, en plus du calcium : le baryum, le strontium et le radium. Or, le strontium-90 et le radium-226 sont deux isotopes radioactifs.

99% des radionucléides piégés

« Nous avons réussi à isoler de son milieu la bactérie Gloeomargarita lithophora puis à la cultiver en laboratoire, explique Karim Benzerara, chercheur au CNRS à l’Institut de minéralogie, physique des matériaux et cosmochimie (IMPMC). Nous avons découvert qu’elle est capable de concentrer, à l’intérieur de ses cellules, des éléments plus lourds que le calcium comme le radium et le strontium. Même lorsque la solution contient une concentration un million de fois plus élevée en calcium qu’en strontium et radium, cette bactérie incorpore préférentiellement ces deux derniers éléments ». Une découverte importante puisque les dispositifs actuels pour piéger ces éléments radioactifs saturent rapidement et deviennent inefficaces en présence d’une trop forte concentration en calcium.

Image colorisée en microscopie électronique à balayage d’une cellule (gris) de Gloeomargarita lithophora contenant des inclusions intracellulaires (grains clairs/jaunes) de carbonate de calcium /Karim Benzerara & Stefan Borensztajn

L’équipe de chercheurs révèle que 99 % des radionucléides sont piégés par les cellules de cette cyanobactérie Gloeomargarita lithophora et sont ainsi biominéralisés dans des granules carbonatés. Inversement, lorsqu’elle est absente ou que d’autres espèces de cyanobactéries sont ajoutées, la quasi-totalité des radionucléides reste dans la solution. Autre résultat significatif : la bactérie continue son processus de stockage alors même que des isotopes radioactifs s’accumulent à l’intérieur de ses cellules. « Sa capacité à fonctionner ne s’altère pas, souligne le chercheur. Elle ne paraît pas stressée et l’ensemble de son organisme semble préservé. »

Ces travaux pourraient aboutir par la mise en œuvre d’un nouveau procédé de dépollution des eaux contaminées en strontium et en radium radioactifs. La recherche doit tout de même se poursuivre afin de mieux comprendre le mécanisme de cette bactérie qui vit dans les lacs et les étangs. « Parmi nos interrogations, nous souhaitons connaître la teneur maximale en éléments radioactifs qu’elle est capable d’assimiler, en combien de temps et à quelle température », ajoute Karim Benzerara.

Une décroissance radioactive en 16 000 ans

Une fois les isotopes piégés, la méthode pour réduire leur radioactivité reste la même que celle actuellement pratiquée. Il est nécessaire de stocker à l’écart cette matière inerte radioactive durant de très longues années. « La bactérie présente l’avantage de concentrer davantage ces éléments et donc de nécessiter un volume de stockage moins important qu’habituellement », analyse le chercheur. Compter au moins 300 ans pour voir décroître de 99,9% la radioactivité du strontium-90 et au minimum 16 000 ans pour le radium-226. Le premier est issu de la fission nucléaire et peut être libéré accidentellement dans la nature par des centrales nucléaires comme lors des catastrophes de Tchernobyl et de Fukushima. Même à des concentrations très faibles, il est dangereux car il s’accumule dans les organismes en se fixant préférentiellement sur les os. Le second est un isotope naturellement présent dans la nature, principalement dans les roches et les sols. Il peut se retrouver à des niveaux de concentration élevés dans les eaux de surface à proximité des mines d’uranium.

L’aval du cycle nucléaire dans la crise du Covid-19

En France, où le choix a été fait de retraiter les combustibles, deux aspects de la question du cycle nucléaire sont à prendre en compte. D’une part, la gestion des déchets nucléaires et d’autre part, celle des combustibles usés et de leur retraitement. En effet, si l’arrêt des productions « non vitales » à la production d’électricité impacte partiellement la gestion des déchets nucléaires ultimes, celle des combustibles usés est dépendante de la production d’électricité.

EDF « produit » en effet des combustibles usés, qui doivent être retraités par l’entreprise Orano, chargée de la gestion de l’amont du cycle nucléaire (fabrication de l’uranium enrichi nécessaire à la fabrication du combustible), mais aussi de l’aval, via le retraitement des combustible à la Hague, avant de pouvoir en refaire du combustible retraité Mox (oxyde mixte d’uranium et de plutonium). Le combustible usé est « évacué » des centrales après passage en piscine sur le site des centrales, mais cela se fait « au fil de l’eau » afin de ne pas engorger qui des piscines des réacteurs, qui des piscines de stockage d’Orano, notamment à La Hague. Ce qui explique la double problématique : évacuer une partie des déchets ultimes et continuer l’évacuation des combustibles usés. Sachant que EDF vise également, pour maintenir un nombre suffisant de réacteurs en fonctionnement et répondre à la demande (laquelle a reculé d’environ 15 % quand même), à faire en sorte que les « arrêts de tranche » pendant lesquels le combustible est déchargé, ne soient pas tous repoussés à des dates coïncidant avec les arrêts programmés (pour maintenance ou pour visite décennale, une obligation légale) ou à une période de forte demande (l’hiver, pour faire simple).

Ainsi, signale l’Autorité de sûreté nucléaire dans un communiqué, « de nombreuses installations nucléaires dont le fonctionnement n’est pas indispensable à la continuité de l’activité du pays, exploitées notamment par le CEA, Orano ou l’Andra, ont été mises à l’arrêt et sont maintenues en état sûr. La plupart des chantiers, notamment de démantèlement, ont été suspendus. Orano a maintenu des activités nécessaires au fonctionnement des centres de production d’électricité nucléaire d’EDF en matière d’évacuation des combustibles usés, de retraitement, et d’approvisionnement des usines de production du combustible neuf. »

Stockage des déchets ultimes

L’Andra (Agence nationale pour la gestion des déchets radioactifs) « a pris la décision de revoir l’organisation de ses activités, au sein de son siège social à Châtenay-Malabry et sur ses installations de l’Aube, de la Manche et de Meuse/Haute-Marne », les trois sites de stockage des déchets nucléaires ultimes, selon son communiqué. « Des dispositions ont été prises pour garantir les moyens nécessaires aux missions essentielles de l’Agence, en particulier celles relatives à la sécurité des sites et la surveillance des installations et de l’environnement. Nos agents sont mobilisés pour maintenir notre capacité à recevoir et collecter des déchets en particulier du secteur hospitalier et des installations de production d’électricité », signale l’Agence.

En résumé, les autres déchets, notamment ceux provenant des activités du CEA (Commissariat à l’énergie atomique et aux énergies alternatives) et ceux des sites non nécessaires à la production d’électricité, sont stoppés, sauf nécessité.

Combustible usé

Orano signale dans son communiqué que « grâce à l’engagement et à la mobilisation de [ses] salariés, les activités d’Orano nécessaires à la production d’électricité ont pu se poursuivre totalement ou partiellement ». C’est le cas sur les sites de Malvési (chargé de la conversion de l’uranium), du Tricastin (enrichissement de l’uranium). C’est aussi le cas à Melox (fabrication du combustible), et, pour certaines activités de la Hague (reprise des combustibles usés pour le retraitement), pour l’ingénierie, les activités de services pour certains de nos clients dont EDF, sans oublier les actifs à l’étranger (notamment les mines d’uranium). Après la menace d’une grève des personnels à la Hague, la voilure a été adaptée, mais le combustible est retraité.

Le spécialiste du retraitement des combustibles rappelle que « cette crise sanitaire montre combien la filière nucléaire est stratégique pour garantir la continuité de la production d’électricité dont l’approvisionnement est indispensable pour nos concitoyens. Dans un contexte de crise mondiale et de déstabilisation de nos fondamentaux que nous pensions immuables, Orano reste engagé auprès de ses clients électriciens du monde entier. »

Prévention d’urgence et coronavirus

Dans un article récent publié par Techniques de l’Ingénieur, j’ai exprimé un avis sur les risques associés à la fabrication d’équipements médicaux et de protection contre l’épidémie de coronavirus, fabrication utilisant les technologies de fabrication additive. En particulier, il me paraissait essentiel que les pièces réalisées soient propres, ne portant pas à leur surface la moindre trace de COVID-19, de manière à intégrer de manière satisfaisante les éléments fabriqués dans les dispositifs d’évitement et/ou de soins. 

De mon côté, j’ai demandé à nombre de collègues scientifiques s’il existait des méthodes simples de nettoyage des pièces comme le mélange hydro-alcoolique ou le savon utilisés pour les mains. En dehors de l’usage de radiations de haute énergie, de fabrication d’espèces réactives de l’oxygène, ou de traitements chimiques et thermiques un peu savants qui ne sortent pas de la culture plutôt mono-disciplinaire des chercheurs, je n’ai pas trouvé de solutions « alternatives » simples dans ce qui m’a été proposé…

Par « alternatives », je fais allusion au projet du Gouvernement d’autoriser l’usage de masques « alternatifs » comportant plusieurs couches filtrantes pour faire barrière au virus tout en permettant une respiration convenable. Ce n’est pas de mes compétences de dire comment réaliser de tels masques (qui n’ont pas de lien évident avec la fabrication additive), mais il existe des directives ou des recommandations des CHU de Grenoble ou de Lille, ou le très complet cahier des charges de l’Afnor (2020). En effet, chacun sait qu’il y a une pénurie massive de masques en raison de la pandémie COVID-19, et ce, pour une durée non déterminée. La priorité est donnée, à juste titre, aux masques qualifiés pour les travailleurs de la santé, les malades et les personnes âgées. 

L’anticipation, tout le monde en est d’accord, a été pour le moins modeste. Que n’ai-je entendu en tant que membre (à l’époque) du Haut Conseil de la Santé Publique sur l’épisode dispendieux de la grippe H1N1 qui avait conduit Madame Bachelot à commander environ 80-100 millions de vaccins pour une épidémie qui s’est révélée limitée. Le souci de précaution avait conduit à des décisions considérées comme disproportionnées et ruineuses. Et aujourd’hui, où en sommes-nous avec la pénurie d’équipements à finalités diverses mais pour le même but de survie aux effets du virus ?

Quand on ne peut pas se procurer un « vrai » masque (qu’il faudra jeter après usage), il faut bien en fabriquer un de différentes manières parce qu’une certaine protection, même non optimale, est préférable à son absence. Mais, pour autant, il convient de disposer d’un minimum de confiance dans ces équipements, non seulement dans le confinement qu’ils autorisent, mais aussi dans l’absence initiale de virus. De manière surprenante, les conseils « éclairés » d’un Président actuel des Etats-Unis sur la suppression de la pandémie durant l’été prochain m’a mis sur la voie ! En fouillant dans ses nombreux tweets (11000 environ), peut-être trouverez-vous d’autres solutions ?

Alors, plutôt que de chercher des méthodes et des procédés hors de portée des citoyens, je suis retourné à la bibliographie scientifique. Depuis une vingtaine d’années, différents virus de la même famille que celui qui perturbe la planète aujourd’hui ont fait l’objet d’études approfondies. Mais en fait, très peu ont concerné l’effet de la température sur le devenir de l’efficacité du virus. Au moins trois publications confirment la pensée de ce leader d’Outre-Atlantique, celles de Chin et al (2019), de Franz et al (2018) qui signalent que les virus qu’ils ont étudiés sont détruits en moins d’une minute par chauffage à 70°C. Celle de Chan et al (2011) indique également un effet de la température allant dans le même sens, mais avec des expérimentations limitées à 38°C. Depuis, mon réseau d’amis a fonctionné et a complété ma quête : Pour Duan et al (2003), le virus du SRAS serait détruit après un chauffage de 30 minutes à 75°C ; pour Yunoki et al (2004), l’inactivation serait produite à 60°C pendant 60 minutes ; enfin, pour Henwood, un traitement thermique classique à 56°C devrait suffire… Il y a donc, au moins en partie, de quoi rassurer le citoyen, sans que, pour autant, on dispose de données considérées comme robustes par le corps médical pour assurer de l’inactivation effective du virus.

Sur de telles bases qui auraient bien besoin d’être validées par le corps médical pour le COVID19, il est possible d’envisager la fabrication artisanale de masques telle que définie par exemple par l’Afnor, masques réalisés dans des conditions de propreté également proposées, mais avec, en plus, un moyen complémentaire d’assurer l’absence initiale du virus. Avec des masques en tissus, lavables, le recyclage peut être envisagé dans les mêmes conditions. Il pourrait en être de même pour d’autres équipements (dont ceux réalisés par fabrication additive, mais pas uniquement) pour autant qu’ils ne voient pas leurs fonctionnalités modifiées par la température. Ce ne sont pas les étuves qui manquent chez soi ou dans les milieux hospitaliers et/ou industriels ! Peut-être même, si l’on n’est pas rigoureux sur la température, que les fours µondes pourraient convenir (mais c’est sans doute à valider). Ces résultats ouvrent sans conteste de nouveaux horizons.

Mais, ce que je continue à penser, c’est qu’il ne faut pas être trop confiant dans un masque fait maison, même traité dans le four de sa cuisinière pendant quelques minutes (voire un peu plus) à une température supérieure à 70°C ! Il vaut mieux sécher le masque non pas pour le seul virus (qui malgré tout se plait mieux dans l’eau que dans l’air d’après la littérature), mais pour sécher le masque si on souhaite le recycler de manière rapide et simple (l’eau issue de la respiration est responsable de l’augmentation de la perte de charge ressentie au bout de quelques dizaines de minutes). Dans ce cadre d’utilisation, il serait avantageux qu’une traçabilité minimale soit exigée (sans qu’il soit nécessaire, sous prétexte de facilité, d’imposer un contrôle Orwellien via son téléphone portable). Les protections collectives (quand elles existent) doivent rester prioritaires ; en tant qu’équipement de protection individuel, le masque « fait maison » ou recyclé par chauffage ne doit être utilisé qu’en dernier recours (parce que, il faut le répéter, l’on n’a rien d’autre comme équipement de protection) et avec parcimonie. Par parcimonie, j’entends inclure le lavage des mains, le maintien chez-soi comme premières lignes de défense en premières priorités et non en secondes. 

Avec environ 70 millions d’habitants, 2 à 4 masques jetables par jour, il faudrait pour une sortie de crise de 1 mois entre 5 et 10 milliards de masques. Je ne suis pas sûr de leur disponibilité à temps, nous sommes juste réduits à suivre le chaos de décisions hésitantes, comme celles d’expliquer encore aujourd’hui que les masques sont inutiles voire dangereux, alors que la « doctrine » semble vouloir changer. Où est la rationalité dans cette affaire d’importance ? La transparence ? Le bon sens politique s’appuyant sur de la science (avec conscience ?) ? Alors, vous, les spécialistes scientifiques des protections individuelles et du traitement des virus aidez-nous à y voir plus clair pour sortir le plus vite possible de cette crise majeure dans les conditions les plus intelligentes possibles. 

Désinfection contre stérilisation 

La plupart des dispositifs (dont ceux fabriqués par la communauté de l’impression 3D) n’ont pas tous besoin d’être stérilisés, ce qui impliquerait de placer les pièces dans un autoclave et de les exposer à de la vapeur saturée sous pression à des températures d’environ 121 °C (250 °F) pendant environ 15 à 20 minutes selon les procédures classiques. En outre, tous les dispositifs médicaux imprimés ou fabriqués par d’autres voies, en réponse au virus, doivent être désinfectés par le personnel de santé, ce qui peut impliquer l’immersion dans une solution d’eau et d’eau de javel domestique ou l’essuyage avec de l’alcool, mais cela dépend du dispositif et de son application. Les masques N95 de filtration de l’air se dégradent lorsqu’ils sont exposés à l’alcool, mais peuvent être désinfectés dans (et par) les milieux médicaux par une chaleur chaude et humide et par une irradiation germicide aux ultraviolets ou par la vapeur de peroxyde d’hydrogène. Ce genre de processus, lorsqu’il est entrepris, ne doit pas être improvisé et doit être contrôlé aussi étroitement que possible. La solution d’urgence ici proposée en est donc bien éloignée, mais sait-on proposer mieux ? 

Alors, cette proposition de chauffage a-t-elle du sens ? Est-elle robuste ?

Pour une fois, j’aimerai bien que le Président Trump nous ait indiqué une voie utile pour limiter les effets du virus ! D’autant plus, que ça peut être relativement facile à réaliser (même s’il m’a fallu plusieurs fois quelques centaines de signes pour rédiger ce point de vue !).

En rappel : Ne quittez votre maison que si vous avez confiance en votre masque acheté dans un magasin sérieux, dans une pharmacie ou en second lieu, en votre masque fait maison, mais à l’intérieur des recommandations gouvernementales.

L’auteur tient tout particulièrement à remercier les Dr. Tallot B. et Legnaghi A. pour leur aide précieuse dans la rédaction de ce document.

Bibliographie : 

Afnor (2020) « Tout sur le masque barrière AFNOR, en France et à l’international » 

André J.C. (2020) « Entre générosité, éthique, coronavirus et impression 3D » Techniques de l’Ingénieur 

Chan K.H., Malik Peiris J.S., Lam S.Y., Poon L.M., Yuen K.Y., Seto W.H. (2011) “The Effects of Temperature and Relative Humidity on the Viability of the SARS Coronavirus” Advances in Virology, ID 734690 

Chin A.W.H., Chu J.T.S., Perera M.R.A., Hui K.P.Y., Yen H.L., Chan M.C.W., Peiris M., Poon L.L.M. (2020) “Stability of SARS-CoV-2 in different environmental conditions” medRxiv (Preprint)

– Duan S.M., Zhao X.S., Wen R.F., Huang J.J., Pi G.H., Zhang S.X., Han J., Bi S.L., Ruan L., Dong X.P. (2003) “Stability of SARS coronavirus in human specimens and environment and its sensitivity to heating and UV irradiation” Biomedical Environment Science, 16, 246-55.

– Franz S., Friesland M., Passos V., Todt D., Simmons G., Goffinet C., Steinmann E. (2018) “Susceptibility of Chikungunya Virus to Inactivation by Heat and Commercially and World Health Organization-Recommended Biocides” The Journal of Infectious Diseases, 218, 1507–1510.

Henwood A.F. (2020) “Coronavirus disinfection in histopathology” Journal of Histo-technology, DOI: 10.1080/01478885.2020.1734718  

Yunoki M., Urayama T., Yamamoto L., Abe S., Ikuta K. (2004) “Heat sensitivity of a SARS‐associated coronavirus introduced into plasma products” VoxSanguinis, 87, 302-303 

Google investit les profondeurs avec ses câbles sous-marins

Pour répondre à la croissance massive du trafic internet mondial, les géants du web investissent les fonds marins en posant leurs câbles de télécommunications. C’est le cas de Google qui a investi dans 14 câbles de télécommunications sous-marins (voir la liste en fin d’article), dont quatre à titre privé. Le premier est brésilien : Junior, 390 kilomètres, relie Rio de Janeiro à Santos. Le deuxième, Curie, mesure 10 000 km et est équipé de quatre paires de fibres optiques de 18 Tbit/s. Il relie Los Angeles (Californie) à la côte pacifique de Valparaiso (Chili).

Le troisième, en cours, a été baptisé Dunant. D’une longueur de 6 600 km, le câble va relier les États-Unis et la France. Le câble transatlantique servira particulièrement aux activités cloud de Google. Il est construit et installé par le groupe américain TE Subcom. Le 13 mars dernier, Orange a annoncé avoir procédé à l’atterrissement du câble transatlantique Dunant à Saint-Hilaire-de-Riez en Vendée. “L’axe Europe-Etats-Unis est une des routes sous-marines les plus importantes du globe avec un besoin de connectivité qui double tous les deux ans”, explique Orange. Le câble aura une vitesse de transmission de 250 Tbit/s, contre un débit moyen de 30 térabits pour ceux déjà en service.

Premier câble des Gafam en France

Avec ce déploiement, Orange va bénéficier de deux paires de fibres optiques d’une capacité pouvant aller jusqu’à 30 Tbit/s chacune, soit de quoi transférer une vidéo de 1Go en 30 microsecondes. Le câble en contient douze. Premier câble sous-marin des Gafam (Google, Apple, Facebook, Amazon, Microsoft) dans l’Hexagone, Dunant sera également le premier à relier les États-Unis à la France depuis plus de 15 ans. Sur les côtes américaines, l’atterrissement reste encore à réaliser, ainsi que la pose du câble dans les profondeurs et l’assemblage des trois parties, pour une mise en service initialement prévue fin 2020.

Le quatrième, Equiano, reliera le Portugal et l’Afrique du Sud en 2021. Aucune information n’est cependant communiquée au sujet de sa longueur. “Le câble Equiano est une infrastructure de pointe basée sur la technologie de multiplexage par division spatiale (SDM), avec environ 20 fois plus de capacité de réseau que le dernier câble construit pour desservir cette région”, affirme Google sur son blog.

Une carte des câbles Google déployés à travers le monde /Google

Des kilomètres de câbles Google à travers le monde

Plus de 400 câbles sous-marins sont en service dans le monde. Google détient ou co-détient 14 partout dans le monde :

Curie – 2019

  • 10 000 km de Los Angeles (Californie) à la côte pacifique de Valparaiso (Chili).
  • Détenu à 100 % par Google.

Unity – 2010

  • 9 620 km de Chikura (Japon) à Redondo Beach (Californie).
  • Co-détenu par Google, Telstra, Singtel, KDDI, Airtel (Bharti) et Time.com

Southeast Asian Japan Cable (SJC) – 2013

  • 8 900 km avec des points d’atterrissement couvrant Chikura (Japon), Chung Hom Kok (Hong Kong), Nasugbu (Philippines), Shantou (Chine), Telisai (Brunei) et Tuas (Singapour).
  • Co-détenu par Google, Globe Telecom, KDDI, Telkom Indonesia, Singtel, China Telecom, TOT, China Mobile, Chunghwa Telecom et Brunei International Gateway.

Faster – 2016

  • 11 629 km de Bandon (Oregon, Etats-Unis) à Tanshui (Taïwan), avec deux points d’atterrissement supplémentaires à Chikura et Shima (les 2 au Japon).
  • Co-détenu par Google, KDDI, Singtel, China Telecom, China Mobile et Time.com

Monet – 2017

  • 10 556 km des Etats-Unis au Brésil, avec trois points d’atterrissement à Boca Raton (Floride), Fortaleza et Santos (les 2 au Brésil).
  • Co-détenu par Google, Angola Cables, Algar Telecom et Antel Uruguay.

Junior – 2018

  • 390 km de Rio de Janeiro à Santos.
  • Détenu à 100 % par Google.

Tannat – 2018

  • 2 000 km de Las Toninas (Argentine) à Santos (Brésil), avec un point d’atterrissement à Maldonado (Uruguay).
  • Co-détenu par Google et Antel Uruguay.

Pacific Light Cable Network (PLCN) – 2019

  • 12 971 km avec des points d’atterrissement à Deep Water Bay (Hong Kong), Aurora (Philippines), San Fernando City (Philippines), Toucheng (Taiwan) et Segundo (Californie)
  • Co-détenu par Google, Facebook et Pacific Light Data Communication

Indigo Central – 2019

  • 4 850 km de Perth à Sydney (Australie)
  • Co-détenu par Google, Superloop, Singtel, Indosat Ooredoo, et le réseau universitaire et de recherche autralien (AARNET)

Indigo West – 2019

  • 4 600 km avec des points d’atterrissement à Jakarta (Indonésie), Tuas (Singapour) et Perth (Australie)
  • Co-détenu par Google, Superloop, Telstra, Singtel, Indosat Ooredoo, et le réseau académique et de recherche autralien (AARNET)

Havfrue/AEC-2 (2019)

  • 7 200 km de Wall Towship (New Jersey) à l’Europe occidentale avec des points d’atterrissement à Lecanvey (Irlande), Blaabjerg (Danemark) et Kristiansand (Norvège)
  • Co-détenu par Google, Facebook, Aqua Comms et Bulk Infrastructure

Japan-Guam-Australia South (JGA-S) (2019)

  • 6 200 km de Piti (Guam) à l’Autraslie avec des points d’atterrissement à Maroochydore et Sydney.
  • Co-détenu par Google, RTI et AARNET.

Hong Kong-Guam (HK-G) (2020)

  • 3900 km à travers la mer des Philippines, avec des points d’atterrissement à Piti (Guam) et Tseung Kwan O (Hong Kong).
  • Co-détenu par Google et RTI.

Dunant (2020)

  • 6 400 km de Virginia Beach (Etats-Unis) à Saint-Hilaire-de-Riez (France).
  • Détenu à 100 % par Google.

Equiano (2021)

  • La longueur de câble n’a pas été indiquée, mais il reliera Lisbonne (Portugal) à Melkbosstrand (Afrique du Sud), avec des points d’atterrissement au Lagos (Nigéria), sur les îles Saint-Hélène (Baie de Rupert), Ascension et Tristan de Cunha.
  • Détenu 100 % par Google.

Photo de Une : Orange a réalisé les travaux d’atterrissement du câble sous-marin de Google /Orange

Impression 3D : Techniques de l’Ingénieur vous aide à combler la pénurie de matériel

Depuis que le Covid-19 a commencé à peser sur le système hospitalier français, de nombreuses initiatives ont émergé pour résoudre la pénurie d’équipements médicaux à laquelle est soumis le personnel soignant.

Une des solutions envisagées est l’impression 3D car les procédés de production classiques sont lourds et ne répondent pas à l’urgence. Il faut produire rapidement du matériel médical pour les équipes de soignants mais aussi des fournitures de protection pour le grand public.

Spontanément, une « communauté de makers », des amateurs équipés d’imprimantes 3D, ont répondu présent pour fabriquer de l’équipement médical de première nécessité comme des visières de protection.

Dans la foulée, les industriels s’organisent pour soutenir cet effort. L’Assistance Publique-Hôpitaux de Paris (AP-HP) a ouvert une unité d’impression 3D au sein de l’hôpital Cochin. Aidé par le groupe Kering, c’est un parc de soixante machines qui a été installé pour fabriquer du matériel médical critique.  Valves pour respirateur artificiel d’urgence, matériel d’intubation et masques pour aider soignants et patients dans le moment compliqué qu’ils traversent.

L’impression 3D est devenue une clé de la lutte contre l’épidémie. Malgré cela, un risque existe dans la fabrication d’équipements inutiles ou de mauvaise qualité. Ces initiatives ne peuvent pas attendre une certification officielle. C’est pourquoi elles sont testés et validées directement par les praticiens et c’est pour accélérer et aider ce processus que nous vous proposons gratuitement les articles suivants :

L’activité de l’homme accroît le risque d’émergence d’agents infectieux

« Cette épidémie, on est allé la chercher », s’exclame Daniel Marc, virologiste à l’INRAE de Tours, à propos du Covid-19 qui se répand actuellement à travers le monde. Ce chercheur pointe du doigt la responsabilité de l’Homme dans l’émergence de maladies infectieuses. En effet, à travers son mode de vie et son impact sur l’environnement, l’être humain multiplie le risque de voir apparaître de nouvelles zoonoses, ces agents infectieux capables de se transmettre de l’homme à l’animal ou inversement.

En se déplaçant sur des territoires peu ou pas explorés, au contact de la faune sauvage, les hommes partent à la rencontre d’une grande diversité animale mais aussi… d’une multitude de pathogènes. Les experts en sont quasiment certains aujourd’hui, le virus SRAS-CoV-2, responsable de la maladie à coronavirus 2019 (Covid-19), trouve son réservoir naturel chez la chauve-souris : 96% du génome du virus correspond à celui d’un virus identifié sur une chauve-souris en 2013. « L’une des pistes envisagées mais qui reste encore à valider serait que le pangolin a servi d’hôte intermédiaire pour ensuite propager le virus chez l’homme », souligne Daniel Marc. Cet animal sauvage, l’un des plus braconnés au monde, s’est ensuite retrouvé sur les marchés chinois et a contaminé la population locale. Avec un risque de contamination d’autant plus accru que l’animal est souvent acheté vivant car, selon une croyance locale, il aurait ainsi de plus grandes qualités nutritives.

Un animal sauvage, vecteur de l’épidémie

En 2003, un autre animal sauvage est à l’origine d’une épidémie liée au SARS-CoV-1 : la civette palmiste masquée. Ce petit mammifère carnivore, vendu sur les marchés aux animaux puis consommé au sud de la Chine, a lui aussi servi d’hôte intermédiaire entre la chauve-souris et l’homme. Le virus, transmissible entre les personnes, a fait relativement peu de morts : environ 800 en six mois. Pourtant, il s’est lui aussi propagé au niveau mondial à la faveur des transports aériens. « À l’époque, la Chine était probablement moins reliée avec le reste du monde » ajoute Daniel Marc. Mais surtout, il a été plus facile d’identifier les malades, car les personnes sont contagieuses uniquement quand elles présentent des symptômes. »

La destruction d’écosystèmes jusqu’ici préservés accroît le risque de survenue de nouvelles épidémies. En 1998, en Malaisie, on soupçonne les programmes de déforestation d’être à l’origine de l’épidémie liée au virus Nipah. Là encore, la chauve-souris a servi de réservoir naturel à l’agent pathogène. Chassé de la forêt tropicale, le chiroptère s’est déplacé vers des exploitations agricoles de la région, là où sont implantés des arbres fruitiers. Les déjections des chauves-souris ont ensuite contaminé les porcs d’élevages voisins avant qu’ils ne contaminent les hommes. Il a fallu une vaste campagne d’abattage des porcs infectés pour stopper l’épidémie.

Avec plus d’un millier d’espèces de chauves-souris différentes recensées à travers le monde, la probabilité qu’elles hébergent des agents infectieux différents se révèle grande. « En allant au contact de cette biodiversité, l’homme ne fait qu’augmenter son risque d’infection », analyse le chercheur. Le chiroptère serait à l’origine du virus Ebola, identifié en 1976 et qui a provoqué de graves épidémies en Afrique de l’Ouest de 2014 à 2016. Bilan : plus de 11 000 morts. Le virus MERS (Middle-East Respiratory Syndrome) a aussi pour réservoir naturel la chauve-souris. Apparu en 2002 au Moyen-Orient, le chameau lui a servi d’hôte intermédiaire et au final, l’épidémie a provoqué plus de 800 morts.

Léopoldville aurait fait exploser l’épidémie de sida

L’urbanisation et le développement de grandes villes sont aussi un facteur de risque de voir émerger de nouvelles épidémies. L’exemple le plus criant serait celui du sida. Les virus, car il existe plusieurs souches, ont pour origine les primates et ont été identifiés au début des années 80. Mais des recherches permettent aujourd’hui d’affirmer qu’ils étaient présents sur le continent africain au début des années 1900. « Pendant près de 80 ans, l’épidémie a circulé à bas bruit », explique Daniel Marc. La chasse et la consommation de chimpanzés n’auraient pas permis, dans un premier temps, la propagation des virus. Mais l’accroissement d’une ville comme Léopoldville (Kinshasa) a vraisemblablement fait exploser l’épidémie à la faveur des nombreux contacts parmi la population et notamment la prostitution. Le transport de matières premières, grâce au fleuve Congo et au développement du chemin de fer, a ensuite favorisé la dissémination du sida en Afrique.

Certains experts estiment que la naissance des maladies infectieuses sur terre s’est produite au cours du néolithique avec la domestication des animaux. D’après l’Organisation mondiale de la santé animale, 60% des maladies infectieuses humaines sont aujourd’hui zoonotiques. « Les épidémies ont traversé les siècles, si elles paraissent se développer ces dernières années, c’est aussi parce que nous disposons depuis les années 2000, de nouveaux outils pour identifier ces agents infectieux, notamment le séquençage de leur génome », modère Daniel Marc.

Le rétrofit : les véhicules thermiques deviennent électriques

Tous les véhicules thermiques de plus de 5 ans et les deux et trois-roues motorisés de plus de 3 ans peuvent désormais être transformés en véhicules électriques. Cela concerne aussi bien les voitures particulières que les véhicules utilitaires, les camions, les bus et les cars. « L’arrêté donne un cadre normé pour montrer que la transformation est faite dans les règles de l’art et ne pose aucun problème de sécurité, précise Aliou Sow, secrétaire général de la Fédération Nationale de l’Artisanat Automobile (FNA). La procédure sera menée par des installateurs agréés, avec des obligations de formation et l’achat d’équipements homologués. »

Des professionnels en mouvement

La FNA représente les métiers du service de l’automobile comme les professionnels de la réparation, du contrôle technique et de la distribution de carburant. Concernant le rétrofit, elle mise en premier lieu sur la clientèle professionnelle en vue d’équiper leurs flottes de véhicules utilitaires. « Le coût de la transformation rapporté à la valeur du véhicule pour le grand utilitaire comme un bus ou un camion reste raisonnable, analyse Aliou Sow. Pour les particuliers, le coût de la transformation reste encore trop élevé pour les citadines, supérieur à 10 000 euros ».  Pour les véhicules anciens, la question du coût est différente. « Il peut y avoir un marché pour les véhicules d’époque », concède-t-il.

L’association AIRe regroupe 11 acteurs du rétrofit français pour tous types de véhicules. À titre d’exemple, Carwatt se spécialise dans les véhicules utilitaires lourds comme les bennes à ordures ménagères, les bus et les véhicules aéroportuaires. Ian Motion et Retrofuture misent sur les voitures anciennes et Transition One sur les citadines et utilitaires récents. Noil se spécialise pour sa part dans les scooters et Newron Motors dans les motos. Enfin, E-Néo et OscarLab se frottent à tous types de véhicules électriques. S’il n’y a pas encore de filière structurée, l’association AIRe souhaite faciliter le développement du rétrofit dans l’Hexagone en formant les personnels dans les garages.

« Avant l’arrêté, le rétrofit se cantonnait à des enceintes privées ou alors les véhicules roulaient de façon illégale, rappelle Gérard Feldzer, co-président de l’association AIRe et président de Carwatt. L’arrêté rend le rétrofit légal pour tous types de véhicules équipés de dispositifs homologués jusqu’au véhicule utilitaire de 3,5 tonnes qui empruntent le domaine public. »

Vers la structuration du marché et de la filière

Selon le texte, un dispositif de conversion électrique comprend un groupe motopropulseur, un bloc de batteries et une interface avec le réseau pour le charger. Le cas échéant, il comprend un convertisseur d’énergie transformant l’énergie chimique en entrée en énergie électrique en sortie ou inversement, et toute pièce du véhicule fonctionnant à l’hydrogène, notamment le réservoir.

Les fabricants devront demander un agrément de prototype à l’UTAC pour chaque type de véhicule transformé. « L’entreprise obtient alors l’agrément de prototype qui en découle une homologation par type, précise Jérémy Cantin, président de la branche maintenance-vente, chargé de l’électromobilité à la FNA et président d’E-Néo. L’homologation par type est donnée pour un type de véhicule doté d’un dispositif qui pourra être reproduit par la suite ». Ces dispositifs seront installés par des professionnels de l’entretien et de la réparation automobile habilités par le fabricant. Ils auront suivi au préalable une formation dédiée. A l’issue de chaque transformation, l’installateur fournit une attestation de transformation au fabricant et un certificat de conformité au titulaire du certificat d’immatriculation pour sa mise à jour.

Les installateurs habilités devront vérifier que les conditions de transformation du véhicule sont compatibles avec les exigences en matière de sécurité conformément à son homologation. En plus, ils devront s’assurer que le véhicule à transformer est en bon état mécanique. « Si le choix de la conversion est retenu, le garagiste fait au préalable toutes les révisions nécessaires : les freins, la suspension, la direction, les pneus, etc. », précise Jérémy Cantin.

« Un audit de suivi du fabricant et de trois installateurs au choix de l’autorité est réalisé tous les ans par le laboratoire de l’UTAC », prévoit l’arrêté. En plus, il programme un bilan de l’application des prescriptions dans deux ans pour étudier l’opportunité d’y introduire des modifications.

« Web-découvertes en partenariat avec le Cetim » : découvrez les articles complémentaires en accès-libre pour l’occasion

Cet article précise les connaissances de base nécessaires pour une meilleure compréhension du décapage en milieu aqueux et informe les praticiens des conséquences du choix de la technique utilisée.

L’amélioration des techniques d’usinage est en constante évolution. De nombreuses voies sont étudiées pour améliorer la qualité des pièces fabriquées ou gagner en productivité. Cet article présente des procédés d’assistance en usinage qui consistent à fournir une «énergie» supplémentaire au niveau de la zone de coupe.

L’objectif de cet article est de donner les bases essentielles de connaissances pour comprendre la méthode des éléments finis et pour pouvoir utiliser efficacement un logiciel existant dans le cadre d’un calcul de structure dans le domaine linéaire.

Après avoir présenté le contexte et les méthodes classiques de contrôle de la fatigue par émission acoustique (EA), une nouvelle méthode non destructive de détection spécifique de la propagation de fissures de fatigue est exposée à partir de multiplets acoustiques : signaux d’EA répétitifs, aux formes d’ondes quasi identiques. Des perspectives de contrôle en service sont ensuite proposées.

Cet article présente l’approche de l’éco-innovation et les différents concepts associés, ainsi qu’un état de l’art des outils qui peuvent accompagner ces processus d’innovation responsable.

Cet article propose une méthodologie d’amélioration continue de la performance globale de l’entreprise industrielle en s’appuyant sur la Théorie des Contraintes, le Lean Management et le Six Sigma

Les biopolymères, dont le plus connu est la cellulose, connaissent depuis quelques années un réel essor du fait de leurs origines biologiques et surtout de leur caractère biodégradable. Leurs utilisations en substitution ou même en mélange à d’autres polymères synthétisés à partir d’hydrocarbures offrent donc des applications intéressantes.

Calculer les caractéristiques mécaniques d’aciers peut servir à contrôler les nouvelles productions, estimer les propriétés des produits finis, ou concevoir de nouvelles nuances. Pour les aciers d’usage général, plusieurs modèles permettent d’évaluer ces caractéristiques

Covid-19 : ces initiatives françaises pour des masques réutilisables

Les masques de protection manquent, mais pas les solutions. Sur la toile, des patrons de masques sont largement partagés pour permettre aux citoyens les réaliser. Sur le terrain, de nombreuses entreprises ont fait appel à des mains expertes pour concevoir les protections individuelles du personnel soignant. D’autres initiatives, en cours de réalisation, s’orientent vers les masques réutilisables.

Réutilisable 100 fois

A l’annonce en mars de la pénurie de masques chez les soignants, une initiative se crée à Grenoble. L’expertise d’une quarantaine de professionnels des mondes de la recherche, de l’industrie et de la distribution engagés dans VOC-COV (Volonté d’Organiser Contre le Covid-19) a permis la conception d’un masque réutilisable 100 fois (5 filtres lavables 20 fois). Baptisé OCOV, il n’est pas de type FF (face filter) P2 mais FM (face mask) P1. Le taux de fuite requis par la norme FM est 5 fois inférieur à la norme FF (<2 % pour FM et <8% pour les filtres FF). Le masque se compose d’une pièce faciale souple qui recouvre le nez, la bouche et le menton, conçue par le Commissariat à l’énergie atomique et aux énergies alternatives (CEA) et fabriquée par Michelin. “Au début, nous avons fabriqué les masques avec une imprimante 3D industrielle HP, explique Philippe Caillol ingénieur-chercheur au CEA en charge du projet Ocov. Mais avec un objectif de production de millions de pièces, il aurait fallu une centaine de machines, et le coût serait exorbitant”. La fabrication a alors été réalisée en injection plastique par Michelin. La pièce faciale souple épouse la forme du visage et minimise donc le taux de fuite vers l’intérieur par rapport aux filtres FFP1 ou FFP2 ou d’autres masques lavables. Le masque de 60g assure une bonne étanchéité entre l’atmosphère ambiante et le visage du porteur (que sa peau soit sèche ou humide et lorsqu’il bouge la tête).

Des filtres remplaçables et réutilisables se place à l’avant, maintenus par deux grilles à verrouillage par baïonnette. Cette brique technologique a été mise au point par Ouvry, une PME lyonnaise spécialisée dans les équipements de protection individuelle NRBC (nucléaire, radiologiques, biologique et chimique). Il s’agit d’une brique technologique utilisée dans son gant de décontamination Decpol, un matériau non tissé “3D” hyper absorbant et filtrant les particules biologiques à travers ses pores. Les filtres pourront ensuite être achetés indépendamment du masque. L’entretien du masque se réalise par désinfection à l’eau de javel ou eau savonneuse et le lavage des filtres en machine à 60°C, séchage tambour. La production a également été confiée à la PME lyonnaise : l’entreprise a d’ores et déjà lancé une présérie de 5 000 masques. L’objectif de capacité de production est d’un million de masques par semaine courant mai, soit plus de 5 millions d’ici fin juin. Michelin a passé commande : 130 000 masques, dont une partie sera distribuée aux Agences régionales de santé. “Le masque est réservé dans un premier temps au secteur public de la santé, de la défense et des grosses entreprises, précise Carole Dougnac, ingénieure R&D chez Ouvry. Ensuite aux particuliers.” L’utilisation dans les hôpitaux est toujours en cours de discussion.

Le masque OCOV® pendant un test de résistance à l’inspiration et à l’expiration sur notre banc de test. Le masque est positionné sur une tête qui simule la respiration, et la machine au second plan mesure les résistance à la respiration. // Ouvry

Plusieurs pistes de recyclage

Dans la course à l’équipement, il y a ceux qui fabriquent et ceux qui recyclent. Le consortium interdisciplinaire mis en place par le CNRS, le CEA, l’Inserm, l’Anses et plusieurs universités et CHU a choisi le deuxième camp. En effet, il explore plusieurs pistes de “recyclage” des masques chirurgicaux et FFP2, devant être jetés quelques heures après utilisation. Ainsi, les différentes équipes comparent les avantages de différentes méthodes de “recyclage”, telles que le lavage avec détergent à 60 ou 95°C, le passage en autoclave à 121°C pendant 50 minutes, l’irradiation par rayonnements gamma ou bêta, l’exposition à l’oxyde d’éthylène et le chauffage à 70°C en chaleur sèche ou humide, ou dans l’eau.

Dans une interview pour le site du CNRS, Philippe Cinquin, le professeur en santé publique et directeur du laboratoire Techniques de l’ingénierie médicale et de la complexité donne les résultats préliminaires de ces études, “susceptibles de changer”. En résumé, les masques chirurgicaux conservent leurs performances après un lavage à 95°C, une perte d’efficacité de filtration inférieure à 2 % pour l’autoclave et les rayons gamma, une conservation des performances de masques FFP2 lors du traitement à l’oxyde d’éthylène et une destruction efficace de la charque virale sur les masques chirurgicaux et FFP2 en chaleur sèche à 70°C. L’enjeu de ces tests sera de “définir pour les deux types de masque la meilleure méthode de traitement et de procéder à des études croisées afin de s’assurer que les masques décontaminés préservent leur qualité” précise Philippe Cinquin. L’objectif : sélectionner pour les deux types de masque la méthode la plus adaptée pour une mise en application à grande échelle. “De fait, si on peut imaginer un traitement par autoclave au sein des CHU, une irradiation ou une exposition à l’oxyde d’éthylène nécessitera un processus plus centralisé” ajoute-t-il. D’autres sources sont également à l’étude : la vapeur de peroxyde d’hydrogène, les ultra-violets C, voire le plasma d’oxygène.

Les industriels se reconvertissent

De nombreuses industries se sont également investies dans la fabrication de masques réutilisables.  Pour ce type de masques, l’Agence nationale de sécurité du médicament et des produits de santé (ANSM) avec le soutien de l’ANSES, a d’ailleurs créé deux nouvelles catégories : les masques à l’usage des professionnels en contact avec le public et les masques de protection à visée collective pour protéger l’ensemble d’un groupe. “Plusieurs centaines d’entreprises et groupements d’entreprises ont d’ores et déjà proposé des solutions alternatives. Ces propositions ont fait l’objet de tests conduits par la DGA, conduisant au 30 mars à la validation de 85 prototypes proposés par 45 entreprises répondant aux exigences respectives de ces deux catégories” précise le Ministère de l’économie et des finances. C’est le cas de Thuasne, spécialisée dans les dispositifs médicaux, qui a mobilisé début avril une partie de son outil industriel pour la production de masques filtrants et respirants, en conformité avec les normes Afnor (SPEC S76-001) et certifiés Reach ou OEKO-TEX. “Ces masques barrières sont destinés à l’usage de personnes saines ne présentant pas de symptôme clinique d’infection virale et n’étant pas en contact avec des personnes présentant de tels symptômes, précise Thuasne dans un communiqué. Ils sont lavables 30 fois à 60° avec un séchage à l’air libre.”

Dernière en date : une usine éphémère a vu le jour dans le bassin d’Arcachon pour produire des masques destinés aux habitants. L’industriel de l’automobile Libero Mazzone y a installé 130 machines offertes par Singer pour lancer la production de 800 000 masques en tissu, en réponse à l’appel à candidature lancée par Bordeaux Métropole. A celle-ci s’ajoute les demandes individuelles des agglomérations (100 000 pour la Communauté d’agglomération du bassin d’Arcachon Sud (Cobas), 100 000 pour la Nord (Coban)). “L’usine est sur un potentiel de deux millions de masques à faire rapidement” indique la présidente de la Cobas à 20 Minutes. La production, qui a débuté mardi 14 avril, devrait sortir 30 000 masques par jour. Ces masques son normés “Afnor” (Association française de normalisation) et agréés par la Direction générale de l’armement (DGA).

Photo de Une : Le masque OCOV® // Ouvry

(RE)SET veut réinventer les emballages en plastique

Les projets du programme « (RE)SET packaging » se sont réunis pour deux bootcamps à Paris

(RE)SET est une société qui vise à accélérer la transition écologique des entreprises et des industries. Son premier programme « (RE)SET packaging » se donne un an pour éliminer le plastique des emballages. Voici un programme de collaboration unique pour trouver des solutions compétitives : un consortium de 12 entreprises et industriels pour 30 pilotes industriels d’alternatives au plastique en fibre cellulosique.

Géraldine Poivert a co-fondé (RE)SET avec Frank Gana après quasiment 20 ans d’expérience dans la grande consommation et le développement durable. Elle a notamment créé et dirigé l’éco-organisme Ecofolio, avant sa fusion avec Citeo. Pour sa part, Sophie Lanternier est directrice de l’innovation de (RE)SET. Les deux expertes nous expliquent les avancées de ce programme.

Techniques de l’ingénieur : Quelle est la méthode de travail de (RE)SET pour développer de nouveaux emballages ?

Géraldine Poivert : Notre accompagnement repose sur trois axes. Nous faisons des diagnostics circulaires, avant de sourcer les solutions disponibles, puis nous construisons des innovations et les prototypons jusqu’à les réaliser. Le premier programme associe Carrefour et Système U après la signature du Pacte national sur les emballages et intègre leurs dix plus grands fabricants de produits à marques de distributeur.

Veolia nous a rejoint comme opérateur de la collecte et du tri. L’école Pagora, spécialisée dans la fibre, est partenaire. Nous avons lancé ce programme il y a un an pour trouver des emballages alternatifs en fibres cellulosiques. Il est en bouclage, nous finalisons les pilotes et les présenterons très prochainement, après la crise du Covid-19.

Pourquoi les acteurs sont-ils prisonniers du plastique aujourd’hui ?

Géraldine Poivert : C’est ce que nous avons cherché à comprendre. Ce matériau a des propriétés barrières absolues à l’eau, aux graisses et à l’oxygène. La difficulté de réinventer un emballage sans plastique est d’avoir ce niveau de propriétés barrières. En plus, le plastique s’extrude, s’injecte ou se thermoforme. Il permet des cadences de production phénoménales pour de bas coûts.

Fort de ces constats, nous avons lancé une campagne de sourcing mondiale pour essayer de trouver les meilleures alternatives et les meilleures combinaisons de solutions. 1 200 acteurs innovants ont répondu à notre concours. Finalement, nous avons lancé 30 pilotes sur 10 catégories de produits. Une fois que nous avons les pilotes, il faut échanger pour vérifier la machinabilité de ces solutions. Puis, il y a de nombreux protocoles de tests à réaliser concernant la dégradation, la recyclabilité et le contact alimentaire. Enfin, on lance la phase de tests industrielle.

Concernant les produits testés, quelles sont les solutions pressenties ?

Sophie Lanternier : Nous avons exploré 10 catégories avec les sociétés qui fournissent les marques de distributeur : les chips avec Altho, les pâtes à tarte avec Cérélia, les biscuits salés et apéritifs avec Europe Snacks, les salades en sachet, les salades traiteur et les liquides avec LSDH, le papier-toilette et essuie-tout avec Essity, les biscuits avec Biscuits Bouvard, les yaourts avec Schreiber et les compotes avec Charles & Alice.

Dans ces catégories de produits, les supports à base de cellulose, comme le papier et le carton, sont les mieux placés pour remplacer le plastique, mais ils n’ont aucune propriété barrière. Il faut donc des entreprises capables d’appliquer des « coating », ou revêtements, pour obtenir les propriétés barrières nécessaires.

Le papier va donc remplacer le plastique dans l’emballage ?

Sophie Lanternier : Le plastique peut être remplacé par du papier et un coating innovant. Rapidement, le plastique ne sera plus le seul matériau flexible intéressant pour régler les problématiques de propriétés barrière. La formulation des revêtements reste secrète. Pour la plupart, il s’agit de matériaux biosourcés, non issus de cultures en concurrence avec l’agriculture vivrière et avec une chimie selon les principes de la chimie verte. Il y a des revêtements à partir d’amidon de différents types de cultures. Il y a aussi de nouveaux matériaux, comme des microfibrilles de cellulose. Sur le long terme, nous faisons de la R&D sur des formulations à base de graphène, car ce matériau présente des propriétés barrières très intéressantes.

Grâce à ces revêtements innovants, sans plastiques, et recyclables dans un pulpeur de papeterie classique, nous obtenons de bons taux de propriétés barrière à l’oxygène. Nous avons également des avancées sur la vapeur d’eau pour les produits les moins sensibles. Ainsi, à très court terme, nous avons des solutions pour les pâtes à tarte, les salades, le yaourt et le papier-toilette. Elles seront commercialisées cette année ou en 2021, en fonction des évolutions de la crise du coronavirus. Lorsque nous aurons les spécifications précises des produits, nous ferons évidemment des analyses de cycle de vie [ACV] complètes. D’ici 2022, nous devrions avoir les solutions pour les chips, les biscuits et les biscuits apéro. Nous espérons résoudre les problèmes de propriétés barrières d’ici 2025 pour les compotes et les bouteilles. Il y a deux autres chantiers importants sur le long-terme : arriver à la thermoformabilité du papier et obtenir une transparence complète. Nous arrivons pour l’instant à avoir des applications uniquement translucides.

Propos recueillis par Matthieu Combe

Techniques de l’ingénieur vous présente, avec le Cetim, les « Web-découvertes », une série de webinars en accès libre

Pour répondre aux contraintes actuelles liées au confinement, le magazine d’actualité des Techniques de l’Ingénieur, en partenariat avec le Cetim (Centre technique des Industries Mécaniques), vous propose, à partir du 17 avril, une série de 33 conférences en ligne « Web-découvertes » en accès libre.

Une « Web-découverte » c’est quoi ?

Une « Web-découverte » c’est une conférence en ligne d’une heure trente pour s’acculturer à un sujet technique en lien avec 4 grandes thématiques industrielles.

Ces conférences en ligne, présentées par les experts du Cetim et animées par un journaliste de la rédaction du magazine d’Actualité des Techniques de l’Ingénieur, apportent un éclairage technique et technologique aux enjeux et besoins des industriels sur des points clefs en lien avec l’ingénierie, la caractérisation et les matériaux, les essais et la simulation, ainsi que la fabrication et le contrôle.

Cetim et Techniques de l’Ingénieur, un partenariat de longue date

Les Editions Techniques de l’Ingénieur, ont pour vocation de permettre au plus grand nombre de partager les connaissances scientifiques applicables dans l’industrie, et le Cetim, quant à lui, multiplie cette action grâce à un réseau de partenaires scientifiques et techniques de référence.
Les premières collaborations fructueuses avec le Cetim ont permis la coédition d’un ouvrage dédié à la fabrication additive métallique, mais aussi la tenue d’un Forum Innovation afin de lier entreprises et startups, et de favoriser l’innovation dans l’industrie mécanique et récemment la diffusion des Rendez-vous de la mécanique.

Agenda

Retrouvez ici le détail des 4 thématiques :

Aller plus loin

Pour aller plus loin, les participants pourront accéder à des articles de ressources documentaires Techniques de l’Ingénieur, ouverts en accès-libre pour cette occasion.

Nous vous proposons également certaines Notes de veille du Cetim sur les sujets traités.

Les participants pourront également approfondir l’ensemble des sujets traité grâce aux formations Cetim Academy® associées, disponibles en présentiel et en classe virtuelle, en inter ou en intra, mais également à travers des échanges avec nos experts dans le cadre de projets spécifiques.

Une éolienne spécialement adaptée en milieu urbain

Crédit photo : Unéole

Alors que les éoliennes fleurissent un peu partout dans les campagnes, elles sont quasiment absentes des villes. Inadaptées aux zones urbaines, les grandes tripales créent des vibrations là où elles sont implantées et provoquent du bruit lorsqu’elles tournent à grande vitesse. Des effets qui présentent un caractère anxiogène pour la population. Pour remédier à cette situation, Quentin Dubrulle a créé en 2012 une start-up avec l’idée de concevoir une éolienne spécialement adaptée aux villes et à ses vents tourbillonnants. Aujourd’hui, sa société compte six salariés et vient de débuter la commercialisation de son innovation. Entretien avec Quentin Dubrulle, fondateur et dirigeant d’Unéole.

Techniques de l’Ingénieur : Comment fonctionne votre invention ?

Quentin Dubrulle, fondateur et dirigeant d’Unéole : Nous avons repris l’idée d’un inventeur finlandais, Sigurd Savonius, qui a inventé une éolienne à axe vertical au début du 20ème siècle. Grâce à un logiciel CFD (computational fluid dynamics), nous avons retravaillé sa forme et sa courbure pour améliorer son aérodynamisme. L’éolienne ressemble aujourd’hui à un cylindre vertical de 2,7 mètres de haut et 1,45 m de large. Elle est divisée en trois étages avec des hélices incurvées et décalées de 60° d’un étage à l’autre afin que les vents tourbillonnants s’y engouffrent plus facilement. Les performances s’en trouvent améliorées avec une production plus homogène tout au long de la rotation de l’éolienne. Sur le plan de son aérodynamisme, l’éolienne utilise quasi uniquement le concept de la traînée c’est-à-dire qu’elle tourne grâce au vent qui pousse les hélices. Nous n’utilisons presque pas le phénomène de portance qui consiste à utiliser des différences de pression afin de dévier le flux de l’air et que l’on rencontre sur les éoliennes à grandes tripales. Les hélices tourneraient alors trop vite et provoqueraient du bruit lorsqu’elles fendent l’air.

L’éolienne conçue par Unéole fait 2,7 m de haut et 1,45 m de large et est composée de trois étages /Unéole

Dans quelles conditions peuvent-elles être installées ?

Elles sont principalement conçues pour les immeubles. Avant l’installation, nous étudions au préalable les gisements de vents, c’est-à-dire leur direction, la façon dont ils s’accumulent et s’accélèrent entre les bâtiments. Pour cela, nous utilisons le service collaboratif de cartographie en ligne : OpenStreetMap. Il nous permet de modéliser les vents de manière numérique afin de simuler leurs impacts sur nos éoliennes. Nous en déduisons le meilleur endroit où les installer sur un toit. Nous n’installons pas une mais plusieurs éoliennes, alignées et perpendiculaires au vent dominant et sur deux voire sur trois endroits du toit. Et nous les associons toujours avec des panneaux photovoltaïques en faisant appel à un installateur sur place. Ces panneaux vont produire de l’électricité durant la journée et beaucoup plus l’été qu’en hiver. Nos éoliennes vont compenser en partie leur intermittence en dehors de ces périodes. Notre objectif est de rendre autonome tout un immeuble en trouvant le bon mix entre ces deux énergies.

Quel est le rendement espéré et pour quel coût ?

Une éolienne peut produire jusqu’à 1 500 kWh par an. Sur un bâtiment de 1000 m2 sur lequel nous allons installer des panneaux photovoltaïques et une vingtaine d’éoliennes, il est possible selon nous de produire entre 100 et 150 MWh par an d’électricité. En considérant un bâtiment basse consommation de 4 à 5 étages abritant entre 40 et 50 foyers qui consomment en moyenne 2 à 3 MWh d’électricité par an, on peut alors viser l’autonomie énergétique. L’investissement se chiffre entre 300 et 400 000 euros pour un coût de production de cette électricité compris entre 12 et 14 centimes par kWh. Pour la maintenance, nous nous chargeons de remplacer les roulements du rotor au bout de 10 ans, l’onduleur après 12 ans et la génératrice après 15 ans.

Avez-vous débuté la commercialisation ?

Notre solution technologique est disponible depuis octobre dernier. En ce moment, nous avons une dizaine de projets en cours de négociation avec l’objectif de signer au moins deux contrats avant la fin de l’année. Nous comptons aussi nous développer à l’étranger en proposant des modules de formation pour concevoir et installer nos éoliennes. Nous sommes sensibles à notre impact sur l’environnement et dans ce cas, nos éoliennes sont construites avec les matériaux des pays concernés. Elles sont fabriquées avec de l’aluminium et de l’inox inoxydable recyclés et recyclables. Pour assurer le développement de notre société, nous ouvrons aussi son capital pour un montant d’un million d’euros. Nous avons déjà trouvé près de la moitié de cette somme.

Propos recueillis par Nicolas Louis

Crédit photo de une : Unéole

L’industrie automobile peine à augmenter la quantité de plastique recyclé

Selon PlasticsEurope, l’industrie automobile européenne représente 9,9 % de la demande plastique de l’Europe. Soit 5 millions de tonnes en 2018. Selon la même source, l’industrie automobile européenne recycle 19  % de ses déchets plastiques, en valorise énergétiquement 41 % et en met en décharge 40 %. En France, les chiffres s’élèvent à 26,7 % pour le recyclage, 30,2 % pour la valorisation énergétique et 43 % pour la mise en décharge. Au niveau européen, le contenu en matières plastiques recyclées dans l’industrie automobile ne s’élève qu’à 2 %.

Où utilise-t-on les plastiques dans une voiture ? Pourquoi le secteur peine-t-il à intégrer plus de plastiques recyclés ? Amaury Cornilleau, chargé de missions techniques et commerciales au Groupement Plasturgie Automobile (GPA), répond à ces questions. GPA regroupe les équipementiers plasturgistes et composites du marché automobile français. Ce syndicat patronal national est membre de la fédération de la plasturgie. Ses 22 adhérents représentent environ 60% des salariés des plasturgistes français de l’automobile.

Techniques de l’Ingénieur : Quels types de plastiques retrouve-t-on dans un véhicule ?

Amaury Cornilleau : Les polymères représentent environ 20 % en poids, et de l’ordre de 30 % du coût matière du véhicule. Les matières plastiques sont utilisées pour diverses applications, des plus simples aux plus techniques. La résine la plus employée est le polypropylène, simple ou additiveé de fibres de verre. Elle représente entre 30 et 40 % en moyenne du plastique utilisé dans un véhicule. Le polypropylène se retrouve dans l’intérieur des véhicules, mais aussi dans les pièces de carrosserie. Le deuxième type de polymères le plus utilisé est le polyuréthane pour les mousses, notamment pour le garnissage des sièges et des planches de bord, de l’ordre de 20 à 25 %.

Puis, on utilise plusieurs plastiques pour leur technicité. On arrive sur les polyamides, de 10 à 15 % dans le véhicule, très prisés pour les équipements sous le capot moteur et les pièces sollicitées en effort, comme les pédaliers ou les poignées de porte. Le PEHD représente entre 4 et 8% des polymères présents dans les véhicules et est utilisé pour les réservoirs carburant, réservoirs lave-glace notamment. Enfin, plusieurs plastiques sont utilisés entre 3 et 6 % : le PET, l’ABS, le PE, les polycarbonates, le PVC, le PMMA, selon les applications, les choix de styles et les techniques.

Quelle est la part de plastique recyclé dans le plastique utilisé ?

Depuis plus de dix ans la part de plastique recyclé augmente dans les véhicules pour passer d’une dizaine de pourcent à près de 20 % sur certains véhicules récents. Les matières recyclées sont utilisées majoritairement dans des applications non techniques sur des pièces cachées. Il s’agit majoritairement de polypropylène recyclé et de polyesters sous forme de fibres. L’emploi de telle ou telle matière plastique se fait en réponse à un cahier des charges technique. Si un plastique recyclé y répond pour un prix compétitif, nous l’intégrons.

Quels sont les freins au développement du plastique recyclé ?

Le GPA copilote, avec le CCFA (comité des constructeurs français d’automobile), un groupe de travail dans le cadre des travaux ouverts par la direction générale des entreprises suite à la feuille de route sur l’économie circulaire. Nous travaillons dans ce groupe de travail sectoriel à l’identification de ces freins et sur ce qu’il faut mettre en place pour les débloquer. Les plastiques recyclés doivent ainsi répondre aux caractéristiques techniques, dans un niveau de qualité reproductible et un volume suffisant, à un prix compétitif. Pour cela, les recycleurs doivent pouvoir nous proposer des matières premières issues du recyclage nous permettant d’intégrer de nouvelles applications.

Il reste ensuite le verrou lié à la constance de la qualité. La problématique principale est de garantir les volumes et un niveau de qualité constant. Avec le polypropylène, les gisements sont connus, majoritairement post-industriels ou post-consommateurs bien identifiés. Pour arriver à 100% de plastique recyclé, il va falloir aller vers plus de gisements post-consommation. Ces gisements mettent en péril les notions de qualité et les notions réglementaires. L’un des freins à l’intégration des matières recyclées sont les aspects réglementaires sur les substances, comme le Règlement Reach et les autres réglementations substances (POP, RoHS, …). Moins nous serons sûrs de la provenance des déchets, plus il sera difficile d’apporter la preuve de la conformité avec ces réglementations. Sur certains gisements, il est très difficile de pouvoir identifier ou tracer des substances pour respecter la réglementation ou de recycler les matières plastiques en retirant ces substances. En absence de fiabilité certaine, nous ne prenons pas de risques. Côté automobile, nous croyons beaucoup à la promesse du recyclage chimique, mais les applications restent à leurs balbutiements. Nous sommes bloqués sur les pièces techniques, car il n’y a pas de solutions techniques pour retirer les substances interdites par la réglementation.

En fin de vie d’un véhicule, quels types de plastiques sont recyclés ?

Dans un centre de véhicules hors d’usage, sont démontées les pièces les plus économiquement rentables et les plus volumineuses – les pare-chocs, les pièces de carrosserie et certaines mousses – avant le broyage du véhicule. Cela va dépendre de chaque unité en fonction de leur taille notamment. Il s’agit majoritairement de polypropylène. Puis, le véhicule est broyé et les centres essayent d’extraire des fragments de matières plastiques. Cela donne des résidus de broyage automobile polymères qui peuvent être transformés en combustibles solides de récupération dans les centres équipés. Mais ces centres restent une minorité. Le CSR est l’eldorado pour les débouchés des résidus de broyage automobile, mais cela reste insuffisamment développé. Les 43% de mise en décharge sont les résidus de broyage dont on ne sait pas quoi faire aujourd’hui…

Propos recueillis par Matthieu Combe

La COP26 repoussée à 2021 : l’urgence climatique reste la même

« Nous comprenons tout à fait la nécessité du report de la COP26 vue la condition sanitaire, détaille Lucile Dufour, responsable Politiques internationales du Réseau Action Climat. Il n’est pas question de mettre en danger des vies humaines pour organiser une réunion internationale, quelle que soit sa thématique. L’urgence doit être la réponse à cette urgence sanitaire, et à la mise en place des bonnes mesures pour sauver des vies et faire en sorte que notre système de santé puisse absorber ce choc. »

Malgré le report, l’urgence climatique reste la même

Mais ce report ne doit pas faire oublier l’urgence climatique. « Un report de date ne veut pas dire un report de l’urgence », poursuit Lucile Dufour. En ce sens, les négociations continuent à distance. L’intersession prévue initialement à Bonn en juin est quant à elle reportée au mois d’octobre. Ce rendez-vous annuel de deux semaines sert à avancer sur les éléments techniques des discussions. « À cette intersession, nous devions notamment discuter des règles de transparence pour rapporter ses émissions de gaz à effet de serre », complète l’experte.

La Pré-COP rassemble pour sa part les chefs de délégation de chaque pays quelques semaines avant la COP pour commencer des discussions. Elle est aussi reportée et aura lieu en Italie. Le pays co-préside la COP26 avec le Royaume-Uni. En 2021, le Royaume-Uni aura aussi la présidence du G7 et l’Italie du G20.

Soumettre les NDC pour 2020 et non pour la COP26

L’Accord de Paris prévoit la livraison de trois éléments clés en 2020 : des contributions nationales plus ambitieuses (NDC), les plans de réduction des gaz à effet de serre pour 2050 et un soutien financier de 100 milliards de dollars par an.

En plus, les négociations intermédiaires doivent encore permettre de conclure des alliances diplomatiques et de convaincre les nations récalcitrantes. « Le travail au sein des groupes de pays continue, rassure Lucile Dufour. Surtout, la présidence du Royaume-Uni doit continuer son travail diplomatique vis-à-vis des pays pour les pousser à relever leur ambition climatique. »

Trop peu de pays ont déjà soumis leurs NDC

Au total, selon Climate Watch,107 pays se sont engagés à renforcer l’ambition de leur NDC cette année, représentant 15,1 % des émissions mondiales de gaz à effet de serre. Seulement 6 pays l’ont déjà soumis, représentant 2,8% des émissions de gaz à effet de serre : le Suriname, la Norvège, le Japon, les Îles Marshall, la Moldavie et Singapour.

La Russie a fourni sa nouvelle stratégie pour 2050. « Pour l’atteindre, il faudrait que la Russie augmente de quelques points son ambition de réduction d’émissions d’ici à 2030, analyse Lucile Dufour. C’est un signal positif car il y a quelques mois, la Russie n’avait pas encore ratifié l’Accord de Paris, mais cette augmentation resterait insuffisante pour en faire une NDC assez ambitieuse. »

Le Japon mauvais élève, l’Europe veut prendre le leadership

Le Japon a récemment fourni sa nouvelle contribution nationale. « Elle est extrêmement décevante, voire même assez honteuse », estime Lucile Dufour. En effet, cette contribution climatique est aussi peu ambitieuse que la première et ne propose qu’une baisse de 25 % des émissions en 2030 par rapport à 2005. Cela revient à une baisse de 16 % par rapport à 1990, année de référence du Protocole de Kyoto. Reste à espérer que le report de la COP26 va pousser le gouvernement japonais à revoir sa copie.

De son côté, l’Union européenne s’est engagée à la neutralité climatique d’ici 2050 et a proposé une loi sur le climat pour rendre cet objectif juridiquement contraignant. Le travail législatif a commencé, et la Commission doit présenter d’ici septembre 2020 une évaluation d’impact pour relever les ambitions de l’UE à l’horizon 2030 et réduire les émissions de gaz à effet de serre de 50 à 55 % par rapport aux niveaux de 1990. Le report de la COP26 devrait laisser le temps de prendre en compte ces conclusions pour rendre une NDC renforcée et mener les discussions à la COP26.

Une relance économique qui doit prendre en compte le climat

De nombreuses voix parmi les responsables politiques et les ONG appellent à ce que les plans d’urgence et de relance prennent en compte la crise climatique et sociale. « Bientôt, les économies vont redémarrer. Ce sera une opportunité pour les pays de mieux se redresser, d’inclure les plus vulnérables dans ces plans et de façonner l’économie du XXIe siècle de manière propre, verte, saine, juste, sûre et plus résiliente », souligne Patricia Espinosa, secrétaire exécutive de la Convention-cadre des Nations unies sur les changements climatiques (CCNUCC).

La vigilance est de mise pour la réussite de la COP26. « Les États-Unis auront peut-être un nouveau Président, mais il faudra être vigilant sur la capacité de l’Union européenne à tenir son calendrier et sur la capacité de la Chine et des autres pays à remettre le climat dans le débat public après la crise du Covid-19. En plus, le Royaume-Uni devra continuer son travail diplomatique tout en étant extrêmement touché par la crise sanitaire, et alors qu’il doit pour la première fois soumettre sa propre NDC, hors de la NDC européenne », prévient Lucile Dufour.

Web-découvertes « Caractérisation – Matériaux », une série de webinars « Cetim Academy » en accès libre

Les matériaux et leurs caractéristiques évoluent et constituent un facteur d’innovation majeur. Ils constituent également un facteur de compréhension de phénomènes liés à la dégradation et aux défaillances.

Profitez de cette série de webinars pour comprendre et/ou intégrer de nouveaux matériaux dans vos productions.

Les enjeux sont déterminants :

Répondre aux contraintes spécifiques des marchés (tendances, réglementations, interdictions).
Réussir les associations de matériaux délicates et comprendre leur comportement dans des environnements hostiles et contraints.

Les + du Cetim :

Un laboratoire indépendant, une expertise métallurgique de plus de 50 ans, des experts multi-compétences en France et à l’international.
Plus de 450 formations Cetim Academy® disponibles en présentiel ou en classe virtuelle, en inter ou en intra.

Les Web-découvertes du parcours « Caractérisation/Matériaux » :