Convertir l’électricité en hydrogène permet de résoudre partiellement le problème du stockage de l’énergie. Pour le résoudre totalement, encore faut-il pouvoir exploiter de nouveau cet hydrogène de manière efficace.
Fort heureusement, la cellule électrochimique développée est réversible. Par conséquent, lorsque la demande en énergie augmente, l’hydrogène peut être de nouveau converti en électricité qui sera réinjectée dans le réseau.
La nouvelle électrode TCO (triple conducting oxide) permet la circulation de protons, d’électrons et d’ions oxygène permettant la génération d’électricité ou d’hydrogène par un processus réversible, dans une cellule électrochimique à base de céramiques à conduction protonique. Photo Credit : Dong Ding et Hanping Ding.
Le problème du stockage de l’énergie pour les micros réseaux électriques
Version réduite des réseaux électriques classiques, les micros réseaux ou “microgrids” permettent de maximiser l’utilisation de l’énergie solaire et de l’éolien en rapprochant les lieux de production et de consommation d’électricité. Néanmoins, la gestion de ces multiples sources de production d’électricité intermittentes s’avère extrêmement complexe. Ceci nécessite l’utilisation de technologies d’écrêtage pour stocker l’excès d’énergie et réinjecter de l’électricité dans le réseau en fonction des besoins. Basée sur l’électrolyse, la récente technologie PCEC (protonic ceramic electrochemical cell) serait donc une solution potentielle de conversion d’électricité en hydrogène.
Les défis de la technologie PCEC
Par le passé, l’électrolyse à haute température a été confrontée à de nombreux challenges techniques, en particulier au-delà de 800°C. À ces températures élevées, non seulement les matériaux d’interconnexion utilisés coûtent cher, mais en plus il se produit une dégradation rapide, ce qui rend la technologie peu compétitive. Le défi est donc de développer des systèmes de matériaux actifs, durables et suffisamment performants pour fonctionner à des températures réduites.
Par ailleurs, “la réaction électrochimique qui se produit à l’électrode d’oxygène est le premier facteur limitant d’une PCEC. La cinétique de réaction à l’électrode d’oxygène détermine directement le taux de production d’oxygène et l’efficacité, de même que la faisabilité de réduire la température de fonctionnement”, ajoute le Docteur Ding, ingénieur et chercheur à l’INL.
Une avancée importante
L’électrode à oxygène qu’ils ont développée est un TCO (triple conducting oxide), une céramique de type pérovskite de formule PrNi0.5Co0.5O3-δ. Dans les travaux qui viennent de paraître dans la revue Nature communications (Volume 11, Article n°1907, 2020), l’équipe de chercheurs démontre qu’elle a réussi à développer une PCEC capable de fonctionner entre 400°C et 600°C avec des performances électrochimiques améliorées.
Docteur Dong Ding, Energy & Environmental Science and Technology, Idaho National Laboratory Photo credit : Idaho National Laboratory
“C’est une grande avancée pour le domaine de l’électrolyse haute température. Ce nouveau prototype de PCEC a démontré qu’il était possible de convertir en électricité l’hydrogène généré par électrolyse, de manière réversible et efficace, sans apport extérieur d’hydrogène, de manière autonome”, annonce le Docteur Ding.
Bientôt une industrialisation ?
La technologie PCEC à température intermédiaire n’en est encore qu’à ses balbutiements. Toutefois, un prototype a d’ores et déjà été validé aux U.S par l’un des leaders mondiaux de la fabrication de piles à combustible. Cette pile prototype présente ainsi un rendement total >75 % (thermique + électrique) et un taux de dégradation <2 % pour 1 000 h de fonctionnement.
Le Docteur Ding ajoute : “nous espérons que l’intérêt croissant pour la technologie PCEC va nous permettre un développement rapide vers le stade de la pile (à un niveau industriel), grâce à des investissements industriels et fédéraux”.
Pour pouvoir parler librement de sujets sensibles sur les réseaux sociaux – comme l’épidémie actuelle de Covid-19 – les internautes chinois doivent faire preuve d’inventivité. Ils ont ainsi créé un nouveau vocabulaire qu’ils font évoluer au fil des nouvelles restrictions du gouvernement. Ainsi, en janvier, “des utilisateurs du réseau social chinois Weibo se sont plaints que les mots « Wuhan » et « Hubei » – là où l’épidémie a commencé – faisaient l’objet de restrictions”, explique Amnesty International. Pour continuer à évoquer ces deux villes, les internautes ont utilisé « wh » et « hb », les initiales de Wuhan et Hubei, en remplacement.
Pour désigner les quatre hommes politiques régionaux, à savoir le gouverneur de la province du Hubei, le secrétaire du Comité du Parti communiste du Hubei, le maire de Wuhan et le secrétaire du parti de Wuhan, l’acronyme F4 a été choisi. Le nom d’un boys band taïwanais reconnu. “Pour beaucoup, ces quatre hommes sont les principaux responsables de l’épidémie massive”, ajoute Amnesty International. Le langage passe aussi par les images : celle du panda représente le Bureau de la sécurité intérieure. Pour faire référence au VPN, un réseau privé virtuel permettant de “passer par-dessus la grande muraille pare-feu de Chine”, les internautes utilisent “échelle” et “nouilles pho vietnamiennes”, une expression qui ressemble à “passer de l’autre côté du mur” en chinois.
2. Une bibliothèque sur Minecraft
Reporters sans frontières (RSF) a créé une bibliothèque non censurée sur le jeu Minecraft. Considéré comme un jeu créatif, celui-ci n’est pas perçu comme une menace par les régimes oppressifs. Le contenu est accessible à tous les joueurs. Et pour pouvoir intégrer du contenu dans cette bibliothèque, “les journalistes nous soumettent des articles que nous vérifions avant de les mettre en ligne”, explique Jennifer Schiementz, responsable communication presse de Reporters sans frontières en Allemagne.
Créée par la société Blockworks, un collectif de 60 designers, animateurs, artistes et développeurs, la bibliothèque comptabilise depuis sa création environ 20 000 visiteurs de tous les pays du monde. “Jusqu’à présent, les commentaires que nous avons reçus ont toujours été positifs”, ajoute Jennifer Schiementz. “Cependant, les utilisateurs essaient actuellement d’envoyer du spam via le chat dans Minecraft et nous avons des trolls. Nous essayons de maîtriser cette situation, peut-être en désactivant la fonctionnalité chat”. Avant cette bibliothèque, RSF avait déjà contourné la censure avec des services de streaming musical.
3. Un site d’information décliné sur le dark web
Pour contourner la censure appliquée par la Chine, l’Iran et le Vietnam, qui ont bloqué l’accès aux contenus de la BBC, le site d’information britannique a annoncé le 23 octobre 2019 son arrivée sur le dark web. “La BBC a mis son site web d’actualités internationales à disposition via le réseau Tor, dans le but de contrecarrer les tentatives de censure”, précise BBC News dans un communiqué. Le média utilise plus exactement le navigateur web “Tor Browser” basé sur Firefox et permettant de préserver l’anonymat de son utilisateur.
4. Une utilisation du réseau satellitaire
Pour ne pas passer par le réseau filaire, le logiciel Toosheh, créé en 2016, permet d’utiliser le réseau satellitaire pour transférer des vidéos, des textes et des logiciels. Avec cette technique, les Iraniens peuvent ainsi télécharger 1 Gb de contenus sur les sites d’informations bloqués, des livres censurés, des podcasts, etc. Pour y accéder, il est nécessaire d’installer le logiciel Toosheh sur son ordinateur, puis d’aller chercher les références de la chaîne Toosheh sur le satellite YahSat. “La position du satellite YahSat est telle que brouiller ses ondes [l’une des méthodes de l’Etat iranien pour se battre contre les chaînes satellites] est presque impossible”, explique Mehdi Yahyanejad, chercheur à l’Université de Californie du Sud au journal Le Monde.
La technologie aurait par exemple été utilisée fin d’année 2019 en Iran lorsque le gouvernement a fermé aux citoyens l’accès à internet, en réponse aux manifestations en cours dans le pays. Une connexion satellitaire jugée “difficilement accessible pour les Iraniens” par Frédérick Douzet, professeure à l’Institut français de géopolitique (Paris VIII) et directrice de Geode (un centre de recherche et de formation pluridisciplinaire consacré aux enjeux stratégiques et géopolitiques du numérique), interrogée par Le Monde.
5. Une IA capable d’élaborer des stratégies
Des informaticiens de l’université de Maryland aux États-Unis ont conçu en novembre 2019 une intelligence artificielle permettant de contourner les mécanismes de censure. Baptisée Geneva, pour Genetic Evasion, cette intelligence artificielle d’inspiration biologique a été développée pour fonctionner en arrière-plan lorsqu’un utilisateur navigue sur le web à partir d’un navigateur standard. “Comme les systèmes biologiques, Geneva forme des ensembles d’instructions à partir de blocs de construction génétiques”, expliquent les chercheurs dans leur communiqué. “Mais plutôt que d’utiliser l’ADN comme blocs de construction, Geneva utilise des petits morceaux de code. Individuellement, les bits de code font très peu de choses, mais lorsqu’ils sont composés en instructions, ils peuvent exécuter des stratégies d’évasion sophistiquées pour briser, organiser ou envoyer des paquets de données.”
L’intelligence artificielle fait évoluer son “code génétique” par tentatives successives. A chaque itération, l’IA garde les meilleures instructions pour se délester du reste. “Geneva mute et croise ses stratégies en supprimant au hasard des instructions, en ajoutant des nouvelles ou en combinant celles qui ont réussi, puis en testant à nouveau la stratégie”, précise les informaticiens. “Grâce à ce processus évolutif, Geneva est en mesure d’identifier très rapidement les multiples stratégies d’évasion.”
Légende Une : “The Uncensored Library” a été créée par Reporters sans frontières pour contourner la censure. Copyright : Reporters sans frontières
Parce qu’elles sont composées à 95 % d’eau, les méduses font partie des organismes marins les plus fragiles, ce qui les rend particulièrement difficiles à étudier. La plupart des outils de manipulation utilisés en biologie marine sont tellement maladroits et lourds qu’ils peuvent sérieusement blesser ces délicates créatures.
Pour résoudre ce problème, les ingénieurs du Wyss Institute (Université d’Harvard) et leurs collaborateurs du Baruch College (City University de New York) ont mis au point un robot équipé de doigts souples en forme de rubans. Lorsqu’ils sont gonflés d’eau, ces “doigts” se replient pour saisir en douceur les organismes les plus fragiles.
Néanmoins, si cette invention présentée en août 2019 semble fonctionner à merveille, il restait à confirmer son effet positif sur la réduction du stress. C’est désormais chose faite, grâce à la génomique.
Comparaison des profils d’expression génique
La méduse commune, aussi appelée Aurelia aurita, est capable de répondre aux blessures en réorganisant la structure de son corps. Cette capacité de régénération est liée à la présence de gènes de “réparation” qui s’activent lorsque la méduse se sent menacée.
contrôle négatif : acclimatation sans manipulation physique ;
stress important : saisie à la pince et agitation ;
stress modéré : saisie à la pince sans agitation ;
saisie ultra douce par le robot.
Chaque essai a été conduit sur trois méduses différentes et a duré une minute.
Comme attendu, en condition de stress intense, l’expression des gènes est très forte. En revanche, la saisie ultra douce par le robot provoque l’expression différentielle la plus faible, ce qui démontre l’efficacité de ce dispositif dans la réduction du stress.
Un impact qui va au-delà de l’étude des méduses
D’après l’équipe de chercheurs, “c’est la première étude qui permet de quantifier la réponse transcriptomique d’une méduse avec différentes méthodes de manipulation”.
Cependant, les méduses ne sont qu’un exemple. Ces résultats montrent bien l’intérêt de développer des méthodes plus douces pour la manipulation des organismes marins fragiles.
Au-delà de la biologie marine, la robotique molle a un bel avenir devant elle. Dans le futur, elle permettra de réaliser des tâches que les robots actuels réalisent avec difficulté, comme récolter des fruits sans les abîmer, et bien d’autres choses encore.
Il n’y a pas que dans l’aéronautique que la formation de givre est problématique. Elle réduit considérablement l’efficacité énergétique des congélateurs et perturbe l’approvisionnement en énergie lorsqu’elle s’accumule sur les câbles à haute tension ou dans les turbines des éoliennes.
Les techniques actuelles de lutte contre le givre
Cela fait des dizaines d’années que les chercheurs du monde entier étudient les solutions permettant de lutter contre la formation de glace. Surfaces superhydrophobes, surfaces glissantes, matériaux à faible résistance interfaciale… les stratégies de lutte “passive” contre la formation de givre sont nombreuses. Il faut cependant se rendre à l’évidence : les traitements de surface à l’échelle moléculaire ainsi que les solutions développées à l’échelle nanométrique ou micrométrique ont l’inconvénient de se dégrader rapidement.
“Au bout de quelques heures, 100 % de la surface de ces matériaux est recouverte de glace dans des conditions de givrage continu”, affirme Kyoo-Chul Kenneth Park, professeur assistant d’ingénierie mécanique de l’université de Northwestern.
La solution est dans l’observation de la nature
En observant les feuilles de certaines plantes en hiver, on constate que la glace se forme de manière discontinue. On doit ce constat à la présence d’une macro structure à l’échelle millimétrique et au principe physicochimique de formation du givre.
“Le transport de l’air humide vers les surfaces froides est gouverné par le principe de diffusion (loi de Fick). Si la surface contient des macrotextures concaves (comme les veines des feuilles), la vapeur d’eau est transportée préférentiellement vers les parties convexes ou plates à proximité, formant un condensat ou des cristaux de glace”, précise Park.
Formation de givre sur des feuilles /K.-C. Kenneth Park.
Pour y arriver, ils ont utilisé plusieurs outils :
des simulations numériques ;
des expérimentations simples, notamment grâce à l’impression 3D ;
des mesures de givrage contrôlé.
Park et son équipe sont ainsi arrivés au constat suivant : les effets de la macrotexture sur la formation de givre sont totalement indépendants du type de plante ou des matériaux utilisés.
“Nous avons même obtenu des résultats reproductibles qui montrent la présence de zones dénuées de givre sur des surfaces superhydrophiles, en accord avec nos simulations numériques et notre modèle analytique”, ajoute Park.
Des résultats encourageants
Les travaux de ces chercheurs permettent d’établir une ligne directrice pour le design de surfaces macro texturées. Les deux paramètres à considérer étant les conditions d’humidité ambiante et l’angle caractéristique de la macrotexture.
Par ailleurs, des résultats encourageants ont également été obtenus dans des conditions de convection forcée, ce qui laisse imaginer des applications dans l’aéronautique par exemple.
Image de Une : Formation d’une zone dénuée de givre sur une surface polymère /Yuehan Yao
Il semblerait que la crise du Covid-19 ait provoqué chez les Français un phénomène de patriotisme alimentaire. De l’achat de produits élaborés en France au renfort de main d’œuvre sur les exploitations, plusieurs initiatives ont vu le jour pour venir en aide aux agriculteurs. Pour Samuel Vandaele, président du syndicat Jeunes Agriculteurs, tout ceci est la preuve d’un attachement fort des Français à leur modèle agricole. Mais conscient des profondes difficultés économiques du secteur, Samuel Vandaele espère une reprise efficace des politiques agricoles jusqu’à l’échelle européenne.
Techniques de l’Ingénieur : Depuis le début de la crise du Covid-19, près de 300 000 Français ont proposé de prêter main forte aux agriculteurs sur leurs exploitations via le dispositif « Des bras pour ton assiette ». Comment interprétez-vous l’élan de solidarité à l’égard des agriculteurs ?
Samuel Vandaele : Cela montre la volonté d’un retour aux sources de certains de nos concitoyens. Nous sentons que les Français sont fiers de pouvoir compter sur les nombreux agriculteurs du territoire et leurs productions diversifiées. Nous sommes tous conscients que sans eux, il serait très difficile d’assurer notre sécurité alimentaire.
La France gagnerait-elle à favoriser les productions françaises au nom de cette sécurité alimentaire ?
Selon moi, ce sera l’un des enjeux majeurs en sortie de crise. Nous nous rendons bien compte que s’il n’y avait pas un retour à l’agriculture française, dans les magasins, ce serait un peu plus compliqué. Je pense que les grandes surfaces ont aussi besoin de faire valoir un patriotisme alimentaire. Or, l’agriculture française doit être mise en avant de façon constante. Et pas uniquement lors de périodes difficiles, où chaque acteur économique tente de sauver sa peau.
Comment les grandes enseignes ont-elles aidé le secteur agricole français ?
Nous avons pris contact avec l’ensemble des directeurs généraux des grandes enseignes pour leur faire comprendre que nous avions aussi besoin d’eux pour sauver certaines filières. Nous leur avons donc demandé de promouvoir les produits des filières en crise. Nous leur avons également demandé de mettre davantage en avant les produits français, au détriment des productions étrangères.
Les produits français sont-ils actuellement vendus à leur juste prix ?
Dans certains magasins, on se rend compte que les prix ont beaucoup augmenté. Mais cela ne veut absolument pas dire que les producteurs seront de fait mieux rémunérés. Cependant, des négociations avec la grande distribution sont en cours. Dans l’ensemble, elles semblent porter leurs fruits. Mais il est difficile d’en savoir tous les détails, car les négociations se font directement entre les producteurs et les distributeurs locaux. Mais en général, lorsque nous n’avons pas de retour, c’est que ça se passe plutôt bien.
Quelles sont les filières qui rencontrent le plus de difficultés à l’heure actuelle ?
La première filière la plus impactée par la crise est celle de la viande bovine. Généralement, de nombreuses pièces de bœuf sont nobles et sont vendues à un prix plus élevé. Or en ce moment, les Français se dirigent vers des morceaux moins nobles et sur de la viande à congeler. Par conséquent, certains morceaux nobles se retrouvent actuellement dévalués. La filière laitière est également durement touchée. Autre problématique dans ces deux cas : les marchés de l’export sont au ralenti, voire totalement à l’arrêt. Cela entraîne plusieurs effets, dont une surproduction laitière. Ainsi, certains agriculteurs diminuent leur cheptel laitier, et cette viande accentue l’engorgement de la filière bovine. Cela veut également dire que des agriculteurs vont perdre une partie de leurs animaux. Par conséquent, ils risquent de ne plus pouvoir produire assez en sortie de crise.
Des mesures sont-elles mises en place pour aider ces exploitants agricoles ?
Aujourd’hui, aucune mesure de soutien n’est mise en place par l’État ou l’Union européenne. Mais l’interprofession laitière, le Cniel[le Centre national interprofessionnel de l’économie laitière, NDLR], a débloqué un fonds de compensation. Elle appelle les agriculteurs à réduire leur production, et s’engage à compenser cette perte par le fonds mis en place. Ainsi, le Cniel rachèterait le lait produit à hauteur de 320 € les 1 000 L de lait, afin d’éviter les pertes sèches. Pour que cette solution soit effectivement mise en place, nous avons besoin d’une validation de l’Europe. Or aujourd’hui, nous l’attendons toujours.
Pensez-vous que l’Union européenne pourrait favoriser les filières locales et les circuits courts ?
Pour favoriser l’accès à des produits issus de l’agriculture locale, il est essentiel de repenser la légitimité de certains accords commerciaux. Si les consommateurs sont moins attirés par des produits venus de loin, des traités comme le Mercosur ou le CETA sont-ils réellement pertinents ? Les consommateurs voulaient bien les consommer auparavant pour des raisons budgétaires ; mais aujourd’hui, ils veulent privilégier la sécurité sanitaire des produits qu’ils mangent.
Cela suffira-t-il à assurer la sécurité alimentaire des Français et des Européens ?
Non, je pense qu’il va falloir aller beaucoup plus loin. Nous devons développer notre capacité à organiser des stocks, aussi bien au niveau français qu’au niveau européen. Cette condition est essentielle pour garantir notre sécurité alimentaire. C’est le seul moyen de pouvoir garantir une alimentation convenable en temps de crise. Mais aujourd’hui, il n’y a pas un seul scénario qui serait facile à mettre en place. Et il ne faut pas avoir une vision par silo, mais bien envisager toutes leurs filières dans leur ensemble pour tirer toute l’agriculture française vers le haut. Et il est essentiel qu’une telle mesure soit coordonnée à l’échelle européenne.
L’Union européenne devrait-elle davantage protéger son agriculture ?
En effet, l’Europe devrait renforcer sa sécurité agricole. Pourquoi ne pas mettre en place un organisme de gestion européenne de la qualité alimentaire ? Ce dernier pourrait assurer la gestion des stocks, et la traçabilité des produits via un système d’étiquetage efficace. Cette recherche de qualité aurait nécessairement pour conséquence la valorisation du travail de nos agriculteurs. Et de fait, cela serait bénéfique pour notre économie. De même, il faudrait sanctionner ceux qui ne joueraient pas ce jeu, ou qui auraient des communications abusives. Dans tous les cas, la coopération européenne reste essentielle.
Le constructeur allemand ne donnera ainsi pas suite au GLC F-Cell, l’unique modèle commercial de la marque disposant d’une pile à combustible, lancé en 2018, et un SUV, Daimler oblige. Même si le constructeur automobile signale que les essais de ses nouveaux prototypes à hydrogène sont probants, le coût – qui serait le double d’un véhicule électrique « classique » à batterie – fait reculer sur le sujet… La disponibilité des bornes de recharge est une autre raison justifiant cet abandon du marché des véhicules particuliers. C’est déjà ces motifs qui ont fait reculer de grands constructeurs, comme Honda et Volkswagen, qui ont annoncé récemment la suspension de tous les développements relatifs à ce type de véhicule.
En outre, le marché montant des véhicules électriques à batterie (dont les coûts chutent avec une belle constance) et les plans de déploiements de bornes de charge poussent certains constructeurs à préférer ce type de véhicules, misant sur un rapide rattrapage des prix vis-à-vis des modèles classiques.
Les échéances de sortie du véhicule thermique (horizon 2040, 2045, 2050) fixées par certains pays, et par l’Union européenne en la matière, jouent également un rôle dans ces décisions.
Des décisions qui paraissent à l’opposé de celles prises par les deux géants français Renault et PSA, qui ont présenté récemment des modèles « hydrogène », mais pour des véhicules utilitaires : Kangoo et Master électriques avec piles à combustible, pour le premier et une flotte expérimentale de véhicules utilitaires à hydrogène pour 2021, pour PSA.
En fin d’année dernière, BMW a dévoilé un prototype, i Hydrogen Next, préfigurant le lancement d’une berline à hydrogène, mais en « petites séries », pour les « happy few » donc, vers 2022. Et Audi a annoncé une « h-Tron » (pendant de sa voiture électrique e-Tron) de série, mais proposée à la location, dès 2021.
Restent sur le marché des véhicules classiques, le coréen Hyundai (avec le iX35 en 2014, puis le Nexo en 2018) et le japonais Toyota (avec la Mirai en 2014, toujours sans égal).
Selon l’AIE (Agence Internationale de l’Energie) à peine plus de 11 000 voitures à hydrogène circulaient dans le monde fin 2018, dont plus de 9 000 Toyota Mirai. Les prix oscillent autour de 70 000 euros. La capacité de production des deux constructeurs les plus avancés, Toyota et Hyundai, est limitée à 3 000 unités par an.
Un marché pour le transport routier et les flottes captives
Mis bout à bout, les arguments plaident en faveur d’un arrêt de l’hydrogène pour les véhicules légers. Pas si simple. En effet, les constructeurs qui continuent de miser sur ce vecteur énergétique (l’hydrogène n’est pas une matière première, il faut le fabriquer) voient deux marchés potentiels. D’abord, les flottes captives, qui ont l’avantage de venir se recharger quasiment toujours aux mêmes endroits (sur les sites des flottes). L’hydrogène peut alors être produit localement intégralement, ou partiellement et le nombre de bornes de recharge peut être « maîtrisé ». En outre, il peut être produit grâce à des surplus d’électricité dite « verte » (solaire ou éolien ou encore biomasse et valorisation des déchets). C’est un choix fait par exemple par les taxi Hype en Île-de-France, qui disposent d’une centaine de véhicules. C’est un choix aussi aidé par un Plan régional « Île-de-France territoire Hydrogène » adopté par la région Île-de-France pour faciliter la pénétration de ce vecteur énergétique, au service des différents usages des professionnels et demain, des particuliers.
Ensuite, si Daimler n’abandonne pas la pile à combustible en matière de transporteurs routiers, c’est clairement que sur ce marché des véhicules lourds, la batterie n’est pas la technologie la mieux adapté pour l’heure. En effet, pour parvenir à la puissance nécessaire pour les poids lourds (voire pour les bus), il faut beaucoup de batteries dans l’état actuel de l’art, ce qui signifie un poids supplémentaire pour parvenir à l’autonomie nécessaire pour de très longs trajets… Et un manque à gagner certain. C’est donc bien une histoire de coût, là encore, qui pousse dans le sens de l’hydrogène, ou dans le sens de la batterie.
Une équipe de recherche de l’Ecole Polytechnique Fédérale de Lausanne (EPFL) a mis au point un nanodispositif capable de produire de puissants signaux en quelques picosecondes et de les diffuser sous forme d’ondes térahertz. Ce nanodispositif élaboré par le Power and Wide-band-gap Electronics Research Laboratory (POWERlab) est intégrable sur puces et sur supports flexibles, et pourrait ainsi équiper des systèmes portables, comme les smartphones. Selon Elison Matioli, responsable du laboratoire, le dispositif fonctionne 10 fois plus vite que les transistors d’aujourd’hui. Les travaux ont été publiés le 25 mars dans Nature.
Les ondes térahertz se trouvent entre les ondes infrarouges et les micro-ondes. Elles englobent des fréquences comprises entre 0,1 et 30 térahertz, soit 100 à 30 000 milliards de hertz ou oscillations par seconde. Leurs rayonnements ont un fort pouvoir pénétrant qui leur permet de voir à travers de nombreux matériaux non conducteurs ne contenant pas d’eau. Ils sont peu énergétiques et non-ionisants. Dans notre vie de tous les jours, ces ondes pourraient ainsi révolutionner l’imagerie médicale, les systèmes de sécurité, les détecteurs de polluants ou encore permettre la transmission sans fil de données volumineuses à haut débit, comme pour la 5G.
Un dispositif ultra-rapide
L’équipe de chercheurs, dirigée par le professeur Elison Matioli, décrit un dispositif compact, peu cher et tout électrique pouvant être réalisé sur un support flexible. Il se présente sous la forme de deux plaques de métal (peu importe lequel, les chercheurs ont testé l’or et le tungstène) séparées par un espace très petit, jusqu’à quelques dizaines de nanomètres. Lorsqu’une tension est appliquée sur une plaque, les électrons s’accumulent au bord et forment un nanoplasma. Les électrons transitent de façon ultra rapide vers la seconde plaque métallique, créant une impulsion très intense. Le dispositif produit une sorte d’étincelle très puissante en une picoseconde, la tension passant soudainement de 0 à plusieurs dizaines de volts. Cette étincelle peut être reproduite presque continuellement, ce qui permet de générer jusqu’à 50 millions de signaux par seconde. Combiné à des antennes, le système peut générer des ondes térahertz très puissantes, jusqu’à 600 milliwatts térahertz carré (mWTHz2).
Légende photo : Les deux plaques de métal peuvent être déposées sur un substrat flexible. Copyright : Ecole Polytechnique Fédérale de Lausanne (EPFL)
Selon le laboratoire, jusqu’à aujourd’hui, les dispositifs électroniques ne permettaient cette émission qu’à une vitesse maximale d’un volt par picoseconde. Le principal problème des dispositifs actuels pour des usages haute fréquence réside dans l’utilisation des matériaux semi-conducteurs. “Ils ont tendance à voir leur puissance diminuer à mesure que la fréquence augmente, explique le professeur Elison Matioli. En temps normal, on ne peut pas optimiser les deux valeurs. Les dispositifs à haute fréquence sont nanométriques. Ils ne supportent que quelques volts et s’abîment vite”. Dans les térahertz, les dispositifs classiques ne fournissent que quelques milliwatts de puissance, ce qui n’est pas suffisant pour les applications visées.
« Pour la première fois, nous montrons que des agrégats de macroplastiques flottants sont détectables grâces aux données optiques acquises par les satellites Sentinel-2 de l’Agence spatiale européenne (ESA) et, en plus, qu’ils peuvent être différenciés des matériaux naturels tels que les algues », avancent les auteurs d’une nouvelle étude publiée dans la revue Scientific Reports. « Nous espérons que cette méthode constituera un tremplin pour l’utilisation des satellites et des drones dans la lutte contre le problème des plastiques marins », partage Lauren Biermann, auteure principale de l’étude, chercheuse au Laboratoire marin de Plymouth.
Grâce à une intelligence artificielle, les chercheurs sont parvenus à détecter des agrégats de plastiques flottant dans les eaux côtières, à l’aide des images satellites de l’Agence spatiale européenne. Et ils sont parvenus à les distinguer de matériaux flottants naturels, tels que les algues, le bois flotté et l’écume de mer. Les agrégats de plastiques ont été identifiés avec une précision moyenne de 86 % sur quatre sites d’étude. « Ce défi technique constitue la première étape vers le développement d’une méthode opérationnelle de détection des agrégats de plastiques flottants dans les eaux du monde entier », soulignent les auteurs.
Valider l’algorithme grâce à des données connues
Les satellites Sentinel-2 embarquent un imageur multispectral (MSI). Ses images présentent des pixels jusqu’à 10 x 10 m et couvrent les eaux côtières mondiales tous les 2 à 5 jours. L’étude a permis de détecter des agrégats flottants à des échelles inférieures aux pixels. Pour y parvenir, l’équipe a analysé les images collectées par le satellite Sentinel-2 en utilisant un algorithme pour y faire ressortir les débris flottants dans l’eau. Cela a permis de créer l’Index des débris flottants pour l’instrument multispectral du Sentinel-2.
Parmi les déchets flottants, il fallait ensuite parvenir à identifier les plastiques. Les données des projets Plastic Litter menés par l’Université de la mer Égée en 2018 et 2019 ont rendu cela possible. Les chercheurs avaient déployé en mer des cibles flottantes en plastique composées de sacs, bouteilles et filets de pêche depuis Mytilène en Grèce. L’équipe savait alors exactement quels déchets le Sentinel-2 « voyait » à la surface. Cela a permis de construire une signature optique pour les plastiques flottants. L’index a été complété par des données validées sur les plastiques détectés après de graves inondations à Durban, en Afrique du Sud. Une fois les signatures des plastiques établies, l’équipe a entamé le même processus pour les débris naturels.
Identifier le plastique dans de nouvelles zones
L’algorithme étant désormais développé et validé, il était temps d’aller détecter les plastiques flottant dans les zones côtières et de les différencier des autres déchets. Les chercheurs ont ensuite analysé des agrégats dans deux pays développés – Canada et Écosse – et deux pays en développement – Ghana et Vietnam.
Manuellement, les chercheurs ont sélectionné les pixels qui semblaient être dominés par les plastiques en utilisant leur signature spectrale, l’index, ainsi qu’un indice de végétation par différence normalisée. Les matériaux flottants ont alors été différenciés de manière automatique grâce à une classification dite « naïve bayésienne ». Il s’agit d’un algorithme qui calcule la probabilité qu’un pixel détecté appartienne aux classes de matériaux avec lesquelles il a été entraîné. Dans cette étude, il détermine la probabilité qu’il s’agisse de plastiques connus, d’eau de mer, de bois flotté, d’algues ou d’écume de mer.
Sur les quatre sites d’étude, les plastiques suspectés ont été classés avec succès comme des plastiques avec une précision globale de 86 %. La précision était de 100 % au Canada, 87 %, au Ghana, 83 % en Écosse et 77 % au Vietnam. « Une classification moins précise résulte du fait que les pixels ne sont pas suffisamment pleins de débris flottants et qu’une petite proportion de plastiques suspectés est ainsi identifiée comme de l’écume de mer », analysent les auteurs. L’équipe affine désormais la technique pour accroître encore sa précision. Elle espère rapidement pouvoir détecter les agrégats de plastiques flottant dans les eaux côtières et les fleuves.
Selon un bilan rendu public par la ministre du Travail Muriel Pénicaud ce lundi 27 avril, 10,8 millions de travailleurs seraient actuellement concernés par les mesures de chômage partiel. Mais les salariés ne sont pas les seuls touchés par la crise du Covid-19. Malgré les mesures de soutien successivement annoncées par Emmanuel Macron et le ministre de l’Économie Bruno Le Maire, les TPE et PME sont également exposées aux difficultés économiques. Pour Jean-Guilhem Darré, délégué général du syndicat des indépendants et des TPE, cette situation était inéluctable. Il pense cependant qu’une relocalisation partielle de l’économie pourrait redynamiser les entreprises françaises en sortie de crise.
Techniques de l’Ingénieur : La crise actuelle pose nombre de difficultés aux entrepreneurs. Était-ce prévisible et évitable ?
Jean-Guilhem Darré : Je ne pense pas que les professionnels, et notamment les entrepreneurs, auraient pu prévoir la crise du Covid-19. Dans l’état actuel d’interdépendance des secteurs et d’externalisation des unités de production, les difficultés économiques des entreprises étaient inévitables. Certains secteurs sont plus touchés que d’autres, c’est notamment le cas du secteur industriel. Si une usine dépend de matières premières venues de Chine par exemple, elle se retrouve forcément à l’arrêt. C’est l’effet domino. Ensuite, face aux mesures de confinement, il était inéluctable que certaines entreprises se retrouvent à l’arrêt, et perdent ainsi des revenus. Cela vaut pour les restaurateurs, mais également les transports.
L’économie actuelle repose-t-elle sur un équilibre instable ? Devrait-on penser un autre modèle ?
En réalité le nouveau modèle commence déjà à s’installer. Cela est dû à une nouvelle tendance insufflée par les consommateurs. Effectivement, avant cet épisode de coronavirus, les entrepreneurs avaient déjà remarqué que leurs clients préféraient de plus en plus se tourner vers les activités locales et les circuits courts. Je pense que ce mode de fonctionnement sera renforcé à l’avenir.
Est-ce que l’État doit faire évoluer la législation en termes de protection des entreprises ?
Dans un premier temps, il faudrait se poser la question de la mondialisation. Et dans un second temps, se demander comment mettre en place un environnement économique favorable. Il faudrait se demander si la France est réellement compétitive face aux autres pays dans la mondialisation. Il faudrait plus de collaboration et de coopération européenne. Pourquoi ne pas favoriser le développement d’un monde où on aurait moins besoin de se déplacer ? Où on aurait tout, près de chez soi ? Il serait également nécessaire de repenser notre politique fiscale. Pourquoi ne pas envisager un système qui encouragerait les entreprises et les marchés à exercer leurs activités à une plus petite échelle, sur un secteur géographique réduit ?
Pensez-vous que cette orientation économique puisse être prochainement mise en place ?
Le gouvernement allait déjà dans ce sens-là avant même le début de cette crise en enjoignant les artisans et les commerçants à aller vers plus de proximité. C’est ce que montrent notamment les plans de repopulation des centres-villes. Il en est de même pour les politiques de rénovation urbaine, et de développement des transports.
Pensez-vous qu’il serait souhaitable d’orienter l’économie vers une démondialisation ?
Alors, la démondialisation est peut-être un grand mot. Cependant, il serait probablement bon d’être plus attentif à l’équilibre des productions. En clair, je pense qu’il serait pertinent que nous ne soyons plus dépendants des échanges internationaux pour nos besoins essentiels. Il serait bon de rapatrier un certain nombre de productions sur le territoire national. Nous pourrions prendre exemple sur l’Allemagne. Les Allemands dépendent en grande partie de leurs propres capacités de production. Mais cela ne doit pas empêcher tous les échanges internationaux. Cependant, un protectionnisme fort ne serait pas souhaitable.
Quelles seraient les unités de production que la France devrait relocaliser ?
Il s’agirait essentiellement des filières industrielles. La France devrait voir revenir sur son territoire les productions de médicaments et le matériel médical. Nous devrions, par exemple, faire en sorte d’avoir suffisamment de respirateurs dans les hôpitaux. Nous devons rechercher notre autonomie sanitaire. Et de manière générale, nous devrions être moins dépendants de la Chine et de ses unités de production.
La récession doit-elle nous faire craindre une accélération des faillites d’entreprises ?
Tout va dépendre de la durée du confinement et de la date de reprise des activités. Les mesures de soutien du gouvernement évoluent rapidement. Fin 2019, 20 % des TPE n’étaient pas économiquement saines. Ce sont ces entreprises qui sont les plus exposées aux risques de faillites. En ce qui concerne les créations d’entreprises, il serait assez compréhensible qu’elles ralentissent dans les prochains mois. Cependant, les Français désirent de plus en plus travailler de manière autonome. C’est pourquoi même si une période de ralentissement est possible, il y aura toujours de nouvelles créations d’entreprises.
« Dans le contexte actuel de crises sanitaires et économiques sans précédent, la chute de la demande de presque tous les principaux combustibles est stupéfiante, en particulier pour le charbon, le pétrole et le gaz. Seules les énergies renouvelables résistent à la chute de la consommation d’électricité, jusque-là inconnue », indique Fatih Birol, directeur exécutif de l’AIE. En effet, la chute de la demande en pétrole est particulièrement remarquable, sur fond de bataille entre l’Arabie Saoudite, la Russie et les États-Unis. La crise du Covid-19 a stoppé la mobilité (véhicules routiers et avions), qui compte pour 60% de la demande mondiale en produits pétroliers. Dans certaines régions du monde, le transport routier a ainsi reculé de 50% à fin mars, signale l’Agence. Le retrait de la consommation de pétrole devrait ainsi s’afficher sur l’année à quelque 9%, selon les hypothèses de l’AIE (notamment un retour à l’activité dans les mois à venir), un niveau de demande équivalent à celui de 2012.
Pour le charbon également, la Chine et l’Inde –deux pays fortement consommateurs (les deux-tiers de la demande mondiale environ)– ont en effet enregistré une chute de l’activité importante. Ainsi pour le charbon, le recul serait de 8% environ. Un recul largement dû, insiste l’Agence de l’OCDE (Organisation de coopération et de développement économique), à la chute de la demande en électricité.
Pour le gaz, qui avait déjà enregistré une baisse de la consommation au début du premier trimestre de 2020 à cause d’un hiver doux dans la majorité de l’hémisphère Nord, le retrait atteindrait les 5% sur l’année, précise l’AIE. Une fois encore, une large part du retrait dû à la crise pandémique provient d’une moindre utilisation pour l’électricité. De même, la production nucléaire serait en retrait sur l’année, d’un peu plus de 2%.
« Cette crise a mis en évidence la grande dépendance des sociétés modernes à l’égard d’un approvisionnement électrique fiable pour soutenir les systèmes de santé, les entreprises et les équipements de base de la vie quotidienne », rappelle Fatih Birol. « Mais personne ne doit considérer tout cela comme allant de soi – des investissements plus importants et des politiques plus intelligentes sont nécessaires pour garantir la sécurité de l’approvisionnement en électricité », insiste-t-il.
Les mesures de confinement prises dans plus de la moitié du monde ont en effet significativement réduit la demande en électricité. Ainsi, la hausse de la consommation résidentielle due à l’occupation des foyers 24h sur 24 est loin d’avoir compensé les chutes de demande dans les activités commerciales (magasins fermés) et industrielles (usines non essentielles à l’arrêt), sans oublier les activités de service comme les bureaux, l’hôtellerie, l’éducation et le tourisme.
En moyenne, l’AIE estime (grâce à la prise en compte d’une trentaine de pays, représentant un tiers de la demande mondiale en courant), selon les mesures plus ou moins «dures» de confinement adoptées, que la chute de la consommation d’électricité a été de 20%, pour chaque mois de confinement total. Traduit sur l’année, cela donne un recul de 1,5% pour chaque mois d’arrêt de l’activité. Ainsi, pour l’année complète 2020, l’AIE juge que le retrait de la consommation devrait atteindre les 5%, soit un niveau similaire à celui de la «Grande récession», et huit fois plus fort qu’en 2009, après les conséquences de la crise financière de 2008.
Conséquence, le mix énergétique a sensiblement été modifié. Les technologies renouvelables ont progressé de 3% (en capacité) sur le premier trimestre, portant la part des ENR à 28% de la production d’électricité sur le premier trimestre 2020, soit un bond de 26% par rapport au premier trimestre 2019. L’AIE constate des disparités en fonction des régions et des mix desdites régions. Ainsi, aux États-Unis, la production à partir de charbon a chuté d’un tiers sur le trimestre, face à la montée des ENR (+20% sur le trimestre), mais aussi du gaz peu cher. En Europe, le recul de la demande a entraîné la montée des ENR, qui ont expulsé charbon et gaz du mix électrique.
L’AIE souligne que deux axes de reprise de l’activité peuvent avoir des effets plus ou moins important sur le mix sur l’année. Ainsi, une reprise rapide stimulerait la demande d’électricité, augmentant ainsi la demande pour toutes les sources d’électricité. « La production d’électricité au charbon et au gaz diminuerait encore, mais de moitié seulement, bien que les sources d’énergie bas carbone dépassent toujours la production d’électricité au charbon ». Les renouvelables connaîtraient ainsi une croissance supplémentaire, car davantage de projets seraient réalisés, notamment des projets photovoltaïques solaires qui peuvent être construits rapidement. L’énergie nucléaire rebondirait et atteindrait presque la production de 2019 dans le courant de 2020, juge l’AIE.
En revanche, une reprise plus lente « exercerait une pression à la baisse supplémentaire sur le charbon, le gaz et le nucléaire, ce qui entraînerait un passage plus important aux sources d’énergie renouvelables dans le mix électrique global, à condition que leur production soit totalement absorbée par le système ».
Selon les hypothèses de l’AIE, les technologies bas carbone devraient ainsi représenter la plus grande source de production d’électricité en 2020, avec environ 40% du mix de production électrique.
Les émissions de CO2 forcément impactées
« En raison de ces tendances – principalement la baisse de la consommation de charbon et de pétrole – les émissions mondiales de CO2 liées à l’énergie devraient diminuer de près de 8% en 2020, pour atteindre leur niveau le plus bas depuis 2010. Il s’agirait de la plus forte diminution des émissions jamais enregistrée – près de six fois plus importante que la précédente baisse record de 400 millions de tonnes en 2009, qui résultait de la crise financière mondiale », indique la Global Energy Review de l’AIE.
« Résultant de décès prématurés et de traumatismes économiques dans le monde entier, la baisse historique des émissions mondiales n’a absolument rien de réjouissant », insiste cependant Fatih Birol. Et d’ajouter que « si l’on se fie aux conséquences de la crise financière de 2008, nous devrions bientôt assister à une forte reprise des émissions à mesure que les conditions économiques s’amélioreront ».
Le directeur de l’agence internationale de l’énergie conclut : « Mais les gouvernements peuvent tirer les leçons de cette expérience en plaçant les technologies énergétiques propres – énergies renouvelables, efficacité énergétique, batteries, hydrogène et captage du carbone – au cœur de leurs plans de relance économique. Investir dans ces domaines peut créer des emplois, rendre les économies plus compétitives et orienter le monde vers un avenir énergétique plus résistant et plus propre ».
Mise en place de télétravail ou arrêt momentané de l’activité, beaucoup de sociétés ont déserté leurs sites à la suite de l’annonce du confinement. Les rouvrir pose désormais un grand nombre de questions, notamment sur la mise en œuvre des mesures sanitaires, les rôles et responsabilités de chacun pour assurer tant que possible la sécurité des salariés. Certains choix et arbitrages seront à faire, et ces décisions restent difficiles à prendre, tant les inconnues demeurent : date réelle de retour en entreprise, obligations légales, nombre de salariés présents, mise en œuvre dans différents sites d’une même société (usine, bureaux…). Et toutes ces questions doivent être posées, mais également résolues très rapidement : garantir la sécurité des travailleurs pour reprendre une activité « normale » peut être décisif pour l’avenir de l’entreprise.
Découvrez à travers une sélection d’articles Techniques de l’Ingénieur offerts les clés pour répondre à ces enjeux :
Au début des années 70, Linus Pauling, un chercheur américain, a démontré le lien entre la composition des gaz dans l’haleine d’une personne et l’état métabolique de son corps. Plus précisément, les composés organiques volatils (COV) présents dans l’air expiré peuvent fournir de précieux renseignements sur l’état de santé d’une personne et la présence éventuelle d’une pathologie. Cette technique d’analyse présente l’avantage d’être non invasive pour le patient et facilite le diagnostic des maladies à un stade précoce. Grâce aux avancées technologiques, des travaux de recherche sur le développement de nez électroniques imitant le système olfactif humain se développent à travers le monde. Certains outils sont à un stade avancé, à l’image du Na-Nose conçu en Israël ou encore du Aeonose aux Pays-Bas. En France, l’Institut Mines-Télécom Lille Douai est engagé dans un programme de recherche pour concevoir son propre nez électronique afin de diagnostiquer l’insuffisance rénale et certains cancers. Rencontre avec Jean-Luc Wojkiewicz, enseignant-chercheur à l’IMT Lille Douai.
Techniques de l’Ingénieur : Comment fonctionne votre technologie ?
Jean-Luc Wojkiewicz, enseignant-chercheur à l’IMT Lille Douai : Nous développons des capteurs capables de détecter la présence de COV dans l’haleine. Ils sont conçus en polymères car ces macromolécules réagissent avec les COV et agissent à température ambiante. Ils présentent également l’intérêt d’être réversibles, c’est-à-dire qu’une fois après avoir réagi avec une molécule organique de l’haleine, ils reviennent à leur état initial. On peut aussi les travailler en solution, ce qui nous permet de les imprimer sur un substrat flexible facilement intégrable dans des systèmes électroniques miniaturisés. Avec un litre de solution, il est possible d’imprimer des centaines de millions de capteurs. Nous travaillons sur le diagnostic de l’insuffisance rénale et avons réalisé des prélèvements d’haleines sur 50 patients à l’aide de techniques de chimie analytique classique. Au total, 400 COV différents ont été identifiés, et notre objectif est d’en sélectionner 10 comme étant les plus caractéristiques de cette maladie. Étant donné que nous avons besoin d’une dizaine de capteurs pour mesurer chaque COV, le nez électronique sera constitué d’une centaine de capteurs. L’ensemble sera miniaturisé et la taille de l’outil ne dépassera pas celle d’un téléphone portable.
Comment est réalisée la mesure des molécules organiques dans l’haleine ?
Les techniques de chimie analytique classiques mesurent très précisément la quantité de chaque COV mais se révèlent longues et coûteuses. Nos capteurs nous permettent d’obtenir une réponse globale que nous traitons ensuite à l’aide d’algorithmes pour établir un diagnostic de la maladie. Les polymères utilisés présentent tous la caractéristique d’être dopés afin d’offrir une très grande conductivité électrique. Nous mesurons indirectement la présence d’un COV à travers leur capacité à s’opposer au passage du courant électrique.
Un système de mesure a été conçu en laboratoire pour tester les capteurs électroniques /IMT Lille Douai
Prenons l’exemple de l’ammoniac qui est l’un des COV permettant de mesurer l’insuffisance rénale. Nous utilisons 11 capteurs différents avec pour polymère de base la polyaniline que nous associons à différents matériaux comme du chitosan ou du dioxyde de titane et chacun réagit à la présence de l’ammoniac.
Des capteurs électroniques sont imprimés sur un substrat flexible /IMT Lille Douai
Nous mesurons la conductivité électrique de chaque capteur et après traitement nous obtenons dans un premier temps une matrice avec un nuage de points. Nous développons ensuite des algorithmes spécifiques pour distinguer les patients sains de ceux qui sont malades. Nous avons identifié qu’une concentration en ammoniac supérieure à 1,6 ppm est caractéristique de la maladie et que celle inférieure à 1,1 ppm correspond à une personne saine.
À quelle phase de votre projet en êtes-vous ?
Nous avons réalisé des tests en laboratoire en reconstituant une haleine artificielle à l’aide d’une bouteille et mené un essai clinique sur 5 patients au CHU de Lille. Cela nous a permis de valider notre procédé technologique mais, pour l’instant, nous avons seulement mesuré la présence de l’ammoniac dans l’haleine alors qu’il est nécessaire de détecter une dizaine de COV supplémentaires pour diagnostiquer l’insuffisance rénale. Nous allons poursuivre nos travaux jusqu’en 2022 afin de finaliser le concept. Nous faisons également partie d’un programme de recherche européen, Interreg « Pathacov », sur le cancer du poumon, avec le CHU de Lille. Dans ce cadre, nous allons mener des essais cliniques sur 1 500 patients. À terme, nous souhaitons commercialiser un nez électronique simple, portatif et offrant un résultat immédiat. Il sera commercialisé à moins de 1 000 euros et permettra de réaliser des analyses à un coût quasi nul car les capteurs en polymères sont réversibles. Même si le résultat des analyses a tendance à se modifier avec le temps à cause d’un taux d’humidité de l’haleine de 90 % et du vieillissement des capteurs, nous développons des algorithmes afin de corriger la dérive des mesures observées.
Imaginez tous vos courriers envoyés sans enveloppe. Tout le monde pourrait lire le contenu. S’il s’agit d’un message plus ou moins anodin, ce n’est pas très grave. Mais si le contenu est sensible (données bancaires, informations sur des projets confidentiels d’une entreprise, données de santé d’un laboratoire…), l’impact peut être dramatique.
Pour éviter une telle situation, les particuliers comme les professionnels profitent tous les jours des avantages de la cryptographie. Ce terme générique désigne l’ensemble des techniques permettant de chiffrer des messages qui deviennent inintelligibles.
Avec la cryptanalyse (ensemble des techniques et méthodes utilisées pour retrouver le texte en clair à partir du texte crypté), elle fait partie de la cryptologie, la science des messages secrets.
La cryptographie sécurise l’information transmise de plusieurs façons.
Par la confidentialité : seul le destinataire peut récupérer la version non chiffrée de l’information transmise.
Par l’intégrité : l’information n’a pas été modifiée pendant sa transmission.
Par l’authentification : chacun est bien celui qu’il prétend être.
La non-répudiation : l’émetteur ne peut pas nier avoir transmis l’information chiffrée.
Le contrôle d’accès : seules les personnes autorisées par l’émetteur et le destinataire peuvent accéder à l’information.
Toutes ces garanties reposent en partie sur des clés de chiffrement. Le chiffrement RSA (développé par Ronald Rivest, Adi Shamir et Leonard Adleman) est l’un des plus utilisés. Mais il repose sur un postulat des plus basiques et présente des faiblesses qui impactent son niveau de confidentialité.
Plusieurs fois, des scientifiques ont ébranlé la forteresse RSA. Demain, la situation risque d’être encore plus anxiogène avec l’avènement de l’informatique quantique. Ces machines pourraient deviner une clé de cryptage en quelques heures !
Et l’informatique quantique progresse très vite. En 2015, des chercheurs avaient prédit qu’un ordinateur quantique aurait besoin d’un milliard de qubits pour être capable de craquer le système RSA de 2 048 bits. Des recherches plus récentes suggèrent qu’un ordinateur de 20 millions de qubits pourrait faire le travail en seulement huit heures.
Mais pour l’instant, la première machine quantique commercialisée (le D-Wave 2X) – et acquise par Google en 2013 pour 15 millions de dollars – n’affiche que 2 048 qubits.
Néanmoins, les gouvernements et les entreprises doivent commencer à réfléchir dès maintenant à la manière dont ils assureront la sécurité de leurs données une fois que l’informatique quantique sera une réalité.
C’est la conclusion du récent rapport publié par la RAND Corporation et intitulé « Securing Communications in the Quantum Computing Age : Managing the Risks to Encryption ».
Créée en 1945, cette association américaine à but non lucratif a pour objectif d’améliorer la politique et le processus décisionnel par la recherche et l’analyse. Elle est reconnue pour la qualité de ses rapports validés par ses membres, dont plusieurs Prix Nobel et mathématiciens.
Selon la RAND Corporation, cette menace pourrait tout affecter, des communications militaires aux dossiers médicaux.
« L’avènement des ordinateurs quantiques présente un risque rétroactif : les informations qui sont transmises aujourd’hui de manière sécurisée peuvent être récupérées par des personnes malveillantes (ou des États, NDLR) dès aujourd’hui afin d’être déchiffrées et révélées plus tard, une fois que les machines quantiques seront disponibles à plus grande échelle », écrit Evan Peet, co-auteur du rapport et économiste à la RAND Corporation.
« Si la mise en œuvre de nouvelles mesures de sécurité n’a pas lieu au moment où les ordinateurs quantiques capables de fonctionner sont développés, il peut devenir impossible de garantir une authentification sécurisée et la confidentialité des communications », ajoute Michael Vermeer, auteur principal du rapport.
Selon ce physicien de la RAND Corporation, il faut commencer « dès maintenant » à entamer des recherches sur des protocoles pour la cryptographie post-quantique. Mais il faudra de longues années avant qu’un standard ne soit développé, normalisé et déployé…
En science des matériaux, la relation mathématique qui permet de relier la limite d’élasticité à la taille des grains est appelée équation de Hall-Petch. D’après cette relation, plus la taille des grains constituant un matériau diminue, plus sa résistance mécanique augmente.
Pour les métallurgistes, réduire la taille des grains est donc un moyen couramment employé pour obtenir des alliages performants.
Néanmoins, les expérimentations réalisées à travers le monde sur plusieurs matériaux nanocristallins ont démontré qu’il semblait exister une taille critique, autour de 10-15 nm, en dessous de laquelle il se produisait le phénomène inverse. Ce phénomène communément appelé “effet Hall-Petch inverse” est causé par un changement dans le mécanisme de déformation. On passe alors d’un régime dominé par les dislocations à un régime dominé par les glissements au niveau des joints de grains.
Dépasser les limites grâce à la pression
Selon une équipe de chercheurs du Center for High Pressure Science and Technology Advanced Research (HPSTAR) de Shanghai, cette fameuse taille critique de 10-15 nm n’en serait pas vraiment une. En effet, cette équipe a découvert qu’appliquer des forces de compression colossales (de l’ordre du Gpa) permettait de supprimer l’effet de glissement au niveau des joints de grain.
Les travaux qu’ils ont récemment publiés dans le journal Nature révèlent ainsi qu’il est possible, dans certains cas, d’obtenir un renforcement continu.
“Nous avons été surpris d’observer un renforcement continu sur des échantillons de nickel dont la taille des grains allait de 200 nm à 3 nm, alors que ce renforcement aurait dû s’arrêter en dessous de 20 nm”, affirme le docteur Bin Chen, du HPSTAR.
Par ailleurs, il précise que “les méthodes de caractérisation mécanique traditionnelles sont inadaptées pour effectuer des mesures à l’échelle nanométrique. Jusqu’à présent, il n’existait donc pas de mesures expérimentales directes concernant la résistance de grains de 10-15 nm”.
La presse à enclumes de diamant utilisée pour les essais expérimentaux Crédit photo : Xiaoling Zhou
Des résultats encourageants
“Ces résultats tranchent avec les croyances traditionnelles concernant la frontière de 10-15 nm en dessous de laquelle il y a ramollissement. Ils impliquent de possibles stratégies permettant d’obtenir des métaux à ultra haute résistance par affinage des grains et suppression de la plasticité par mouvement de joints de grains”, affirme le Dr Chen.
La prochaine étape sera la conception de pièces métalliques de grande dimension par compression de nanométaux, pour des applications aussi diverses que l’automobile, l’aérospatial, l’aéronautique, ou l’industrie des outils de coupe.
Le Dr Chen précise : “Concevoir de nouveaux alliages industriels est possible. Comme notre approche est basée sur des mécanismes généraux, elle permet d’envisager la fabrication de nombreux alliages à base de magnésium, de nickel ou d’aluminium.”
Historiquement, les crises économiques peuvent se ressembler sur certains points. Dominique Barjot, historien spécialiste de l’histoire économique contemporaine et professeur émérite à l’université Paris-Sorbonne, confirme que la crise provoquée par l’épidémie de coronavirus pourrait être aussi profonde que celle de 1929. En effet, le PIB français pourrait diminuer de 8 % en 2020, et provoquerait une situation comparable à celle de 1933. Face à cela, politiques et entreprises espèrent que la coopération européenne aidera la France à sortir de cette crise. « Une telle éventualité n’est pourtant pas aussi évidente qu’il y paraît, même si, bien entendu, elle est souhaitable », affirme Dominique Barjot.
Techniques de l’Ingénieur : Le 9 avril dernier, le ministre de l’Économie Bruno Le Maire a dit que « le redressement sera long, difficile et coûteux ». Dans son histoire contemporaine, la France a-t-elle déjà été confrontée à des crises économiques de l’ampleur de celle que nous nous apprêtons à vivre ?
Dominique Barjot : Gardons en tête que les crises économiques ne sont jamais identiques. Bien qu’il soit nécessaire de faire des comparaisons, celles-ci sont toujours imparfaites, biaisées. D’une manière générale, les économistes ont comparé la crise du Covid-19 à trois événements qui se sont passés au cours du dernier siècle : la crise de 1929, les deux guerres mondiales et la crise de 2007-2009.
Jusqu’à quel point la situation actuelle et ces événements passés sont-ils comparables ?
Bien que nous ne soyons évidemment pas dans la même situation que durant ces épisodes passés, la crise actuelle revêt la même gravité. Le PIB de la France a reculé de 6 % au premier trimestre. C’est comparable à ce que l’on a connu à la période du déclenchement des guerres, ou au milieu de la crise des années 1930. La crise de 2007-2009 a été grave et courte. Cette dernière n’a cependant pas eu la même importance en termes de contraction économique. C’était pour l’essentiel une crise financière. La crise actuelle est également financière, mais elle s’explique de manière fondamentale par le recul de la consommation et le fléchissement de l’investissement. Comme durant la crise des années 30 et les guerres mondiales, la crise actuelle est caractérisée par une forte contraction des échanges internationaux.
Un effondrement en chaîne des économies mondiales est-il possible, à l’instar de ce qu’il s’est produit lors de la crise de 1929 ?
Bien sûr, étant donné que l’économie d’aujourd’hui est très mondialisée et très interdépendante. Tout le monde redoute l’effet domino. Il serait la conséquence d’un manque de concertation des politiques économiques des États. Or, c’est le grand danger de ce que l’on traverse.
Premièrement, la crise est survenue dans un climat de tension très forte entre les deux plus grandes puissances économiques mondiales : les États-Unis et la Chine. Ces deux pays se livrent une « trade war » (« guerre commerciale »). La Chine est favorable au libre-échange parce que c’est le premier exportateur mondial. Mais avec Donald Trump, les États-Unis sont redevenus protectionnistes, revenant à leurs politiques du XIXème siècle. Or, on peut raisonnablement penser que l’un des risques actuels est que les USA renforcent leur tendance protectionniste.
Le deuxième danger, c’est celui de l’Europe. Actuellement, elle n’est pas très en forme, et le Brexit l’a encore plus fragilisée. De plus, certains pays ne jouent pas son jeu. Par exemple, avant le début de la crise, l’Italie avait commencé à se rapprocher de la Chine et de la Russie. On peut également voir qu’un certain nombre de pays de l’Est de l’Europe sont plutôt proches des positions anglo-saxonnes. Enfin, plusieurs pays d’Europe sont touchés par une forte montée du populisme, qui favorise les tendances nationalistes et protectionnistes. Si la crise accélère le retour au protectionnisme, cela fera plonger tour à tour tous les pays dans une récession profonde.
À l’heure actuelle, plusieurs acteurs économiques semblent attendre que cette crise soit gérée par une forte coopération européenne. La piste d’un retour au protectionnisme n’est que peu avancée pour sauvegarder les économies. Or pour vous, c’est le risque le plus grand. Pourquoi ?
Ceux qui attendent une forte coordination et une forte coopération européenne tiennent un discours qui n’est pas très réaliste. Il est clair que l’Europe n’a pas suffisamment de volonté pour qu’il y ait une solution européenne. De toute façon, une solution européenne n’aura de sens que si l’Europe est forte dans ses négociations avec les autres puissances économiques. Dans le discours de plusieurs des acteurs concernés, il y a une ambiguïté : beaucoup attendent un protectionnisme à l’échelle de l’Europe. Or, le problème de l’Europe est qu’elle est souvent vue dans le monde comme un bloc protectionniste. C’est justement le reproche que font à l’Europe, depuis longtemps, les États-Unis et les pays émergents. Bien sûr qu’il faudrait une concertation européenne, mais celle-ci n’aurait de sens seulement si elle ne tend pas vers un repli économique. Il faudrait négocier avec les pays extérieurs. Or, l’Europe a beaucoup de peine à définir un consensus.
Pourquoi le consensus est-il si difficile à atteindre ?
Au sein de la zone euro, il y a des pays qui sont dans des conditions financières favorables, comme l’Allemagne, les Pays-Bas et la Finlande. D’autres sont dans une situation financière défavorable. Plusieurs facteurs peuvent l’expliquer. Soit ils ont un déficit commercial, comme la France. Soit ils sont trop endettés, comme l’Italie ou l’Espagne. Cela cause donc le problème des « corona bonds », c’est-à-dire des emprunts communs à l’Union européenne pour financer les mesures de relance. Cela n’enchante pas les pays comme l’Allemagne ou les Pays-Bas parce que cela signifie que les pays qui ont peu de dettes, qui ont une balance des comptes largement excédentaire, vont devoir abandonner leurs créances auprès des pays les plus endettés. C’est ce que souhaitaient notamment l’Italie et le président Macron. La mise en place de ces « corona bonds » risque d’être très difficile.
Une entraide des pays européens reste-t-elle envisageable ?
L’Union européenne recherche tout de même des solutions. Il est évoqué une application du mécanisme européen de solidarité. Le sommet de l’engagement financier commun en Europe correspond à ce que à ce que l’on a mis dans l’économie à l’époque de la crise de 2007-2009. Le seul problème est que la crise actuelle est plus profonde et étendue que la précédente. Ces moyens ne sont donc pas suffisants car la crise actuelle est caractérisée par un effondrement de la consommation. En France, elle a baissé d’un tiers depuis les débuts de la crise du Covid-19.
Cette crise risque-t-elle d’encore plus fragiliser une Europe déjà fragile ?
Oui, c’est probable. Aujourd’hui, l’Europe est une zone en déclin. C’est une zone de l’économie mondiale qui est en déclin relatif depuis trente ou quarante ans, alors que les autres montent. Si on veut maintenir la place de l’Europe dans un monde qui change, il est évident que les Européens doivent se concerter. Et cela ne peut pas se faire si les pays qui sont le plus en avance ont l’impression qu’ils paient pour les autres.
Dans ce contexte, comment la France pourra-t-elle s’en sortir ?
Globalement pour les Français, s’ils veulent conserver leur niveau de vie à la sortie de cette crise, il va falloir travailler plus. Certains ont lancé l’idée d’une durée hebdomadaire de travail de 37 h au lieu de 35. Des questions sociales devront inexorablement resurgir, et notamment celle de l’allongement du temps de travail. La France est l’un des pays les plus frileux pour repousser l’âge du départ à la retraite. Or, c’est une clé. Les Allemands ont plus repoussé l’âge du départ à la retraite que les Français. Et leur économie est plus compétitive que la nôtre. Il va également falloir que l’État sache quels ajustements structurels mettre en place, une fois les mesures d’urgence passées.
Pourra-t-on repartir sur le même modèle économique qu’avant la crise ?
Il faudrait également, de façon évidente, prendre des orientations économiques qui prennent en compte les problématiques écologiques. Cette crise pose la question de l’accélération du processus du passage à une économie plus soucieuse de la gestion des ressources. Sur ce point, l’Europe est plutôt en avance. Les pays européens pourraient jouer cette carte sur la scène internationale, à condition d’avoir une économie prospère. Pouvoir être leader en matière de développement durable impose d’être compétitif sur le plan économique et financier. Autrement dit, travailler plus. Et c’est très compliqué, car plus on travaille, plus on a d’empreinte carbone. Donc, ce n’est pas simple. Pourtant, nous n’avons plus guère le choix.
La nuit du 21 au 22 avril a permis à la France confinée d’observer une pluie d’étoiles filantes
En France et ailleurs dans le monde, la pluie d’étoiles filantes annuelle des Lyrides a débuté dans la nuit du 21 au 22 avril. Provoquée par le passage de la comète Thatcher, elle a atteint son pic d’activité vers une heure du matin, comme le montre la vidéo ci-dessous. Les amateurs ont alors pu observer une vingtaine d’étoiles filantes par heure. Passé ce pic, des étoiles filantes ont pu être observées jusqu’au 25 avril.
Une animation, proposée par l’International Meteor Organization, permet de visualiser le phénomène spatial à l’oeuvre.
Des étudiants de l’ISAE-SUPAERO ont transformé leur confinement en expérience scientifique
Des étudiant de l’Institut supérieur de l’aéronautique et de l’espace (Isae-Supaero), basé à Toulouse, participent depuis le 17 mars dernier – jour de l’annonce du confinement par le président de la République – à une expérience originale. La plupart sont étrangers, et ont été pris de court par les annonces.
Faisant contre mauvais fortune bon coeur, ces étudiants, qui travaillaient jusque là sur les problématiques de confinement des astronautes, ont donc l’occasion de faire des travaux appliqués.
Motivation, sommeil, nombre de pas effectués en une journée, nombre de relations sociales, capacités cognitives… de nombreux paramètres sont suivis notamment via des exercices et des tests que les 80 participants effectuent quotidiennement, dans le respect le plus strict des règles de confinement en vigueur.
Pour en savoir plus sur l’expérience de confinement de l’ISAE-SUPAERO TELEOP sélectionnée pour SIRIUS-9, c’est ICI.
La NASA et l’ESA apportent leur aide pour lutter contre la crise sanitaire liée à la pandémie de Covid-19
Les agences spatiales européennes et américaines ont, depuis le début de la pandémie mondiale actuelle, proposé l’accès gratuit à leurs satellites pour lutter de manière innovante contre l’épidémie de coronavirus. Ainsi, les deux agences ont, chacune de leur côté, lancé des appels à projets pour évaluer l’usage le plus pertinent qui peut être fait de leurs satellites de télécommunications.
L’ESA a, dans le cadre du projet « Espace en réponse à l’épidémie de COVID-19 », en coopération avec le gouvernement italien, lancé un appel d’offre qui aboutira, dans les prochains jours, à sélectionner un certain nombre de projets. En plus de l’utilisation gratuite des satellites de l’ESA, ils seront également financés par l’agence spatiale européenne, à hauteur de 2,5 millions d’euros.
En plus de cela, l’ESA a ouvert de nombreux topics sur la crise du Covid, que vous pouvez retrouver ICI.
Hubble vient de fêter ses 30 ans
Le 24 avril dernier, le célèbre télescope orbital a fêté ses 30 années d’existence. Pour célébrer cet anniversaire, la NASA a dévoilé une photo (ci-dessous) prise récemment par l’engin spatial, lancé en 1990. Il s’agit deux nébuleuses, NGC 2014 et NGC 2020, situées dans le grand nuage de Magellan.
La date du premier vol habité de la capsule spatiale de SpaceX est désormais connue : ce sera le 27 mai prochain.
Baptisée Crew Dragon, la capsule – dont vous pouvez découvrir l’intérieur dans la vidéo ci-dessous – transportera des astronautes américains vers l’ISS, à bord d’une fusée Falcon 9, également fabriquée par SpaceX.
Ce premier vol habité, plusieurs fois reporté, est très attendu par la NASA, en concurrence avec Boeing sur ce créneau qui pourrait se révéler très lucratif pour l’entreprise américaine.
Axelle a créé sa chaîne Youtube Le labo d’Heliox fin 2017. Elle y présente habituellement des projets pour imprimantes 3D et donne ensuite à ses abonnés la possibilité de les refaire à la maison. Elle a lancé fin mars avec Antonin Tailhandier la plate-forme Covid3d pour mettre en relation les makers avec les entreprises et personnels à la recherche de visières de protection dans toute la France.
Techniques de l’ingénieur : Comment est née l’idée de la plate-forme Covid3D ?
Axelle : J’ai lancé la plate-forme à la suite d’un appel sur Twitter. J’avais proposé aux gens de ma région et au personnel soignant de les fournir en visières car je dispose de plusieurs imprimantes 3D. J’ai eu beaucoup trop de demandes par rapport à ma capacité de production. J’ai aussi reçu des messages de makers qui voulaient imprimer des visières. Dans le lot, Antonin m’a dit qu’il pouvait m’aider à développer une plate-forme.
J’ai ensuite lancé un appel à ma communauté. Elle est constituée principalement de makers qui disposent d’imprimantes 3D car c’est le cœur de ma chaîne Youtube. Nous avons aujourd’hui plus de 9 200 makers inscrits dans toute la France qui ont distribué plus de 83 000 visières.
Comment se fait le lien entre une demande et un maker ?
Le demandeur poste une annonce sur Covid3D.fr. Le maker se positionne selon sa région et ses possibilités de production. Il se propose, le demandeur accepte. Ils entrent alors en contact et s’arrangent pour les modalités de livraison. Je préconise que ce soit le demandeur qui se déplace pour les récupérer. Le maker pose les visières et recule pour laisser le demandeur les récupérer. La plate-forme est bénévole, mais le demandeur peut faire un don à son maker pour financer la matière première pour les suivants.
Qui sont les makers ?
Les makers sont exclusivement des particuliers, car la plate-forme n’autorise pas la vente de visières. Ils sont équipés d’une imprimante 3D à domicile et achètent eux-mêmes le matériel nécessaire à la fabrication des visières. Ils impriment les serre-têtes, achètent les feuilles transparentes et assemblent le tout pour livrer des visières complètes. Il faut compter en moyenne une heure pour fabriquer une visière.
N’importe quel type de plastique peut convenir pour le serre-tête, les feuilles sont en PVC, il s’agit de feuilles transparentes de reliures classiques.
Faites-vous un choix dans les demandeurs acceptés sur la plate-forme ?
Tout le monde est accepté, car toute personne qui travaille en contact avec du public a le droit de se protéger. C’est dans l’intérêt de tout le monde. Au début, la plupart des demandeurs étaient du personnel soignant – des milieux hospitaliers, EHPAD, infirmières libérales, et toutes autres personnes du secteur de la santé, car beaucoup de personnes étaient confinées. À mesure que le 11 mai approche, de plus en plus de personnes souhaitent anticiper le déconfinement et s’équiper en visières pour être prêtes à travailler sur le terrain, au contact du public. Nous avons des travailleurs de tous horizons : des coiffeurs, des personnels de magasins, etc.
Y a-t-il des normes particulières à respecter ?
Il n’y a pas de normes particulières. N’importe quel plastique peut convenir à condition de respecter certaines bonnes pratiques. À la réception, il faut par exemple désinfecter les visières, respecter les bonnes pratiques de nettoyage et changer la feuille plastique lorsqu’elle se détériore.
Nous nous sommes spécialisés sur la visière, car d’autres types de protections sont plus assujettis à la réglementation. On ne peut pas fournir tout et n’importe quoi. C’est par exemple le cas des adaptateurs de matériel respiratoire. On ne peut pas se risquer à en fournir sans contrôler la qualité de l’impression. C’est aussi le cas pour les masques, d’autant plus que nous avons des makers pour imprimer, mais pas de couturiers.
Plusieurs initiatives se développent. Travaillez-vous ensemble ?
Il existe des groupes Facebook locaux, l’association Visières solidaires et bien d’autres. Il n’y a pas vraiment de sens à se rassembler, car le but est justement de se répartir la tâche pour qu’un maximum de personnes puissent être équipées. Nous avons soulagé plusieurs petits groupes Facebook locaux, car tout se fait automatiquement sur la plate-forme. C’est dingue de voir cette solidarité et d’avoir réussi à distribuer autant de visières gratuitement. Les gens prennent de leur temps et de leur argent, beaucoup plus que ce que j’avais prévu.
Le salon Laval Virtual, dont la 22e édition s’est déroulée du 22 au 24 avril dernier, n’a jamais aussi bien porté son nom. Il a en effet pris place dans un espace virtuel, Laval Virtual World, faute d’avoir pu se tenir comme à l’accoutumée dans le chef-lieu de la Mayenne, en raison du Covid-19. Les conférenciers, les exposants et les visiteurs étaient donc conviés à télécharger le logiciel PC/Mac de VirBELA (une entreprise de San Diego en Californie), à personnaliser leur avatar puis à se téléporter dans ce monde virtuel, logé sur une île. Divers bâtiments – centre de conférences, salles de réunion… – étaient prêts à les accueillir.
Crédits : Laval Virtual
Une préparation qui s’est faite au pas de course : le 9 mars, l’association Laval Virtual annonçait officiellement l’annulation du salon. Mais, dès le lendemain, les organisateurs se mettaient en quête d’une solution technique de rechange. « Nous avons mobilisé plus de cinquante personnes dans le monde pour tester une quarantaine de plates-formes de virtualisation, raconte Laurent Chrétien, DG de Laval Virtual. Dix jours plus tard, notre choix s’est porté sur VirBELA. Nous avons entamé la refonte de l’évènement entre fin mars et début avril ». L’analyse comparative des plates-formes évaluées – Engage, VRChat, Altspace VR, etc. – a été publiée sur Linkedin. Une étude plus approfondie est prévue plus tard.
Une perte de 400 000 euros
Autre choix, d’ordre financier cette fois : la gratuité des inscriptions. « Hormis la contribution de quelques sponsors, nous n’avons pas cherché à instaurer un nouveau modèle économique » ajoute Laurent Chrétien. Les pertes sèches occasionnées par l’annulation du salon – ou plutôt son report, l’édition 2021 étant prévue sans appel d’offres avec les mêmes fournisseurs et prestataires – et des autres rendez-vous (Laval Virtual Asia, tour d’Europe) sont estimées à 400 000 €. Elles devraient être lissées sur plusieurs années, grâce à un prêt garanti par l’État.
Si ce salon virtuel était hébergé sur les serveurs de VirBELA, un centre des opérations avait également été monté dans le showroom du Laval Virtual Center, bâtiment situé en Mayenne. « Une équipe de quatre personnes était en charge de l’aspect technique, précise Maud Oukaltoum, responsable du salon. L’infrastructure était composée de dix ordinateurs, dont six consacrés au streaming du contenu des divers conférences. Une hotline par téléphone ou Whatsapp était également disponible ». Au lieu des 120 bénévoles qui officient habituellement sur le salon en dur, quatre personnes se relayaient à l’accueil notamment.
Crédits : Laval Virtual
C’est par là, comme d’ordinaire dans le monde réel, que l’arrivée dans Laval Virtual Word s’effectuait. A gauche, le centre de conférences, à droite le bâtiment abritant Recto VRso, festival dédié aux arts et aux technologies immersives. Et, réparties sur toute l’île, de grandes salles réservées à certains partenaires (AMD, Microsoft…) et de plus petites aux réunions d’affaires, qui pouvaient être privatisées pour assurer la confidentialité… De passage dans le grand bâtiment central pour assister à quelques conférences, on se rend compte que l’expérience virtuelle est semblable à l’expérience réelle. Tout au moins du point de vue du spectateur, face à l’orateur sur la scène : questions à l’oral ou à l’écrit (via le chat) à la fin de la présentation, applaudissements…
Crédits : Laval Virtual
« Mieux que la visioconférence »
Sceptique au départ, Stan Larroque, dont l’avatar louait les qualités du casque Lynx, a finalement apprécié : « C’est mieux que la visioconférence, on éprouve un sentiment d’espace ». Une petite consolation pour ce jeune ingénieur qui avait loué un stand de 80 m² à Laval, pour y dévoiler les premiers exemplaires de son produit. Voilà la plus cruelle absence affectant ce rendez-vous virtualisé : les exposants et leurs stands parfois un peu fous, qui participent au charme de l’évènement. Impossible de voir et de toucher le « hardware », en particulier les casques. « Cependant, ce sont des technologies matures et nos interlocuteurs sont des connaisseurs, tempère Antoine Bezborodko, producteur exécutif chez Holoforge Interactive, développeur logiciel spécialisé dans les technologies immersives. La dimension commerciale est certes plus convaincante avec un casque. »
Du reste, ces logiciels immersifs ne pouvaient-ils pas être intégrés à ce Laval Virtual World, lui aussi logiciel ? « On y a pensé afin que certains exposants puissent faire des démonstrations auprès de leurs clients, répond Maud Oukaltoum. Mais nous ne disposions que de trois semaines. D’autre part, l’intégration d’un code tiers dans un code existant pose des questions juridiques et de confidentialité ». Ce n’est probablement que partie remise, si jamais une édition virtuelle doit encore avoir lieu.
Quoi qu’il en soit, Laval Virtual World a porté ses fruits, à en juger par les 11 200 inscrits et les nombreux messages de remerciements affichés ici et là sous la forme de post-it. Hormis quelques plantages et des serveurs sous-dimensionnés la veille de l’ouverture, la plate-forme de VirBELA a tenu la route, confortant l’association Laval Virtual dans son choix. Celle-ci pourrait même promouvoir une activité annexe : la prestation de services. « Nous avons développé une expertise et pourrions aider d’autres organisateurs à virtualiser leurs évènements, confie Laurent Chrétien. Nous avons déjà une quinzaine de sollicitations. »
Les innovations qu’il fallait voir
Éviter les accidents aux passages à niveau
Créé par Virtuose Reality en partenariat avec la SNCF notamment, ce logiciel de formation apprend aux conducteurs de poids-lourds à gérer les risques au croisement d’un passage à niveau défaillant. Les accidents de ce genre ont en effet souvent des conséquences dramatiques. Ce logiciel fonctionne avec l’Oculus Quest.
L’incrustation vidéo au service de l’interaction sociale
Développé par Clarté, le système Semantic See Through, basé sur des techniques de deep learning, sert à incruster les images vidéo des différents participants dans une réunion virtuelle 3D. Ainsi le sentiment de présence individuelle et sociale est-il renforcé. Ce système est particulièrement adapté aux casques « video see through », comme le Lynx ou le Varjo XR-1.
Pour rééduquer les victimes d’infirmité motrice cérébrale
Inveion est un logiciel destiné aux personnes handicapées par une infirmité motrice cérébrale, qui affecte environ trois enfants sur mille. Il aide à déclencher des neurones moteurs et à corriger les gestes des jeunes patients. Un premier essai clinique sur 58 enfants a démontré des progrès en matière de motricité et de socialisation.
Le dialogue de Petersberg se déroule chaque année en amont de la COP sur le climat. Organisée habituellement dans le centre de Berlin, la réunion politique de haut niveau s’est déroulée pour la première fois en ligne, crise sanitaire oblige. Une trentaine de ministres se sont réunis autour de la chancelière allemande, du président de la COP26 Alok Sharma et du secrétaire général des Nations Unies António Guterres. Parmi eux : les ministres des plus grands émetteurs – États Unis, Chine, Inde, Russie, Japon –, de plusieurs États membres de l’Union Européenne – France, Italie, Espagne, etc. – et des pays en développement – îles Marshall, Gabon, etc.
La conférence en ligne a permis d’envoyer un message clair : il ne faut pas oublier le climat dans les plans de relance. Une fois cela dit, force est de constater le manque d’annonces concrètes pour y parvenir. « L’Europe doit devenir le premier continent neutre sur le plan climatique d’ici 2050, a rappelé Angela Merkel. C’est pourquoi je salue l’objectif intermédiaire de réduction des émissions de gaz à effet de serre de l’UE de 50 à 55 % d’ici 2030 par rapport à 1990 ». La chancelière allemande a également rapproché la crise climatique et la crise de la biodiversité, les qualifiant « d’une importance majeure ». António Guterres en a profité pour appeler les États membres du G20 à s’engager pour la neutralité carbone d’ici 2050, car ils émettent 80 % des gaz à effet de serre mondiaux.
Le Green Deal européen, boussole de la relance européenne
Pour la première fois, la chancelière allemande apporte son soutien à ce nouvel objectif climatique intermédiaire pour 2030. C’est une avancée en soi. Pourtant, les associations membres du Réseau Action Climat auraient aimé qu’elle annonce un engagement encore renforcé. En effet, pour espérer limiter le réchauffement climatique à 1,5°C, elles estiment que les émissions de l’UE devraient diminuer d’au moins 65 % d’ici 2030. Une bonne nouvelle est toutefois à noter : suite au tollé soulevé par la nouvelle contribution nationale du Japon communiquée fin mars, le pays a annoncé qu’il publierait de nouveaux engagements.
Angela Merkel apporte son soutien au Green Deal. Elle a rappelé qu’il faudra rester vigilant alors que plusieurs associations d’entreprises de divers secteurs font du lobbying pour essayer de reporter ou d’annuler certaines réglementations environnementales. En particulier, la Confédération Européenne de la plasturgie (EuPC) demandait récemment à la Commission européenne un report de l’application de la Directive SUP sur les plastiques à usage unique. Concernant les milliards mobilisés par les États pour relancer leur économie, la chancelière a estimé qu’« il y aura un débat difficile sur l’allocation des fonds ». « Nous ne devons pas écarter le climat, mais investir dans les technologies climatiques », a-t-elle complété.
L’Allemagne exercera la présidence du Conseil de l’UE au cours du second semestre 2020. Angela Merkel n’a pas avancé de plan concret sur la manière dont l’Allemagne contribuera à la réalisation des objectifs climatiques de l’Union européenne. Elle n’a pas non plus donné d’informations sur la manière dont elle utilisera sa gouvernance pour encourager les pays européens à fournir leurs nouvelles contributions nationales avant fin 2020. Elle a toutefois plaidé en faveur des investissements dans des infrastructures respectueuses du climat et de la tarification carbone en Europe et dans le monde pour prévenir les distorsions de concurrence.
C’est la première fois que la Liste rouge des espèces menacées en France dresse un bilan aussi complet pour la Martinique. Après deux ans d’étude, les experts du Comité français de l’Union internationale pour la conservation de la nature (UICN), de l’Office français de la biodiversité (OFB), du Muséum national d’Histoire naturelle (MNHN) et des spécialistes de la faune martiniquaise livrent leurs conclusions.
L’étude a évalué 427 espèces vivant sur le territoire. Parmi ces espèces, 13 % sont endémiques, ce qui signifie qu’on ne les retrouve que sur l’île de la Martinique. « Nous avons sélectionné tous les groupes d’espèces terrestres et marins pour lesquels nous pensions disposer de suffisamment d’informations, partage Florian Kirchner, chargé de programmes « espèces » à l’UICN. Les experts ont ainsi évalué la plupart des vertébrés et une partie des invertébrés rencontrés en Martinique. Au bout du compte, 62 espèces, soit 15 % des espèces évaluées, apparaissent menacées. En plus, 15 espèces ont déjà disparu et 56 autres sont quasi menacées ».
La destruction des habitats, l’urbanisation et les activités humaines
Les premières menaces pesant sur les espèces animales de Martinique sont la destruction des habitats, ainsi que leur fragmentation par l’urbanisation et la construction d’infrastructures. Les forêts perdent du terrain, réduisant l’habitat de nombreuses espèces, en particulier dans les forêts semi-humides du sud. « La destruction des habitats est la menace la n°1 pesant sur la biodiversité au niveau mondial, rappelle Florian Kirchner. La plupart du temps, elle se fait pour l’urbanisation ou l’agriculture ». La pollution lumineuse, les rejets d’eaux usées et les pesticides viennent fragiliser encore davantage les espèces.
Il faut ajouter à ces menaces un ensemble d’activités humaines, notamment la pêche, les activités touristiques et la chasse. Par exemple, la pêche entraîne des impacts indirects sur de nombreuses espèces comme le cachalot et la tortue imbriquée. Celles-ci se trouvent enchevêtrées dans des filets ou percutées par les navires. En plus, les ancres des bateaux de plaisance détériorent les herbiers, zones d’alimentation importantes pour des espèces comme la tortue verte, « en danger critique d’extinction ».
Des espèces exotiques et d’autres menaces
Comme toutes les îles, les espaces invasives menacent la faune indigène. « Les écosystèmes des îles sont assez fragiles vis-à-vis d’espèces exogènes introduites, explique Florian Kirchner. Par exemple, l’iguane des petites Antilles est menacé par son cousin d’Amérique, l’iguane commun qui exerce une compétition vis-à-vis de lui. »
Ce travail donne les priorités de protection en matière de faune. « Le but est que ce travail conduise à des actions de protection ciblée des espèces les plus menacées, mais aussi de protection des espaces naturels dans leur ensemble. Il faudra aussi mieux encadrer les activités qui font peser des pressions fortes sur la faune », conclut Florian Kirchner.
Photo de Une : Rat pilori de la Martinique (Megalomys desmarestii), espèce éteinte. Spécimen naturalisé exposé dans la Grande Galerie de l’Evolution au Museum National d’Histoire Naturelle, à Paris. Vassil, Creative Commons CC0 1.0
Pour éviter la propagation du Covid-19 (et d’autres virus) dans ses hôpitaux, les trains et les métros, la Chine a acheté des centaines de robots d’une entreprise danoise. Équipés de lampes UV, ils peuvent désinfecter une salle en 15 minutes.
Les masques de protection manquent, mais pas les solutions. Sur la toile, des patrons de masques sont largement partagés pour permettre aux citoyens de les réaliser. Sur le terrain, de nombreuses entreprises ont fait appel à des mains expertes pour concevoir les protections individuelles du personnel soignant. D’autres initiatives, en cours de réalisation, s’orientent vers les masques réutilisables.
Selon une nouvelle étude de l’University College de Londres, le réchauffement climatique pourrait entraîner des effondrements soudains et catastrophiques de la biodiversité partout dans le monde tout au long du XXIe siècle.
Une étude démontre que les personnes qui suivent les recommandations nutritionnelles de 2017 réduisent l’impact de leur alimentation sur l’environnement de 50 %. Un régime alimentaire pauvre en viande et riche en aliments d’origine végétale explique ce résultat.
Apprendre à manier une nouvelle machine en usine peut s’avérer dangereux. Heureusement, manipuler une réplique 3D virtuelle est sans risque ! La formation en réalité virtuelle se répand de plus en plus dans les industries. Comment expliquer cet attrait et à quelles nouveautés s’attendre ? Réponses dans cet entretien avec la chercheuse Indira Thouvenin.
Espace : le Pentagone diffuse des vidéos d' »ovnis »
Le Pentagone a officiellement diffusé trois vidéos prises par des pilotes de la Marine américaine montrant des rencontres en vol avec ce qui peut sembler être des ovnis.
Le Département américain de la Défense a expliqué lundi dans un communiqué qu’il avait décidé de les diffuser officiellement « de manière à dissiper toute idée fausse du public sur sur la véracité ou non des images qui ont été propagées ». Il ajoute également que « le phénomène aérien observé dans les vidéos est qualifié de non identifié ».
En décembre 2017, le Pentagone a reconnu avoir financé jusqu’en 2012 un programme secret d’un coût de plusieurs millions de dollars destiné à enquêter sur les observations d’ovnis.
Des dauphins bleutés par la bioluminescence des vagues
Profitant visiblement du confinement, des dauphins se sont joints au milieu de vagues bioluminescentes observées au large de Newport Beach, en Californie.
La bioluminescence est la production et l’émission de lumière par des micro-organismes via une réaction chimique pendant laquelle l’énergie se transforme en énergie lumineuse.
Dans cette vidéo ci-dessous, les dauphins nagent à coté d’un bateau dans des vagues bioluminescentes et brillent d’une couleur bleutée.
Un site programmé pour s’effacer si personne n’écrit en 24h
Intitulé « This website will self-destruct », ce site internet est basé sur un concept insolite : il faut qu’au moins un message anonyme soit publié dessus toutes les 24 heures, sinon il disparaîtra automatiquement. Chacun est libre de poster un message de manière totalement anonyme. On relève déjà plus de 50 000 messages.
Un compte à rebours marque le temps qu’il reste en seconde mais il se remet à zéro des qu’un message est publié.
La filière fruits et légumes frais en est un exemple, avec ses problématiques propres. Laurent Grandin est président de l’Interprofession des fruits et légumes frais, INTERFEL. Elu depuis la fin de l’année 2018, il a accepté de répondre aux questions de Techniques de l’Ingénieur sur la gestion de la crise et sur les défis qui sont ceux de la filière actuellement. Une crise qui est loin d’être terminée et qui aura des répercussions économiques à moyen terme, ce qui constitue un autre défi qu’il va falloir relever. Interview réalisée le 14 avril 2020.
Techniques de l’Ingénieur : Comment la filière fruits et légumes a-t-elle réagi face à la crise sanitaire que nous connaissons depuis le mois de mars ?
Laurent Grandin : La filière fruits et légumes est dans un cas un peu particulier dans le contexte actuel, puisqu’elle échappe au confinement. En ce qui concerne les fruits et légumes, l’autosuffisance est d’à peu près 50% en France. Cela veut dire que 50% des produits viennent d’ailleurs. Cela concerne les agrumes par exemple, que l’on ne peut pas produire sous nos latitudes, ainsi que tous les fruits tropicaux.
Néanmoins, il faut regarder les choses en face. Nous avons perdu ces 20 dernières années près de 50% de notre production en fruits. La raison est claire : le manque d’harmonisation européenne fait que, malgré une productivité qui est loin d’être mauvaise, nous ne sommes plus compétitifs par rapport à un certains nombre de nos voisins. Aujourd’hui certains pays européens bénéficient d’un coût de main d’oeuvre très bas, avec une productivité comparable à la nôtre. C’est pour cette raison qu’Interfel plaide pour une harmonisation européenne aux niveaux fiscal, social et environnemental. On ne peut pas continuer à évoluer dans un espace commercial ouvert, mais au sein duquel les distorsions de concurrence sont telles que celles que l’on observe aujourd’hui.
Quelles dispositions ont été prises pour soutenir la filière avant la crise sanitaire ?
La filière, qui comme je l’ai dit fournit 50% des fruits et légumes dans l’hexagone, a bénéficié de dispositions particulières comme le CICE (Crédit d’impôt pour la compétitivité et l’emploi) ou le TODE (Travailleurs Occasionnels Demandeurs d’Emploi) pour les travailleurs saisonniers. Néanmoins, le maintien du dispositif tel qu’il est aujourd’hui aboutira selon nous, dans une dizaine d’années, à une souveraineté alimentaire tournant autour de 25 à 30% pour les fruits et légumes, au mieux.
Il ne s’agit pas ici de remettre intégralement en cause la logique libérale des échanges à l’oeuvre aujourd’hui. D’ailleurs notre filière est en partie composée d’importateurs, d’exportateurs… nous ne sommes pas « anti-commerce ».
Mais la logique que nous essayons de maintenir dans l’interprofession n’est pas celle d’un système ultralibéral ouvert au sein duquel chacun doit se débrouiller. Il s’agit plutôt de trouver des espaces de complémentarité pour avoir à la fois une alimentation de qualité, accessible, et diversifiée.
Cette complémentarité que vous évoquez est-elle compatible avec les réglementations européennes ?
Aujourd’hui les exigences pour bénéficier d’une alimentation – au niveau des fruits et légumes – saine et équilibrée sont incompatibles avec les règles du marché telles qu’on les connaît aujourd’hui. Encore une fois je tiens à le préciser : nous ne jetons pas la pierre à des opérateurs italiens ou espagnols par exemple qui bénéficient d’une main d’oeuvre beaucoup moins chère qu’en France. Nous avons d’ailleurs beaucoup d’échanges avec les filières de ces pays au niveau continental.
L’harmonisation au niveau européen est nécessaire, c’est ce que nous ne cessons de plaider. D’ailleurs beaucoup de mesures qui sont prises unilatéralement – ce que l’on appelle la surtransposition – constituent une pratique que nous réprouvons totalement. Cette volonté individuelle de chaque pays à vouloir tirer son épingle du jeu est d’ailleurs ce qui pour nous a amené l’agriculture dans l’impasse dans laquelle elle se trouve aujourd’hui.
L’état des lieux que vous dressez est-il le même pour toutes les filières agricoles ?
Non. Les problématiques sont différentes selon les filières. Si on s’intéresse par exemple aux filières céréales ou vins, qui sont très exportatrices, les problèmes de concurrence se posent différemment.
En ce qui concerne notre filière, le problème se pose plus sur l’arboriculture que sur les légumes, pour lesquels une grande partie du travail peut être mécanisé. A contrario la production arboricole nécessite beaucoup de main d’oeuvre. C’est la raison pour laquelle nous restons compétitifs sur tout ce qui est légumes racines.
Que préconise Interfel ?
Ce que nous considérons comme cohérent, c’est d’avoir un espace dans lequel les structures seraient complémentaires – je le répète – plutôt qu’en affrontement perpétuel sur les marchés. Si nous considérons que la souveraineté alimentaire est un des fondements de l’Union Européenne, les domaines agricoles et alimentaires devraient alors échapper, de notre point de vue, au champ de la concurrence, pour se régler d’une autre manière. C’est d’ailleurs un peu ce que dit le président de la République. Nous sommes pour que cela se mette en place dans un cadre européen, mais il ne faut pas que viennent s’ajouter à chaque fois des dispositions spécifiques à la France, qui créent des handicaps supplémentaires au sein d’un contexte qui n’est déjà pas simple à la base.
Quelles sont les options pour sortir de la logique économique actuellement à l’oeuvre ?
Il y en a plusieurs. La tendance à la relocalisation des productions par exemple, même si elle crée une résistance certaine et un effondrement à certains endroits.
La loi Egalim permet aussi une montée en gamme, à travers des conversions qualitatives qui correspondent mieux aux attentes citoyennes. Maintenant, il va être important de voir, dans un contexte post crise sanitaire, qui sera suivi, à n’en pas douter, d’une crise économique, quel sera l’environnement d’achat. Car qui dit montée en gamme dit également montée en prix. Et il ne s’agit pas de proposer, à la sortie de la crise que nous vivons, des produits qui deviennent inaccessibles aux consommateurs.
Une solution que nous avions également préconisée depuis deux ans était de pouvoir ouvrir, en dérogation du droit de la concurrence, les marchés publics des produits frais. Cette disposition permettrait de protéger des production et d’installer une dynamique locale sans compromettre l’ensemble des échanges. D’ailleurs les élus avec lesquels nous avions alors évoqué cette hypothèse l’avaient accueillie plutôt favorablement.
Revenons à la crise actuelle. Quelles sont les problématiques en ce qui concerne la main d’oeuvre nécessaire au maintien de l’activité dans les semaines et mois à venir ?
Le problème lié à la main d’oeuvre a été en partie résolu pour la période de début de crise : A été obtenu auprès du gouvernement pour la filière agroalimentaire de bénéficier de contrats spécifiques en dérogation du droit classique. En clair, il est possible de proposer des CDD à des gens qui sont en chômage technique et ayant un CDI à la base. Le tout avec des délais très courts de prévenance, ce qui permet aux employeurs de franchir le pas plus facilement. Les premières tensions sur la main d’oeuvre ont été en partie levées comme cela, et notamment grâce au site Wizifarm, qui a facilité la mise en relation. Cependant, il s’agissait alors de trouver 40 000 personnes. A terme, il va falloir trouver 200 000 personnes, et cela constitue une inquiétude certaine. D’autant plus que la date du 11 mai se rapproche et que certaines personnes vont peut-être reprendre leur travail. Aussi le travail agricole est difficile, nous l’éprouvons chaque année avec les agences pour l’emploi : 75% des volontaires se désistent après la première semaine de travail.
Quelles sont les options ?
Nous comptons beaucoup, comme chaque année, sur la main d’oeuvre étrangère, mais comme vous pouvez l’imaginer, à ce niveau là c’est l’incertitude la plus totale, et rien n’a été tranché au niveau de l’Etat pour le moment.
Une piste serait de s’appuyer, comme cela se fait actuellement en Espagne et en Italie, sur les réfugiés sans autorisation de travail. Comme la plupart de ces gens sont en France depuis des année, pourquoi pas leur donner du travail en en profitant pour les régulariser.
Mais nous faisons face à une autre difficulté : les normes qui ont été établies pour loger les saisonniers obligent à doubler les surfaces habituellement consacrées, pour des questions sanitaires. Cela pose un gros problème aux producteurs.
Au milieu de tout cela, les exigences citoyennes quant à la qualité des produits agricoles sont de plus en plus pressantes… Cela est-il toujours une priorité aujourd’hui ?
Bien sûr. Nous sommes déjà très engagés sur les processus agroécologiques depuis plusieurs années notamment à traver la HVE (Haute Valeur Environnementale). La filière fruits et légumes s’est lancée dans le bio et la conversion au bio depuis longtemps, et même si nous pensons que ce n’est pas forcément « la » solution, cela en fait partie. Tout cela mis bout à bout, nous considérons que nous avons beaucoup avancé par rapport à ces attentes citoyennes, et nous essayons de communiquer sur cet état de fait le plus possible. Comme nous l’avons fait lors du dernier salon de l’agriculture par exemple.
Cela dit, beaucoup d’ONGs jouent un peu le jeu de la surenchère, en arguant que l’agriculture pourrait se passer totalement de tout traitement, alors que c’est totalement impossible aujourd’hui.
Beaucoup d’efforts sont à l’oeuvre. Les statistiques de l’année dernière transmises par l’EFSA, l’autorité européenne de sécurité des aliments, indiquent que 60% des fruits et légumes ne contiennent aucune trace de pesticides décelables. Cela ne veut pas dire que l’on n’a pas utilisé de pesticides pour la culture de ces produits, mais qu’en tout cas celle-ci a été raisonnée et ne laisse pas de traces. Il faut évidemment continuer sur cette voie et progresser encore.
Pour continuer à progresser comme vous le dites, quelles sont les priorités?
Il va falloir que l’Etat finance beaucoup plus largement la recherche appliquée. Je m’explique. La recherche académique – menée entre autres par l’INRA – est fondamentale, mais pour concrétiser les résultats de ces recherches sur le terrain jusqu’aux producteurs, il faut tester « au réel », dans plusieurs stations, les conditions de mise en oeuvre de ce qui est préconisé. Aujourd’hui, cette recherche appliquée, au niveau de la filière fruits et légumes, est financée quasiment à 100% par les professionnels.
Je vais prendre un exemple. Nous avions estimé à l’époque où cela faisait débat que pour sortir définitivement du glyphosate – inventorier les solutions, les transposer… – nous avions besoin de 30 millions d’euros. Notre budget total sur tout ce qui touche à ces sujets est de 20 millions d’euros, il y a donc un sacré différentiel à combler.
Le secteur a tenu, au prix d’adaptations en cascade qui jettent une lumière crue sur les rouages de la consommation de masse. Au bilan de ces satisfactions, la catastrophe pourrait être annonciatrice de la « transition » alimentaire attendue par nombre d’acteurs.
Les ingrédients d’une paranoïa destructive (*)
Les décisions gouvernementales qui se sont succédées depuis la mi-mars ont souvent pris de court consommateurs et acteurs des filières agroalimentaires, en dépit des préparatifs annoncés. La déclaration des mesures de confinement par le Premier ministre Édouard Philippe le samedi 14 mars a provoqué dans les jours qui ont suivi une ruée vers les magasins d’alimentation, faisant miroiter aux Français le scénario-catastrophe d’une pénurie alimentaire.
Les secteurs agroalimentaire et de la grande distribution ne sont pas concernés par les restrictions d’activité qui frappent le reste de l’industrie depuis le 16 mars. La fourniture des produits agricoles et alimentaires est une « priorité », comme le rappelle la FNSEA, le principal syndicat agricole, dans un communiqué du 18 mars. Rapidement, des voix se font pourtant entendre pour dénoncer l’absence d’équipements et de mesures-barrières prévus pour protéger les employés – caissiers, chauffeurs, livreurs, « en première ligne ».
Les difficultés se sont amplifiées la semaine suivante, avec l’interdiction des marchés forains, justifiée par le durcissement du confinement. Elle a suscité l’incompréhension de la profession, responsable de 30 % des ventes de fruits et légumes, en affaiblissant le rôle des marchés de gros régionaux, au centre des flux de frais. Le ministre de l’Économie, Bruno Lemaire, a incité au « patriotisme économique » la grande distribution, en soutien aux producteurs français. Didier Bompard, PDG de Carrefour, lui a fait écho, évoquant une « chaîne de solidarité ». Le ministre de l’Agriculture a prévenu parallèlement, le 24 mars, du risque de manque de bras aux champs et en a appelé à « la grande armée de l’agriculture » (image ci-dessous). Cette situation concerne l’ensemble des pays européens, après la fermeture des frontières empêchant les travailleurs saisonniers en provenance d’Europe de l’Est de se déplacer.
L’appel à la mobilisation agricole, relayé par la plateforme d’emploi wizifarm.
Les tensions alimentaires accumulent enfin les difficultés pour les populations défavorisées, vivant dans des zones mal pourvues en commerce, les travailleurs précaires, qui perdent leurs sources de revenu et les étudiants. Les distributions d’aides alimentaires qui se mettent en place en urgence dans les quartiers pauvres voient affluer des populations au niveau de vie certes modeste, mais habituellement à l’abri de la faim. La situation de crise amplifie les inégalités sociales.
Le paysage de la disruption alimentaire
Plutôt que de pénurie, les rayonnages vidés de leurs produits sont le signe des ruptures d’approvisionnement, illustrant les rigidités fonctionnelles du système alimentaire. Les difficultés se répercutent sur toute la chaîne d’approvisionnement, mais impactent très différemment ses multiples filières, dont l’exposition varie selon la structure de marché : en filière longue et à l’export, liées à la grande distribution ou bien desservant des circuits courts. La nature et la saisonnalité des cycles de production comptent également : les légumes primeurs, en France, démarrent à peine, alors que les horticulteurs jouent leur saison et que la production fromagère est en plein pic.
La fermeture brutale des restaurants depuis le samedi 14 mars, suivie par l’arrêt complet de la restauration dite hors domicile, signifie pour nombre de filières la perte de débouchés essentiels, alors que les capacités de production sont intactes. Les filières gardent la possibilité de gonfler leurs stocks ou de transformer les produits pour les conserver, comme c’est le cas du secteur laitier, pourvoyant en poudre de lait ou en beurre. Mais ces afflux de stock font craindre un effondrement des prix, lors de leur remise ultérieure sur le marché. Pour d’autres filières, impliquant une offre saisonnière ou mobilisant des denrées périssables, l’arrêt de la commercialisation signifie par contre des pertes nettes. 500 000 agneaux attendaient par exemple d’être commercialisés à l’occasion des fêtes religieuses de printemps.
Le report des ventes sur la consommation des foyers se heurte à une autre contrainte, celle du changement des modes alimentaires. Alors que les consommateurs privilégient depuis le début du confinement les produits de base et l’épicerie salée ou le surgelé, au motif de constituer des réserves, il n’est pas évident pour les industriels de réorienter et reconditionner leurs produits pour y répondre. Les demandes de viande hachée, de gruyère râpé, de yaourts ou d’œufs ont explosé, tandis que les pièces bouchères et les fromages d’appellation ne trouvent plus preneurs, forçant à adapter les réglementations ou à déclasser tout ou partie des produits. Les invendus de pomme de terre pour faire des frites atteignent déjà 600 000 tonnes.
Deux solutions s’offriraient selon les responsables professionnels pour conjurer l’effondrement des prix : le stockage, à court-terme, et le plafonnement de la production, à moyen-terme, pour éviter la surproduction. Toutes deux nécessitent des moyens coordonnés à l’échelle européenne, dont la politique agricole commune s’est privée depuis plusieurs décennies.
La transition alimentaire déjà là ?
Le commerce en ligne et celui de proximité ont le plus bénéficié de la hausse de consommation depuis le début du confinement, apportant des solutions immédiates pour pallier les limitations imposées aux formes de distribution traditionnelles. Aussi, la crise ressemble-t-elle au tremplin attendu par les acteurs agroalimentaires, confirmant la transition vers de nouveaux modèles alimentaires de distribution et de consommation.
Du côté du commerce de proximité, les circuits courts, mettant en lien producteurs et consommateurs, font l’objet de toutes les attentions. Les plateformes numériques sont nombreuses à offrir des formules de commande de paniers, livrés dans des points de retrait ou à domicile. Aux côtés d’acteurs structurés comme les Amap (Associations pour le Maintien de l’Agriculture Paysanne), les projets opportunistes, portés par les chambres d’agriculture ou d’autres organisations professionnelles, côtoient les opérations à vocation solidaire, promouvant par exemple le « locavorisme » – qui prône la relocalisation de la production agricole -, et les nouveaux entrepreneurs du numérique. Ils ne viennent pas seulement au secours des producteurs en vente directe, dont l’accès aux marchés de plein-air s’est fermé, ni ne se réservent à la promotion de l’agriculture biologique, plutôt favorisée. En fait, ils s’agrègent de nouveaux publics et intéressent les collectivités sommées d’œuvrer à la résilience de leurs territoires.
Les groupes de grande distribution, dont les hypermarchés ont perdu en rentabilité, ont vu avec satisfaction leurs drive pris d’assaut. Ce débouché leur donne l’occasion d’un changement d’échelle, amenant à tester leur robustesse logistique. Le surplus d’information numérique emmagasinée leur fournit les moyens d’affiner leurs stratégies dans ce domaine. Ils se préparent ainsi à la future bataille de la distribution alimentaire, marquée par l’arrivée promise des géants du numérique Amazon et Alibaba, sur ce créneau. La coopérative bretonne Sica Saint-Pol-de-Léon, détentrice de la marque Prince de Bretagne, se flatte déjà d’avoir vendu avec son site ouvert sur Amazon en 2019, 1 000 paniers dans les deux semaines qui ont suivi le confinement, contre 15 seulement auparavant.
Grande distribution en ligne contre circuits de proximité, la polarisation du débat à l’occasion de la crise actuelle trahit les tensions qui traversent le secteur agroalimentaire français, soumis à une compétition européenne exacerbée. La France a l’an dernier et pour la première fois dans son histoire récente connu un commerce agroalimentaire déficitaire avec ses voisins européens. La FNSEA, par la voix de sa présidente Christine Lambert, a commencé à dénoncer le « positionnement haut de gamme » de l’agriculture française, menaçant la souveraineté alimentaire du pays, en face de logiques industrielles qui donnent plus que jamais la prime aux plus bas prix. C’est déjà remettre en cause les résolutions stratégiques adoptées au sortir des états généraux de l’Alimentation, organisés fin 2017. L’enjeu sur la distribution des marges entre producteurs agricoles et grande distribution y a occulté les objectifs liés à la transition agroécologique, soutenue par les tenants de la proximité. Il n’est pas certain à l’avenir que toutes ces transitions trouvent à s’accorder sous un même ciel.
(*)
L’expression prend le contrepied du concept de « paranoïa constructive » (constructive paranoïa) proposé par Jared Diamond pour décrire le comportement préventif des sociétés traditionnelles, face à des risques imprévisibles – comme de ne pas dormir sous un arbre de crainte qu’il ne tombe, chez les Papous (Diamond J., 2013, Le monde jusqu’à hier. Ce que nous apprennent les sociétés traditionnelles, Paris, Galimard). Dans le cas traité, les précautions prises ont plutôt accru les risques qu’elles les ont résolus.
Par Etienne Monin
Étienne Monin est géographe, rattaché à l’Université d’Angers. Il étudie depuis dix ans les dynamiques de développement régional en Chine, en lien avec la globalisation.
Cette dépendance aux importations est au fondement des logiques industrielles structurant le commerce mondial, et ont pour nom division internationale du travail et chaîne de valeur globale, autrement dit la dimension mondiale donnée aux séries d’opérations nécessaires à produire et commercialiser un objet donné.
La dispersion des chaînes logistiques de l’industrie, favorisée par les accords internationaux de libre-échange, est le principal ressort de la compétitivité économique. Elle est motivée par les rendements d’échelle croissants et la recherche de profitabilité, dans un marché concurrentiel toujours plus ouvert. La pandémie actuelle ne montre-t-elle pas les limites de ce modèle global, étirant les flux de marchandises d’un continent et d’un océan à l’autre ? Les chaînes de valeur sont-elles indispensables au développement planétaire, dans un monde interconnecté et économiquement interdépendant ?
La division internationale du travail, aux origines de l’économie industrielle
Le concept de division internationale du travail constitue le trait d’union de la compréhension des dynamiques capitalistes, depuis les travaux fondateurs des économistes classiques, qui ont observé les ferments de la première révolution industrielle (XVIIIe-XIXe siècle), jusqu’à l’économie géographique qui décrit les ressorts de la globalisation contemporaine. La division du travail est, pour Adam Smith (1776), le principal facteur de productivité, et offre un avantage concurrentiel en contexte de marché. David Ricardo, insiste quant à lui, avec la théorie du commerce international (1817), sur les avantages comparatifs tirés de la division du travail, au travers de la spécialisation des économies nationales. Le sociologue Émile Durkheim y voit même, en 1895, la marque de la solidarité organique, c’est-à-dire de l’interdépendance, constitutive des sociétés modernes.
La division du travail a pour conséquence spatiale l’agglomération des activités. Soit que la productivité bénéficie à la croissance interne de l’entreprise, soit qu’elle se répercute à d’autres, engagées avec elle dans des opérations externalisées de fabrication, la spécialisation productive apparaît concentrée sur un territoire, appelé hier par Alfred Marshall «district industriel» (1890), et aujourd’hui « cluster » ou « écosystème ». De tels districts, soumis aux contraintes de transport et communication, se localisent en priorité auprès de bassins d’emploi et de centres de consommation, entraînant cumulativement l’urbanisation et le développement régional.
L’extension spatiale du système industriel : le modèle centre-périphérie
Les agglomérations productives du monde « smithien-marshallien » mettent historiquement en scène des régions motrices, foyer des productions industrielles, entraînant dans leur sillage des marges exploitées, pourvoyeuses de ressources et de main-d’œuvre. Dans le modèle centre-périphérie, la polarisation des échanges concourt à la concentration inégale des richesses et explique, sur le temps long, les écarts de développement observés entre régions. Ce « système-monde », suivant l’expression du sociologue Immanuel Wallerstein (1974), s’organise à compter du XIXe siècle, à cheval entre un espace central situé en Europe du Nord et des zones subordonnées au régime d’exploitation coloniale, établi sur tous les continents.
Le système de production de masse né du régime fordiste, au XXe siècle, restructure les rapports entre centre et périphérie, en se dilatant dans l’espace régional. Après avoir favorisé la concentration en pôles de croissance, les activités manufacturières se relocalisent à distance, à l’intérieur des États comme à l’étranger, en quête d’emplois peu qualifiés et de bas salaires. La différenciation économique s’opère entre « cols bleus » et « cols blancs », intervenant dans l’économie des services et de la consommation, à plus forte valeur ajoutée. Elle trouve à s’incarner à la fin du XXe siècle dans la triade constituée des pays industrialisés d’Europe occidentale, des États-Unis et du Japon, face aux pays en développement, appelés à former « l’atelier du monde ».
La constitution d’un espace économique mondial
Le Japon montre la voie d’une industrialisation réussie. Les « dragons » asiatiques se lancent à sa suite dans l’industrie d’exportation des biens de grande consommation, à forte intensité de main-d’œuvre. Ils prennent ainsi le contre-pied des politiques fondées sur l’industrialisation lourde et la « substitution aux importations », prônées en Amérique latine et en Afrique, grevées au sortir des années 1970 par le fardeau de la dette publique. Ils assoient leur domination dans les secteurs « légers » sur un marché mondial en plein essor, en pratiquant des politiques attractives pour les investissements étrangers et en développant à leur tour les innovations technologiques leur ouvrant la porte de meilleurs profits.
Les réseaux logistiques se déploient dans l’espace mondial suivant le cadre multilatéral de libre-échange de l’Organisation mondiale du commerce (OMC), qui a remplacé en 1995 l’ « Accord général sur les tarifs douaniers et le commerce » (ou GATT), initié dès 1947. Avec la chute de l’URSS et la libéralisation économique chinoise, ponctuée par l’adhésion du pays à l’OMC en 2001, la globalisation s’accélère et devient planétaire. Elle ouvre non seulement aux pays industrialisés de nouveaux marchés de consommation pour les biens manufacturés, mais leur donne plus encore accès à des réservoirs de ressources et de main-d’œuvre, à l’origine de nouvelles économies d’échelle et d’une extension sans précédent des chaînes de valeur, rendues possibles par la révolution des TIC.
Les réseaux logistiques globaux en scène
Les chaînes de valeur investissent dans les décennies suivantes l’espace mondial, rythmées par la circulation intensive des capitaux, jusqu’à représenter près de 50 % du commerce mondial en 2008. Leur architecture fragmentée met en scène, au côté des firmes globales, des réseaux d’entreprises hyperspécialisées, présentes sur des marchés de niche pour fournir toutes sortes de composants et de services. Loin de composer des plateformes unifiées, les opérations logistiques menées d’un espace de production et d’un circuit régional à un autre, en généralisant l’usage du sourcing et de la sous-traitance, font intervenir de multiples niveaux d’intermédiation, réglementaires, fiscaux ou financiers, donnant la prépondérance aux hubs métropolitains.
La participation des pays aux chaînes mondiales de valeur (carte ci-dessous) illustre les nouvelles gradations dans la hiérarchie centre-périphérie, correspondant aux vagues récentes de relocalisation industrielle et d’intégration économique. Les pays riches, États-Unis en tête, conservent un leadership en tant que pôles d’innovation. Les grands pays émergents – Chine et Inde – sont producteurs de biens manufacturés et de service de pointe, aux côtés de l’Europe de l’Est, de la Malaisie et de la Thaïlande, en Asie du Sud-Est, accédant au rang de pays à revenus intermédiaires. Un ensemble disparate de pays du sud parmi lesquels les géants sud-américains – Brésil et Argentine – la zone Caraïbe, le Vietnam et l’Indonésie en Asie, et plusieurs pays africains – Afrique du Sud, le Kenya, Éthiopie, Maroc, Tunisie – fournit des biens manufacturés simples. Les régions restantes réunissent des pays fournisseurs de produits de base, engagés à des degrés divers, intensif ou limité.
La participation variable des économies nationales aux chaînes de valeur mondiales (CVM) en 2015 Source : Banque mondiale, 2020, Rapport sur le développement dans le monde 2020 : Le commerce au service du développement à l’ère de la mondialisation des chaînes de valeur – Abrégé, Washington D.C. (É.-U.), p. 2.
Les chaînes de valeur semblent à l’aune de la diffusion planétaire l’instrument providentiel du développement, comme démultiplicateur de richesse adossé au commerce international, tel que le préconise la Banque mondiale dans son rapport daté de 2020. Mais une lecture à rebours invite à voir dans les réseaux transnationaux des métropoles et des régions d’agglomération industrielle interconnectées la fin des solidarités territoriales « de proximité », héritières des configurations nationales et locales, pour lesquelles les inégalités se creusent au lieu de se résorber.
Des chaînes mondiales de valeur grippées ?
L’échec du « cycle du développement » de Doha (Doha round) entre 2001 et 2006, sous l’égide de l’OMC, puis la crise financière de 2008-2009 ont pourtant mis un coup d’arrêt à l’agenda multilatéral, ce qu’a entériné le maigre « paquet de Bali » obtenu en 2013. L’affrontement entre pays développés et grands pays émergents se cristallise sur les secteurs protégés des uns, en particulier l’agriculture, et les droits d’exception des autres, accordés en vertu de leur retard économique. Il se double au Nord de contestations virulentes du libre-échange, faisant le constat de la désindustrialisation et du dumping social. Les partenariats bilatéraux qui ont pris le relais, en incluant les domaines controversés des services et de la propriété intellectuelle, mettent au premier plan les organisations régionales comme l’Asean en Asie du Sud-Est, l’Apec, promotrice d’un partenariat trans-pacifique, ou bien l’UE, négociant avec le Canada ou avec le Mercosur, formé des États d’Amérique latine.
Les véritables déflagrations sur le commerce mondial proviennent du bras-de-fer engagé par les États-Unis avec la Chine, en lice pour le statut d’hyperpuissance. Le virage protectionniste du pays, entrepris sous la présidence de Donald Trump, va plus loin qu’une simple politique électoraliste ou qu’une idéologie partisane, au moment où la Chine accentue tout au contraire sa diplomatie commerciale, symbolisée par l’initiative des « nouvelles routes de la Soie » (Belt and Road Initiative), amorcée dès 2013. La guerre commerciale lancée depuis 2018 est hasardeuse en regard du niveau d’imbrication des économies chinoises et états-uniennes, reposant sur les chaînes de valeur, du soja aux iPhones. L’escalade des sanctions s’inscrit dans un diagnostic plus large, celui d’une Chine parvenue à des capacités industrielles sans égal, prenant pied sur le terrain des technologies de pointe, illustrées avec l’exemple de la 5G.
L’histoire du capitalisme, qui a vu naître l’ordre économique mondial actuel, montre que les logiques du commerce ne sont jamais très éloignées de la géopolitique. L’hypothèse d’un découplage économique provoqué par les États-Unis, allant à l’encontre des chaînes de valeur en place, est actuellement peu raisonnable. La disjonction de nature, selon le mot de l’historien Adam Tooze [1], entre deux systèmes politiques, l’un libéral et américain et l’autre socialiste et chinois, érigés chacun en modèle global, ressort par contre exacerbé de la gouvernance mondiale autour de la pandémie du Covid-19.
À l’horizon du déconfinement, l’exercice de la coopération internationale as usual prôné par la Banque mondiale dans son dernier rapport paraît de toute façon compromis.
Par Etienne Monin
Étienne Monin est géographe, rattaché à l’Université d’Angers. Il étudie depuis dix ans les dynamiques de développement régional en Chine, en lien avec la globalisation.
Sources :
[1]Adam Tooze, 2020, « La fin du siècle américain ? », Le Débat, 2020/1, n° 208, p. 4-15.
Scott A. J. et Leriche F., 2018, « Division du travail, développement spatial et le nouvel ordre économique mondial », Annales de géographie, 2018/5 N° 723-724 | pages 635 à 657.
Grasland G. et Van Hamme G., « La relocalisation des activités industrielles : une approche centre-périphérie des dynamiques mondiales et européennes », L’Espace géographique, 2010/1 Vol. 39 | pages 1 à 19.
Dans le contexte de l’épidémie mondiale du Covid-19, la demande en gels et solutions hydroalcooliques, GHA et SHA, s’intensifie de jour en jour. Le décret du 13 mars 2020 voté en France facilite la mise en marché des GHA et SHA, en les exemptant temporairement d’enregistrement biocide. Après le 31 mai 2020, les gels et solutions hydroalcooliques ne pourront plus bénéficier de cette dérogation. Ils devront se conformer au Règlement sur les Produits Biocides (RPB) UE n°528/2012.
Étant donné qu’il s’agit de marchandises dangereuses au transport, des règles doivent être suivies. Le régime des quantités limitées du chapitre 3.4 de l’ADR peut être appliqué pour toutes ces formules. De nombreuses exemptions aux règles de l’ADR sont alors possibles. La quantité par emballage intérieur ne doit pas dépasser 1 L et la masse brute du colis constitué ne dépassera pas 30 kg.
Si la quantité par emballage intérieur dépasse 1 L, alors les produits hydro-alcooliques devront être conditionnés dans des emballages homologués, être marqués et étiquetés et un document de transport devra être établi. Le régime d’exemption du 1.1.3.6 pourra alors être possible en fonction de la quantité chargée par unité de transport.
Face à la crise économique provoquée par l’épidémie de coronavirus, Corinne Lepage a un avis clair. Cette avocate, ancienne ministre de l’Environnement et auteure chez LexisNexis, estime que l’État aurait pu mieux prévenir la propagation de la maladie. En pensant à une reprise économique future, Corinne Lepage espère que les grands enjeux écologiques seront pris en considération.
Techniques de l’Ingénieur : Une crise telle que celle que l’on vit aujourd’hui était-elle prévisible ?
Corinne Lepage : Une crise sanitaire était prévisible depuis l’épidémie de H1N1, mais celle-ci et dans les conditions exactes que nous vivons aujourd’hui, je ne crois pas. Pourtant, déjà à l’époque, il était très clair qu’il y aurait d’autres épidémies. On sait également que le dérèglement climatique entraîne un risque épidémique supplémentaire dans la mesure où la fonte du pergélisol [sol gelé des régions arctiques, NDLR] libère des molécules susceptibles de faire apparaître des maladies dont nous ignorons encore l’existence.
Le secteur médical était-il suffisamment préparé ?
Pour des raisons budgétaires, ce gouvernement a refusé de faire les investissements qui étaient nécessaires dans les hôpitaux. Si au fil des années, on a fermé 100.000 lits dans les hôpitaux, ce n’est pas pour des raisons des santé, mais pour des raisons budgétaires. Cela est inadmissible.
Cette crise met à mal notre système économique. Qu’en conclure ?
Il est clair qu’il y aura un avant et un après. Et nous avons une chance historique qu’il y ait un après qui réduise les risques auxquels nous sommes exposés. Le grand sujet, c’est de savoir comment on repart.
Donc, comment faire évoluer notre modèle économique ?
D’abord, je pense que nous avons besoin de réfléchir sur l’organisation de l’État et la manière dont nous utilisons nos fonds publics. Nous sommes un pays hyper fiscalisé, nous avons plus de 50 % de notre PNB qui repart à l’État. Une partie part en redistribution sociale, ce que je ne remets pas du tout en cause. L’autre partie sert au fonctionnement de l’État. Quand on regarde les schémas qui sont faits autour du monde de la santé, on se rend compte qu’une immense partie des fonds finance des organismes administratifs qui n’ont rien à voir avec le soin direct aux patients. Donc il faut repenser notre organisation, et je peux dire la même chose pour la justice et l’éducation nationale. Il est urgent de remettre le service public au cœur des priorités, et non l’organisation administrative qui l’entoure. L’argent doit aller aux hôpitaux, à la recherche, et aux personnels qui doivent être payés convenablement.
Ensuite, il serait nécessaire de se poser la question de l’échelle des salaires. On se rend compte que ce sont les gens sous-payés qui tiennent la société. Ce sont le monde médical, les professeurs, les livreurs, les caissiers, les travailleurs du BTP, tous ce qui fait que la société ne peut plus fonctionner si ces gens ne travaillent pas. Pourtant, ce sont les gens qui, dans notre pyramide sociale, sont les moins bien considérés, et les plus mal payés. Bien sûr, il faut garder à l’esprit la notion de compétitivité, car on ne peut pas augmenter nos coûts pour ne plus pouvoir vendre nos produits et services à l’étranger, c’est une évidence. Mais simplement, il y a une échelle des rémunérations à revoir.
Idéalement, dans quel contexte cette restructuration économique devrait-elle être mise en place ?
Deux écoles s’affrontent de manière binaire. Or, le binaire est toujours dangereux. D’un côté, il y a les gens qui disent qu’il faut mettre de côté toutes les normes sociales et environnementales au profit du business pur et dur. De l’autre, la planète écolo affirme que le moment est venu de complètement changer notre fusil d’épaule, et de repenser une organisation économique totalement différente. Mon cœur penche évidemment pour cette deuxième solution. Mais je la pense très difficile à mettre en œuvre dans l’économie très dégradée qui va être la nôtre. Donc, il me paraît essentiel de définir des priorités. On peut éviter d’investir dans ce que l’on sait être contraire au long terme. Je veux dire par là que le redéploiement économique doit se faire en considération des impacts sur le climat, la biodiversité, la santé, et la lutte contre la fraude. Les activités économiques qui sont mauvaises pour le climat, la biodiversité et la santé ne doivent pas être encouragées. Ainsi, nous pourrions entrer dans un cercle beaucoup plus vertueux.
Cette crise annonce-t-elle le déclin de la mondialisation économique ?
Je pense que la mondialisation comme on l’a connue, qui est à l’origine des inégalités, il faut lui tourner le dos. Non pas pour revenir à une fermeture des frontières et à un protectionnisme, mais pour revenir à beaucoup plus d’autonomie territoriale. On ne peut plus faire fabriquer tous nos médicaments en Chine. On ne peut plus dépendre des autres sur tout ce qui est vital. Donc, penser en termes d’autonomie alimentaire, sanitaire, énergétique, digitale, me paraît absolument essentiel. Je n’envisage pas nécessairement une autonomie à l’échelle nationale. Il faut une échelle d’autonomie du local à l’européen. L’échelle européenne devrait être la bonne échelle pour l’industrie, à la condition de faire disparaître ce qui ne marche pas en Europe. En revanche, il faut avoir conscience de l’interdépendance que nous avons les uns envers les autres et des besoins de solidarité. Et la crise du Covid-19 le montre bien. Il est essentiel de prendre en compte ce qui a bien marché à un endroit. En ce sens, il faut une vision planétaire. Le dérèglement climatique, c’est planétaire, la biodiversité, c’est planétaire. Et on a compris que la santé, c’est également planétaire. Donc on a besoin de planétarisation, c’est-à-dire de penser à l’échelle de l’humanité, les sujets qui concernent toute l’humanité.
D’abord parce que la survenue des crises n’est pas toujours liée à l’ampleur des risques. La crise est la conséquence sociale des erreurs de gestion souvent dues à l’incapacité à faire face rationnellement à l’incertitude et à garder la confiance du public et des autorités. Ensuite, le terme de risque n’ayant pas le même sens pour toutes les parties prenantes, la compréhension de ces divergences est la première condition pour se préparer efficacement à faire face aux crises, et pour adopter une conduite qui évite de sous-réagir ou surréagir.
Qu’il s’agisse de santé au travail ou de santé environnementale, de nombreuses entreprises ont dû faire face à des crises sanitaires fortement médiatisées qui ont induit des coûts considérables et des atteintes à la réputation pouvant mettre en péril leur pérennité. C’est une préoccupation particulière pour les entreprises qui n’opèrent pas dans le secteur de la santé et qui par conséquent n’ont pas une grande culture des risques sanitaires. Le fait que la plupart des crises soient provoquées par des situations à faible risque, voire à une absence de risque réel, est perturbant pour la rationalité des ingénieurs.
Comprendre la dissociation entre les notions de risque et de crise est important. Dans cette problématique, la question de l’incertitude est centrale. Le plus souvent, c’est la difficulté à gérer correctement les situations d’incertitude qui fait basculer dans la crise. Le fait que la perception sociale des risques ne soit que partiellement liée à leur fréquence ou à leur gravité est un point capital.
Faire face aux crises demande évidemment des compétences en matière de communication, même si cela ne suffit pas à les éviter. La capacité à évaluer rigoureusement les risques est un autre pilier de la conduite des situations de crises ou de pré-crises, même si les pièges en la matière sont nombreux.
Toutes les entreprises sont potentiellement concernées par le fait que des risques pour les employés, les riverains ou les consommateurs, peuvent provoquer des crises déstabilisantes. Elles doivent donc s’y préparer. Il ne s’agit pas seulement d’une question de compétences spécialisées en sécurité sanitaire. C’est avant tout une question organisationnelle qui doit être portée par la direction de l’entreprise. La préparation d’un plan de gestion des crises est nécessaire, mais elle n’est pas suffisante. Dans des situations marquées par une forte incertitude scientifique, la réactivité, l’agilité managériale, la capacité d’analyse des enjeux et les outils d’évaluation quantitative des risques sont des déterminants importants. Si les risques et les crises sanitaires inspirent souvent des craintes chez les responsables des entreprises, ce sont aussi des opportunités pour une meilleure maîtrise de leurs activités.
Extrait de l’article Gestion des crises sanitaires de William Dab.
Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 13 mai !
Si la nature a souvent été une source d’inspiration pour les inventeurs, le biomimétisme semble intéresser de plus en plus les branches R&D des entreprises en quête d’innovations. Voulant professionnaliser la filière, Sidney Rostan a fondé début 2018 la start-up Bioxegy. Après plusieurs stages dans l’automobile, ce diplômé en management s’est finalement tourné vers le biomimétisme pour son potentiel qui semble parfaitement adapté aux besoins de notre société. Il revient avec nous sur l’intérêt du biomimétisme pour l’innovation et l’industrie.
Techniques de l’Ingénieur : Qu’est-ce que le biomimétisme ?
Sidney Rostan : Le biomimétisme, appelé aussi bioinspiration, est une approche R&D pluridisciplinaire qui consiste à s’inspirer de l’ingéniosité des mécanismes et des propriétés des organismes vivants pour résoudre des problématiques. Ce n’est pas une notion nouvelle, cependant, le biomimétisme commence aujourd’hui à se structurer et se professionnaliser. Il ne s’agit plus de recherches isolées mais d’une démocratisation du secteur, même si nous en sommes seulement aux prémices.
Que propose votre start-up Bioxegy ?
Bioxegy est un bureau d’études et d’ingénierie spécialisé en biomimétisme. Nous travaillons en relation avec des entreprises pour leur permettre d’imaginer des solutions en utilisant des technologies bioinspirées. Notre équipe est composée d’ingénieurs chargés de décrypter et comprendre les problématiques de nos clients puis de réaliser la conception biomimétique, et également de profils que nous appelons « bioingénieurs » qui font de la veille et de la recherche biologique et biomimétique.
Comment se déroule votre travail auprès des entreprises ?
En général, nous nous rapprochons des entreprises directement car beaucoup ne connaissent pas vraiment le biomimétisme, ni son potentiel. Nous commençons d’abord par un véritable travail de pédagogie et de conseils. Ensuite, nous accompagnons nos clients de manière progressive pour cibler les sujets qu’ils aimeraient améliorer et ceux pour lesquels nous avons une bonne expertise. Il existe deux cas de figure : soit les entreprises ont une problématique, un point de douleur particulier, et nous essayons de le résoudre, soit elles souhaitent établir une stratégie d’innovation plus globale et intégrer les technologies bioinspirées. Après quoi, nous réalisons les recherches de notre côté, en faisant parfois appel à des sous-traitants, à des chercheurs spécialisés, et nous travaillons sur un prototype que nous leur proposons. De manière générale, nos clients sont assez surpris et fascinés des possibilités d’innovation offertes par le biomimétisme.
Quel est l’intérêt pour les industriels de s’intéresser aux technologies bioinspirées ?
Le biomimétisme permet d’imaginer de nouvelles manières de procéder et certaines solutions s’avèrent disruptives même si ce n’était pas forcément l’objectif premier. La force du biomimétisme est de puiser l’inspiration pour des approches techniques et tactiques dans des mécanismes du vivant qui existent depuis des millions voire des milliards d’années. Aujourd’hui, toutes les espèces végétales ou animales qui nous entourent sont au sommet de leur évolution. Par arrogance sûrement, nous avons tendance à penser que la nature est trop simple pour s’en inspirer. Nous nous apercevons de plus en plus qu’elle s’avère en réalité très sophistiquée et que nous avons beaucoup à en apprendre. Il s’agit alors de puiser dans ce gisement de solutions.
Pourquoi l’intérêt pour le biomimétisme progresse aujourd’hui ?
Si l’humain s’est toujours intéressé au vivant pour inventer, je remarque une intensification de l’intérêt qui est liée à plusieurs facteurs. Tout d’abord, nous comprenons beaucoup mieux le vivant aujourd’hui, autant ses mécanismes infiniment petits qu’infiniment grands. Ainsi, nous pouvons davantage nous en inspirer. Ensuite, je pense qu’il y a la volonté d’innover différemment. Le biomimétisme permet de trouver des solutions innovantes mais également plus sobres.
A l’heure de repenser nos produits et process au regard du développement durable, le biomimétisme pourrait-il être une solution ?
C’est une erreur de penser que les technologies bioinspirées sont forcément durables. Reproduire un matériau naturel en utilisant des procédés chimiques reste du biomimétisme sans être pour autant écologique. Cependant, si nous nous attachons à reproduire au mieux le vivant, le produit sera durable de façon presque innée. Tout simplement car la nature fonctionne sur le modèle de la sobriété : faire le mieux avec le moins. Ainsi, en s’en inspirant fidèlement, nous pouvons créer des composants avec moins de matière par exemple. Toute la question va être de l’adapter à l’échelle industrielle. Pour donner un exemple concret, un de nos clients équipementier automobile cherchait un moyen de nettoyer les capteurs de ses véhicules autonomes. Il utilisait initialement un procédé qui gaspillait énormément d’eau. Nous avons testé un procédé inspiré de la membrane nictitante [paupière transparente que possèdent certains animaux pour protéger et humidifier l’oeil, NDLR] des dromadaires et chameaux. Nous en sommes encore en phase de test mais pour l’instant le système que nous produisons consomme 10 fois moins d’eau.
Aujourd’hui, quelles industries utilisent le plus les technologies bioinspirées ?
L’aéronautique, l’automobile, le ferroviaire et la santé sont les secteurs les plus avancés en la matière. Cela dit, le biomimétisme peut être utilisé dans absolument tous les secteurs : la robotique, l’intelligence artificielle, l’urbanisme, l’énergie etc. Il peut servir par exemple à développer des algorithmes ou des réseaux plus performants. L’inspiration de la nature commence également à intéresser d’autres secteurs plus inatendus comme les ressources humaines par exemple.