La biodiversité des lacs diminue et se standardise

Des chercheurs français ont voulu comprendre comment la diversité des micro-organismes des lacs évoluait face à la pression humaine et aux changements climatiques. La nouvelle étude parue dans Nature Communications analyse l’ADN conservé dans les sédiments de 48 lacs français aux typologies diverses et compare celui des strates de la fin du 19e siècle à celui de celles des années 2000-2010.

Des populations microbiennes fortement impactées

L’étude montre que la biodiversité des lacs de plaine a été grandement bouleversée, davantage que celle des lacs d’altitude, au-dessus de 1 400 mètres. « Au global, le nombre d’espèces n’a pas diminué mais la distribution relative des groupes d’espèces a été bouleversée, prévient Isabelle Domaizon, directrice de recherche au Centre INRAE de Lyon-Grenoble-Auvergne-Rhône-Alpes, co-auteure de l’étude. Les changements sont assez forts en termes de réarrangement de la biodiversité, en particulier dans les lacs de basse altitude, les plus soumis aux pressions humaines sur leurs bassins versants. »

Parmi les micro-organismes, les chercheurs se sont intéressés aux changements portant sur les micro-eucaryotes. « Les eucaryotes recouvrent une vaste diversité biologique et des fonctions diverses : des producteurs primaires, consommateurs, parasites et décomposeurs, détaille Isabelle Domaizon. Ils sont très abondants et importants dans l’orchestration du fonctionnement du lac ». En plus du réaménagement de groupes fonctionnels, la diversité microbienne entre les lacs s’amenuise. Par le passé, les groupes dominants variaient énormément selon les lacs. La tendance actuelle est à l’homogénéisation. Les grands gagnants sont les micro-organismes photosynthétiques (les algues) favorisés par le réchauffement climatique et l’eutrophisation, via l’apport d’éléments nutritifs phosphore et azote, dus aux activités humaines autour des lacs.

« Le changement de cette biodiversité a certainement un impact sur le devenir du carbone dans le lac, s’inquiète Isabelle Domaizon. Ces micro-algues fixent davantage de carbone et engendrent plus de matières organiques mortes, donc plus de sédimentation et plus de séquestration de carbone dans le lac. Si c’est une bonne nouvelle pour le changement climatique, ce n’est pas un très bon signe pour les lacs, car cela sous-tend moins d’efficacité de recyclage dans le système et donc moins d’efficience pour leur qualité ». La chercheuse évoluant au sein du Centre Alpin de Recherche sur les Réseaux Trophiques et les Ecosystèmes Limniques (Carrtell) partage le fait que des tendances similaires ont été observées via d’autres indicateurs sur les grands lacs américains avec l’augmentation de la production algale. Ces évolutions seraient susceptibles d’être aussi observées dans les autres lacs européens des zones tempérées avec des pressions similaires.

Lacs et sensibilité à la pression humaine

Les dépôts successifs de sédiments des lacs conservent les micro-organismes morts ou leurs traces ADN et constituent des archives de l’évolution des communautés microbiennes. Réunissant des chercheurs d’INRAE, de l’Université de Savoie Mont-Blanc, du CNRS, de l’Université Clermont Auvergne et de l’Université de Toulouse, l’étude a permis d’extraire une carotte de sédiments dans la partie la plus profonde du bassin des 48 lacs, de 6 à 309 mètres sous la surface de l’eau. Les assemblages micro-eucaryotes ont ensuite été reconstruits à partir d’ADN sédimentaire en utilisant le séquençage à haut débit de l’ARN ribosomique 18S.

Carotte extraite du lac du Bourget dans le cadre de l’étude

Isabelle Domaizon explique la technique. « Avec quelques grammes de sédiments, on extrait l’ADN total comprenant l’ADN de toutes sortes de micro-organismes et de macro-organismes. De cet ADN préservé, on sélectionne, puis on amplifie et on lit par séquençage une portion de gène caractéristique de la diversité des eucaryotes – l’ARN ribosomique 18S – qui constitue une bonne région informative pour identifier les espèces. On obtient alors des millions de séquences d’ADN que l’on analyse et que l’on confronte à des bases de données de référence pour identifier les espèces et obtenir la liste des espèces ou groupes biologiques qui ont laissé leur trace ADN dans ces sédiments. »

44 bactéries pathogènes et 78 contaminants dans les huîtres

Une équipe internationale de chercheurs menée par l’Université de Californie à Irvine a étudié la pollution sur neuf récifs coralliens dans l’est de la mer d’Andaman, au large de l’archipel de Mergui en Birmanie. Les résultats sont publiés dans la revue Science of the Total Environment.

Des bactéries et des microdébris à revendre

Sur les neuf sites, l’étude a exploré la présence de bactéries dans l’eau de mer, les sédiments et une espèce d’huître perlière marine, Pinctada margaritifera. Les chercheurs ont analysé les agents pathogènes en utilisant une technique de séquençage à haut débit de l’ADN de nouvelle génération. Celle-ci séquence un seul fragment d’ADN – le gène de l’ARN ribosomique 16S – et permet d’identifier rapidement de nombreux agents pathogènes. En comparant avec les libraires de données existantes, les chercheurs ont ainsi pu identifier 5 459 agents pathogènes humains potentiels appartenant à 87 espèces de bactéries. L’eau de mer en compte 67, les sédiments 60 et les huîtres 44.

Les chercheurs ont en plus examiné les microdébris dans les échantillons d’eau, de sédiments et de tissus d’huître pour 4 récifs coralliens. Pour chaque site, les chercheurs ont fait trois prélèvements et donc analysé 12 échantillons par compartiment via spectroscopie infrarouge. Sur un total de 1 225 microdébris détectés dans l’ensemble des échantillons, 646 ont ainsi pu être identifiés. Résultat : 199 microdébris ont été identifiés dans les huîtres, 351 dans l’eau de mer et 96 dans les sédiments.

Dans les huîtres, 48 % des microdébris étaient des polymères, majoritairement du polyéthylène et du polypropylène. En tout, les chercheurs ont détecté la présence de 78 types de matériaux d’origine humaine. Ces autres débris comptent des composants de carburants, de peintures, de cosmétiques et de lait en poudre. Les chercheurs s’inquiètent du fait que des restes de lait en poudre représentent 14 % des microdébris analysés.

L’urbanisation côtière montrée du doigt

L’archipel de Mergui reste assez rural, mais subit la pollution de Mergui, ville de 250 000 habitants située à environ 65 km. Les agents pathogènes et les microdébris trouvent leur origine dans les eaux usées et de ruissellement provenant de sources urbaines, agricoles et animales. L’urbanisation croissante des régions côtières pourrait entraîner la contamination d’importantes espèces de pêche à l’échelle mondiale, craignent les chercheurs.

La détection importante de restes de lait en poudre suggère l’influence directe des déchets humains et des eaux usées sur le niveau de contamination des huîtres. « Il y a de fortes chances que les résultats en Birmanie puissent s’appliquer à d’autres fruits de mer à travers le monde, prévient Douglas Rader, co-auteur et scientifique en chef du programme Océans de l’Environmental Defense Fund (EDF). Ces résultats mettent en évidence à la fois les risques de l’urbanisation côtière et l’importance d’une gestion adéquate des eaux usées et des eaux pluviales. »

Des risques à cerner davantage pour la santé humaine

Les huîtres birmanes et d’ailleurs sont généralement consommées crues et entières. La détection de 87 espèces de bactéries et de 78 contaminants différents, sans concentrations associées, ne permet néanmoins pas aux chercheurs de conclure quant à la nocivité pour l’homme. Ils appellent donc à des études complémentaires à plus grande échelle avec quantification pour mieux étudier les implications pour la santé humaine.

Plus de la moitié des exportations de fruits de mer en valeur proviennent de pays en développement, rappelle l’étude. « Il est important de garder à l’esprit qu’une grande partie de nos fruits de mer est importée de l’étranger, d’endroits susceptibles d’être contaminés, ce qui souligne l’importance à la fois de tests adéquats et d’améliorations de la qualité des eaux côtières dans le monde entier », prévient Raechel Littman, auteure principale et chercheuse postdoctoral en écologie et biologie évolutive à l’Université de Californie à Irvine.

Une technologie d’imprimante 3D métal basée sur des sources LED

Ce procédé appelé SLEDM (selective LED-based melting) permettrait de surmonter les limitations techniques des procédés de fusion sur lit de poudre actuels, par laser (SLM) ou par faisceau d’électrons (EBM).

L’imprimante 3D SLEDM développée à l’université TU Graz. Crédit : TU Graz

Comment fonctionnent les techniques actuelles ?

Les procédés SLM et EBM permettent de concevoir des pièces industrielles complexes, par impression 3D à partir de poudres métalliques. On les distingue par la source d’énergie utilisée pour fondre les particules métalliques et les mettre en forme couche après couche. Dans le cas du SLM, on utilise une source laser, dans le cas de l’EBM, il s’agit d’un faisceau d’électrons.

Néanmoins, ces deux procédés proches ont des inconvénients communs. D’une part, ils nécessitent la mise en place de supports pour la fabrication de pièces complexes. Ces supports doivent être enlevés manuellement, ce qui est chronophage. Par ailleurs, les surfaces obtenues par ce procédé ont un aspect assez rugueux, ce qui demande souvent un post-traitement long et coûteux.

Les principaux avantages de cette nouvelle technologie

Par rapport aux procédés classiques, cette nouvelle méthode présente plusieurs avantages. Contrairement à la plupart des procédés en lit de poudre, la construction des couches successives se fait depuis le haut vers le bas. La présence de supports est donc beaucoup moins importante, ce qui permet d’économiser de la poudre, d’intégrer les étapes de post-traitement pendant l’impression et de gagner du temps.

Par ailleurs, l’utilisation de faisceaux LED est beaucoup moins dangereuse que le laser, ce qui nécessite moins de précautions.

Un procédé prêt pour l’industrialisation

Selon le professeur Franz Haas, à la tête de cette équipe de chercheurs, cette technologie est maintenant prête pour une production de masse. La première version qui sera commercialisée est une imprimante de bureau.

Cependant, sur le long terme, leur but est de commercialiser des imprimantes 3D métal économiques et rapides, avec des applications dans le médical ou encore des composants de batterie pour les véhicules électriques.

L’informatique neuromorphique optique, une alternative aux réseaux de neurones numériques

L’équipe du professeur Zongfu Yu, de l’Université du Wisconsin-Madison a récemment démontré qu’il était possible de créer une intelligence artificielle à partir d’un morceau de verre sans utiliser d’électricité. Ces travaux théoriques se poursuivent et semblent prometteurs.

Pourquoi utiliser des réseaux optiques ?

La motivation initiale de ce projet, était d’examiner la possibilité de concevoir des structures nano-photoniques passives qui permettraient de faire des opérations informatiques complexes comme celles réalisées par les réseaux de neurones artificiels, en utilisant la lumière, au lieu de l’énergie électrique.

Ainsi, concevoir un verre « intelligent » et autonome en énergie permet, par exemple, de développer des écrans de smartphones capables de se déverrouiller par reconnaissance faciale, sans utiliser l’énergie de la batterie.

Méthode n°1 : structures nanophotoniques aléatoires

En juillet 2019, l’équipe du professeur Yu exposait une première méthode. Le papier publié dans la revue Photonics Research [1] a permis de démontrer qu’en utilisant une structure en verre dans laquelle étaient disposées des bulles d’air, de forme et de taille contrôlées, on pouvait réaliser des tâches simples (pour des réseaux neuronaux) comme le classement de chiffres écrits à la main.

Bien que la fabrication de telles structures nano-photoniques soit envisageable, il est probable qu’elle soit limitée d’un point de vue industriel. En effet, comme la puissance expressive de ces structures est directement proportionnelle à leur taille, résoudre des problèmes complexes nécessiterait le développement de procédés élaborés et très coûteux.

Reconnaissance de digits écrits à la main, à partir d’un medium neural nanophotonique. Crédit : Ang Chen

Méthode n°2 : métasurfaces neuromorphiques

D’autres architectures sont à l’étude. Fin décembre 2019, ils ont ainsi publié une nouvelle étude [2], explorant les capacités d’une autre classe de structures photoniques, permettant d’atteindre des résultats similaires : les métasurfaces.

Selon Erfan Khoram, « il s’agit de fines plaques de matériaux constituées de plusieurs petits éléments qui permettent de contrôler le comportement de la lumière à travers la métasurface. Ces structures sont plus simples à fabriquer et plus facilement adaptables à la résolution de problèmes complexes. »

Cette étude a notamment permis de démontrer que les métasurfaces peuvent directement reconnaître des objets en focalisant la lumière à différents endroits de l’espace.

Prochaine étape : passage à la pratique

Pour le moment, ces travaux sont seulement théoriques et ont permis de démontrer la faisabilité de ces deux méthodes à travers des simulations numériques.

Erfan Khoram ajoute : « À ce stade du projet, notre groupe est focalisé sur l’implémentation pratique de nos travaux théoriques. Nous travaillons en particulier sur le design et la fabrication de métasurfaces correspondant à notre approche, dans un premier temps pour réaliser des tâches simples ; les applications plus complexes seront étudiées à des stades avancés. »

Pour en savoir plus :

[1] Khoram, Erfan, Ang Chen, Dianjing Liu, Lei Ying, Qiqi Wang, Ming Yuan, and Zongfu Yu. « Nanophotonic media for artificial neural inference. » Photonics Research 7, no. 8 (2019): 823- 827.

[2] Wu, Zhicheng, Ming Zhou, Erfan Khoram, Boyuan Liu, and Zongfu Yu. « Neuromorphic metasurface. » Photonics Research 8, no. 1 (2020): 46-50.

Les racines dans le permafrost augmentent les émissions de carbone

Le dégel du permafrost s’accélère. Et sous l’effet du réchauffement climatique, les plantes se développent. Leurs racines favorisent la décomposition de la matière organique du sol via l’action de microorganismes. C’est ce que les scientifiques appellent « effet priming ». Pour la première fois, une étude publiée dans Nature Geoscience estime la contribution de cet effet priming aux émissions de carbone issues du permafrost. « C’est un effet qui joue déjà un rôle sur les émissions de CO2 mais que l’on ne compte pas encore dans notre budget carbone, alerte Frida Keuper, écologue à INRAE et auteure principale de l’étude. Nous pensions qu’il s’agissait de faibles interactions qui n’étaient pas importantes, mais nous avons montré qu’elles n’étaient en réalité pas du tout marginales. »

Différentes études évaluent que le dégel du permafrost entraînera l’émission de 50 à 100 gigatonnes de carbone d’ici 2100. En comparaison, le budget carbone restant des activités humaines pour limiter le réchauffement climatique à 1,5°C est estimé à 200 gigatonnes de carbone d’ici 2100. Le souci est que ce budget ne tient pas compte des processus de rétroaction naturels qui émettent du carbone, comme l’effet priming induit par le dégel du permafrost. « Jusqu’ici, les modélisations ne prenaient pas en compte les émissions liées à la présence de plantes, prévient Frida Keuper. Notre étude montre que l’effet priming n’est pas du tout négligeable, mais joue un rôle majeur, à l’origine de l’émission d’environ 40 gigatonnes de carbone supplémentaires par rapport aux prédictions actuelles d’ici 2100. »

L’effet priming, grand oublié des modèles climatiques

Contrairement aux idées reçues, la majeure partie de la zone de pergélisol nordique présente une toundra florissante ou une végétation forestière. Elle pourrait devenir de plus en plus active et productive à mesure que la planète se réchauffe. On sait depuis les années 1950 que les plantes peuvent accélérer la décomposition de la matière organique du sol près de leurs racines, mais les modèles climatiques ne prennent pas cela en compte.

Au fur et à mesure que les plantes poussent dans la toundra, leurs racines s’enfoncent en effet dans le pergélisol en train de dégeler. Les microbes utilisent les sucres simples fournis par les plantes pour décomposer rapidement la matière organique du sol. Lorsque celle-ci se décompose, du carbone est libéré dans l’atmosphère.

Le pergélisol s’étend sur près d’un quart de l’hémisphère nord et stocke de grandes quantités de carbone organique. L’une des plus grandes incertitudes des projections climatiques mondiales concerne la dégradation de cette matière organique en gaz à effet de serre après le dégel du pergélisol. Cette boucle de rétroaction positive pourrait encore accélérer le réchauffement climatique.

Croiser les cartes pour mieux évaluer l’effet priming

Les chercheurs ont croisé plusieurs bases de données à grande échelle sur la région circumpolaire arctique concernant l’activité des plantes et les quantités de carbone dans le sol. « Nous avons mené deux méta-analyses pour modéliser d’une part la relation entre l’effet priming et l’activité des plantes, et d’autre part la distribution des racines dans le sol. Cela nous a conduit à un modèle permettant d’évaluer l’effet priming dans le permafrost d’ici 2100 dans les conditions actuelles et sous les scénarios RCP 4.5 et RCP 8.5 du GIEC, explique Frida Keuper. Notons que les émissions futures n’ont pas une grande influence sur les résultats : les émissions induites par l’effet priming du permafrost d’ici 2100 sont évaluées à 40 Gt de carbone selon le scénario RCP 8.5, le plus pessimiste, et à 38 Gt selon le scénario médian du GIEC RCP4.5. »

Cette première estimation comprend de nombreuses incertitudes L’intervalle de confiance s’échelonne de 6 à 80 gigatonnes de carbone. De nombreux paramètres susceptibles d’influencer l’effet priming n’ont pas pu être inclus dans le modèle en raison du manque de données d’observation. « Il est important de reconnaître qu’il s’agit d’une première estimation qui comprend de nombreuses incertitudes qu’il faudra réduire », conclut humblement Frida Keuper.

Un chimiste « artificiel » pour accélérer la R&D

Le but de ce “chimiste artificiel” est d’accélérer les opérations de R&D et la mise sur le marché de produits manufacturés.

Schéma de fonctionnement du chimiste artificiel. Crédit : Milad Abolhasani

Comment cela fonctionne

Le chimiste artificiel possède un “corps”, c’est-à-dire une machine physique permettant les expérimentations et la mesure des résultats, ainsi qu’un “cerveau” capable d’enregistrer les données et de décider quelles seront les prochaines étapes à réaliser.

Néanmoins, contrairement à une voiture autonome qui a le choix entre un nombre limité de routes pour atteindre sa destination, ce chimiste artificiel a un fonctionnement plus complexe. En lui fournissant les propriétés attendues du matériau final, il est capable de deviner tout le reste, c’est-à-dire :

  • les précurseurs chimiques nécessaires ;
  • le protocole de synthèse à mettre en place ;
  • les quantités de produits à utiliser.

Les avantages de ce chimiste artificiel

Cette technologie de développement de matériaux innovante présente plusieurs avantages.

  • Elle est totalement autonome.
  • Elle permet d’obtenir un matériau optimisé plus rapidement que par n’importe quelle technique actuelle.
  • Il y a moins de déchets générés, car le nombre d’essais est réduit.
  • Elle permet une économie de précurseurs chimiques.

Une faisabilité déjà démontrée

Le chimiste artificiel a déjà fait ses preuves. L’équipe de chercheurs américaine (universités de Caroline du Nord (NCSU) et de Buffalo) a démontré sa faisabilité dans une publication récente parue dans le journal Advanced Materials.

Dans cette étude, le chimiste artificiel a ainsi prouvé qu’il était capable d’identifier la meilleure formulation pour la production de boîtes quantiques, des nano-cristaux semi-conducteurs utilisés dans les affichages LED. Les performances sont plutôt impressionnantes : seulement 15 minutes lui ont suffi pour produire n’importe quelle couleur.

Une IA qui imite la prise de décision humaine

Le fonctionnement de l’IA développée par l’équipe du professeur Milad Abolhasani (NCSU) s’inspire de la manière dont les humains prennent des décisions, mais elle le fait de manière plus efficace. En stockant les données générées par chaque demande qu’il reçoit et en identifiant la prochaine expérience à réaliser, le chimiste artificiel apprend : il devient ainsi plus intelligent et plus rapide.

Avec cette invention, l’équipe de chercheurs espère façonner un avenir nouveau pour le développement et la fabrication de matériaux. Ils sont d’ores et déjà à la recherche de partenaires qui les aideront à transférer cette technologie à l’échelle industrielle.

Une méthode innovante pour améliorer la recyclabilité des thermodurcissables

Les thermodurcissables et les polymères techniques représentent un quart de la production mondiale de plastique et la gestion de leur fin de vie est un problème.

Recycler les thermodurcissables est difficile

Les thermodurcissables de type époxy ou polyuréthane sont utilisés pour des applications techniques, lorsque résistance à la température et durabilité sont avant tout recherchées : pare-chocs de voiture, circuits électroniques, équipements aéronautiques, etc.

Ils sont conçus de la même manière que les thermoplastiques :

  • Des pellets de matière sont chauffés jusqu’à ramollissement.
  • Ils sont mis en forme, par moulage, ou d’autres procédés.
  • Un refroidissement leur permet de repasser à l’état solide.

Néanmoins, si ce processus a l’avantage d’être réversible pour les thermoplastiques, ce n’est pas le cas des thermodurcissables. Lorsqu’ils sont chauffés, ces matériaux brûlent avant de pouvoir être remodelés.

Modifier les liaisons chimiques pour rendre les thermodurcissables recyclables

En 2019, une équipe du MIT dirigée par Jeremiah A. Johnson présentait une méthode permettant de créer des polymères dégradables, par l’incorporation d’un groupe éther de silyle dans la structure chimique. Comme les liaisons de ce monomère ont la particularité de se briser dans des environnements particuliers, ceci leur a permis de créer des matériaux qui se dégradent en milieu acide, basique ou en présence d’ions fluorure.

La même stratégie a ainsi été employée pour créer une version dégradable du polydicyclopentadiene (pDCPD), un polymère thermodurcissable qui sert à fabriquer des éléments de carrosserie de camions. Dans le papier publié récemment dans le journal Nature, les chercheurs ont ainsi ajouté des monomères d’éther de silyle au précurseur liquide employé pour la synthèse de pDCPD.

Ils ont découvert qu’ajouter entre 7,5 et 10 % d’éther de silyle permet de réduire aisément le pDCPD en poudre, après exposition aux ions fluorures, tout en conservant les propriétés mécaniques.

Cette poudre a ensuite été dissoute dans la solution de précurseur, et de nouveaux matériaux thermodurcissables ont été synthétisés à partir de cette poudre recyclée. Le matériau obtenu a ainsi des propriétés mécaniques quasiment identiques à l’original.

Une méthode applicable à d’autres thermodurcissables

Par cette étude, les chercheurs ont démontré avec succès qu’utiliser des monomères dégradables était une méthode efficace. Ils pensent que cette approche serait utilisable pour d’autres réactions de polymérisation, ce qui permettrait de concevoir des versions dégradables de matériaux à base d’époxy, de silicone ou de caoutchouc vulcanisé.

La sûreté des installations nucléaires françaises globalement satisfaisante mais à améliorer

Comme chaque année, l’ASN (Autorité de sûreté nucléaire), vient de publier son rapport annuel sur la sécurité des installations nucléaires en France. Si en 2019, elle juge que le niveau de sûreté est resté globalement satisfaisant, elle considère que la rigueur d’exploitation des centrales nucléaires d’EDF est en recul. Alors qu’en 2018, aucun événement significatif classé au niveau 2 sur l’échelle internationale des événements nucléaires et radiologiques (INES) n’a été recensé, trois ont été observés l’année dernière. Ce niveau signifie que l’incident est assorti de défaillance importante des dispositions de sûreté. « Deux d’entre eux mettent en évidence des gestes et des décisions inadaptés des intervenants et le franchissement de lignes de défense organisationnelles » précise le « gendarme » du nucléaire.

Malgré ces carences, Daniel Heuer, directeur de recherche au CNRS affecté au LPSC (laboratoire de physique subatomique et de cosmologie), estime que la France a probablement le niveau de sûreté le plus efficace dans le monde. « Quand l’ASN signale un problème sur tel réacteur, ses signaux d’alerte sont très faibles, ce qui permet de conserver un niveau de sûreté très élevé », explique ce chercheur. « Je pense que le niveau de sûreté d’une centrale est à peu près le même que celui d’un avion sauf que le risque en cas d’incident est plus faible, analyse Daniel Heuer. Quand un avion tombe, tout de suite cela fait beaucoup de morts tandis que la plupart des incidents rencontrés sur un réacteur nucléaire sont sans conséquence sur l’environnement. »

Une augmentation des incidents liés à la corrosion

La CRIIRAD (Commission de recherche et d’information indépendantes sur la radioactivité) n’est pas de cet avis. Cette association, née après la catastrophe de Tchernobyl, juge le parc nucléaire en moins bon état qu’il y a 20 ou 30 ans à cause de son vieillissement. « Une grande partie de la maintenance est réalisée par des sous-traitants et est moins bien réalisée qu’à l’époque où EDF entretenait ses centrales, dénonce Roland Desbordes, porte-parole de la CRIIRAD. EDF a perdu cette compétence et son personnel ne connaît plus son outil. Nous observons par exemple une augmentation du nombre d’incidents liés à la corrosion. Ce qui m’inquiète, c’est l’incident qui dégénère. Cela démarre par une fuite de vapeur mal maîtrisée, qui va amener une réaction inadéquate de l’exploitant ».

Un incident est qualifié de grave à partir du niveau 3 puis est nommé « accident » à partir du niveau 4. « A ce stade, il devient inquiétant mais reste sans conséquence sur l’environnement puisqu’il est circonscrit au site, ajoute Daniel Heuer. Il y a une telle inertie à l’intérieur du réacteur que lorsque cela dérape, on dispose de 8 à 12 heures pour alerter la population et pendant ce temps, beaucoup de choses peuvent être réalisées pour contenir l’accident ». La France a connu deux accidents de niveau 4 en 1969 et 1980. Tous les deux se sont produits dans la centrale de Saint-Laurent-des-Eaux (Loir-et-Cher), sur d’anciens réacteurs aujourd’hui à l’arrêt.

De son côté, EDF assure que le niveau de sûreté de ses centrales nucléaires est aujourd’hui plus élevé qu’à l’époque où elles ont été construites. « Elles font l’objet d’une révision tous les 10 à 18 mois puis d’une révision complète décennale avec l’obligation de respecter les normes de sûreté d’aujourd’hui qui sont plus exigeantes », déclare l’exploitant de centrales nucléaires. Ce qui n’est pas le cas de tous les pays. Aux États-Unis par exemple, les installations doivent se conformer aux normes imposées à l’époque de leur construction. Quant à l’externalisation, EDF déclare se concentrer sur le cœur de son métier qui est d’exploiter ses centrales et d’en assurer la sûreté. « Certaines tâches qui relèvent d’une expertise métiers sont sous-traitées à de grandes entreprises comme Framatome ou General Electric et qui sont labellisées à travailler dans le nucléaire. C’est le cas par exemple de l’échafaudage lors des visites décennales dont la mise en œuvre est sous-traitée à Orano DS », poursuit l’entreprise.

Même si plusieurs défauts de maintenance sont révélés par l’ASN dans son rapport 2019, le « gendarme » du nucléaire juge tout de même que « d’une manière générale, la plupart des centrales nucléaires s’organisent de manière satisfaisante pour mener à bien les opérations de maintenance de grande ampleur. »

Un nouveau plan pour atteindre l’excellence

Trente ans après sa construction, Monique Guittenit, une habitante proche de la centrale de Goldfech, dans le Tarn‑et‑Garonne, ne décolère pas. « Avant sa construction en 1990, on nous avait dit qu’elle aurait une durée de vie de 25 ans. 30 ans après, elle est toujours en fonctionnement » s’exclame cette femme, membre de l’association Stop Golfech. La centrale est pointée du doigt par l’ASN comme ayant des performances en matière de sûreté nucléaire nettement en retrait comparée à l’appréciation générale que porte l’autorité sur l’ensemble du parc nucléaire en France. « Elles [les performances en matière de sûreté nucléaire du site de Golfech, NDLR] doivent faire l’objet d’une priorité pour l’exploitant » précise l’ASN, qui en assurera un suivi rapproché en 2020. Le 5 juin 2020, le site a connu un nouvel incident classé au niveau 1. « La multiplication de ces incidents s’explique par le vieillissement de la centrale et par une perte de savoir-faire lié au départ à la retraite de la moitié du personnel du site » explique Monique Guittenit.

Afin d’améliorer le niveau de sûreté de ses centrales, EDF a mis en place depuis la fin de l’année dernière son plan nommé « excell » afin de permettre à toute la filière nucléaire d’atteindre le plus haut niveau de rigueur, de qualité et d’excellence. L’un des axes de ce plan concerne le renforcement des compétences du personnel avec notamment la création d’un outil de gestion des savoirs qui permettra de capitaliser sur la connaissance et de la diffuser dans ses centres d’ingénierie. La création d’une université des métiers du nucléaire est également annoncée.

Des matériaux changeant de forme à volonté, conçus par impression 4D réactive

En 2018, l’équipe de chercheurs présentait un matériau capable de se déformer sous l’effet de la chaleur et de reprendre sa forme initiale après refroidissement. Leurs travaux récents vont beaucoup plus loin : ce matériau peut désormais être imprimé en 3D, ce qui permet d’imaginer toutes sortes de formes et d’applications.

Un matériau imprimé en 3D suivant une configuration peut être programmé pour prendre différentes formes. Credit : Verduzco Laboratory/Rice University.

Un seul matériau, 2 formes contrôlables à volonté

La méthode de fabrication en deux étapes présentée dans cette nouvelle étude consiste dans un premier temps à imprimer un précurseur d’élastomère à cristaux liquides (LCE) dans un bain de catalyseur. Cette opération permet ainsi d’obtenir une architecture 3D complexe.

La seconde étape concerne la « programmation » des formes. La structure imprimée est ainsi déformée sous l’effet de contraintes mécaniques puis stabilisée par irradiation UV.

Sous l’effet de la chaleur, cette structure est capable de reprendre sa forme initiale. Comme le processus est réversible, la structure retourne sous sa forme “programmée” en refroidissant. Il s’agit donc bien d’un matériau présentant 2 formes totalement contrôlables !

Un fonctionnement propre aux élastomères à cristaux liquides

Comment un tel phénomène est-il possible ? Tout repose sur une bataille à l’échelle nanométrique entre les cristaux liquides et la matrice en élastomère dans laquelle ils sont emprisonnés. En refroidissant, c’est la forme donnée aux cristaux liquides qui domine. Lorsqu’on chauffe la structure, les cristaux se relâchent à l’intérieur de l’élastomère qui retrouve alors toute sa souplesse.

Une piste intéressante pour la robotique souple

Rafael Verduzco et Morgan Barnes, les chercheurs qui ont réalisé ces travaux, continuent d’améliorer leur invention. Certains points bloquants restent encore à lever, comme l’impossibilité actuellement d’imprimer des structures verticales, en raison du manque de rigidité. En effet, ce matériau étant souple, pendant la phase d’impression, la fabrication de formes complexes n’est pas encore d’actualité.

Néanmoins, ces problèmes sont loin d’être insurmontables et pourraient être résolus rapidement. L’impression 4D réactive n’en est encore qu’à ses débuts mais les chercheurs imaginent déjà la création d’actionneurs souples et la fabrication de robots souples qui pourraient nager à la manière des méduses ou transporter des liquides pour le largage de médicaments.

Pour en savoir plus

Explosions à Beyrouth : le nitrate d’ammonium, le drame avant et après

Au moins 137 morts, 5 000 blessés, une dizaine de disparus, des dommages matériels estimés à plus de 3 milliards de dollars, et jusqu’à 300 000 personnes privées de domicile fixe. Secouée le 4 août par deux gigantesques déflagrations, Beyrouth est méconnaissable.

Devant ce paysage de désolation, les questions se posent d’elles-mêmes : comment une telle catastrophe a-t-elle pu se produire ? Quelles explications ? Le nitrate d’ammonium, vendu sur le marché comme engrais, devient très explosif sous certaines conditions. Le drame était-il évitable ? 

Poussant notre réflexion plus loin, plus particulièrement sur la gestion de risques et d’accidents industriels, nous avons interrogé Marie-Astrid Soenen, responsable du pôle substances produits et procédés, à la direction des risques accidentels de l’Ineris (Institut national de l’environnement industriel et des risques). 

Techniques de l’Ingénieur : Hier, les autorités libanaises ont confirmé la présence d’un entrepôt de feux d’artifices, tout près de celui qui contenait le nitrate d’ammonium, au port de Beyrouth. Peut-on présumer qu’il s’agit de l’élément déclencheur de la détonation ? 

Marie-Astrid Soenen : Quand on regarde les films montrant les explosions au port de Beyrouth, on voit qu’elles ont été précédées par un incendie à proximité du site où ont éclaté les explosions. L’expérience en incidents industriels et l’accidentologie nous montrent que si des sources calorifiques – comme un incendie – sont proches du nitrate d’ammonium et qu’on ne les contrôle pas, une explosion s’en suit. Il est tout à fait plausible que l’incendie des feux d’artifice, qui reste à confirmer, soit derrière cette explosion. 

Au-delà des conséquences dévastatrices de l’onde de choc, ces déflagrations pourraient-elles avoir des effets sur le long terme ? 

Au moment de l’explosion, telle que montrée dans les vidéos, on voit monter un nuage de fumée rouge. Cette couleur est due à la présence d’oxydes d’azote (des gaz polluants à forte toxicité pulmonaire, ndlr.), dits NOx, issus de la décomposition d’une partie du nitrate d’ammonium. Les NOx se caractérisent par cette couleur rousse. La tombée de pluies acides qui entraînent avec elles les NOx est selon moi peu probable, car le nuage est visiblement vite monté très haut et s’est mélangé avec l’air. Le nuage de NOx dégagé n’est pas à hauteur d’homme pour être inhalé. Mais il faudrait certainement réaliser des scénarios de dispersion de ce nuage afin de savoir où s’est dirigé ce panache. 

Toutefois, il n’y a pas que les NOx. L’explosion a emporté avec elle des gravats qui pourraient contenir d’autres matières toxiques. Et là, tout dépend de ce qui se trouvait alentour. Cela peut par exemple s’agir de poussières d’amiante relâchées dans l’air, si les toitures arrachées contenaient de l’amiante. 

On peut ici citer des exemples historiques. Après la destruction en septembre 2001 de l’usine AZF de Toulouse, par un stock de nitrate d’ammonium, il y a surtout eu l’impact physique de l’onde de choc, mais pas de toxicité perçue ; contrairement à l’explosion de nitrate d’ammonium en Chine en 2015 qui avait eu des conséquences environnementales car des produits cyanurés stockés à proximité ont été libérés lors de l’explosion.

Quelles sont les précautions prises en France pour le stockage du nitrate d’ammonium ? 

En France, la directive Seveso comporte des recommandations qui précisent bien comment procéder au stockage, selon les conditions réelles dans lesquelles on se trouve. Concernant les engrais à haute teneur de nitrates d’ammonium, la directive Seveso définit pour le stockage un classement seuil bas de 1250 tonnes et un classement seuil haut 5000 tonnes : selon le classement, des prescriptions pour la sécurité du stockage sont à respecter. De plus, selon les critères techniques pour le produit à stocker, les seuils de classement sont différents. Pour pouvoir stocker ces produits en respectant les réglementations en vigueur, il faut réaliser au préalable une étude de danger permettant ainsi de dessiner les scénarios d’accidents. Dans les cas les plus graves, un plan de prévention des risques technologiques (PPRT) sera établi. 

Au port de Beyrouth, une cargaison de 2 750 tonnes de nitrates d’ammonium était gardée depuis 2013 dans un hangar abandonné… Les conditions et durée de stockage auraient-elles précipité la catastrophe ?

Au port de Beyrouth, il semble que ces 2750 tonnes de nitrate d’ammonium proviennent d’un cargo de passage, venu de Géorgie, qui les transportait en direction du Mozambique. Il n’est pas certain que les caractéristiques de ce nitrate d’ammonium soient conformes aux exigences attendues. Un stockage de plus de 6 ans, compte tenu des variations de température et d’humidité, a certainement dégradé le produit et donc renforcé sa sensibilité à la détonation.

Par quoi se manifeste le vieillissement du nitrate d’ammonium ? 

Le nitrate d’ammonium est un produit sous forme de cristaux qui présentent des transitions de phases (ces transitions interviennent à des températures précises et modifient la structure cristalline du composé, ndlr.). Le nitrate d’ammonium possède une transition de phase vers 32 °C, et il doit avoir subi cela dans un pays comme le Liban où il peut faire très chaud. De plus, le nitrate d’ammonium absorbe facilement l’humidité, et cela aussi perturbe ses caractéristiques. Donc, le vieillissement va conduire à ce que les granulés d’origine vont se dégrader sous forme de poudre ou se solidifier en masse en présence de forte humidité, augmentant ainsi la sensibilité.

Les autorités libanaises auraient été alertées de la présence dans le port de Beyrouth de cette grande quantité de nitrate d’ammonium. Quelle aurait dû être la démarche à suivre ?

Il existe des protocoles pour “inerter” les nitrates d’ammonium qui ne répondent plus aux critères techniques : les couper avec des substances inertes, qui ne présentent pas de risques d’explosion, et on obtient dans ce cas un mélange stable. Ce mélange peut ensuite être retravaillé en vue d’une valorisation, si cela est possible. L’une des substances inertes avec lesquelles on peut couper le nitrate d’ammonium est le phosphate. On peut couper le nitrate d’ammonium avec jusqu’à 50 % de phosphates et on parvient ainsi à annuler fortement le risque d’accident. Et le phosphate peut ensuite servir dans la valorisation en engrais car il permet de produire un mélange nutritif à destination des sols. Il y a encore d’autres moyens pour couper le nitrate d’ammonium : le dissoudre dans de gros volumes d’eau, entre autres techniques.  

Image de une : Capture d’écran d’une vidéo diffusée sur Twitter par le compte @AbirGhattas et intégrée plus haut dans l’article. 

Un revêtement polymère qui combat les champignons nuisibles

En plus de causer des problèmes environnementaux, les traitements antifongiques sont de moins en moins efficaces. La résistance des moisissures aux produits fongicides nécessite de trouver de nouvelles méthodes de lutte.

Développement de moisissures sur différentes surfaces. Crédit : Cindy Vallieres (Univ. Nottingham), publié dans Science Advances

Limiter les consommations de pesticides : un enjeu crucial

Lors de travaux précédents, l’équipe d’experts, des départements des sciences de la vie, de pharmacie et d’ingénierie de l’université de Nottingham, présentait différentes combinaisons de fongicides parmi les plus efficaces. Si ces travaux devaient permettre, en théorie, de limiter la consommation de substances actives, les réglementations de plus en plus strictes poussent vers la recherche de solutions zéro pesticides.

Un traitement passif

Dans un papier publié dans le journal Science Advances, l’équipe de chercheurs a démontré qu’il était possible de combattre les moisissures de manière passive, sans qu’il soit nécessaire de les détruire. Comment ? Grâce à des matériaux dont la surface empêche les moisissures d’adhérer.

Ils ont ainsi développé un revêtement polymère à base de méthacrylate et répondant à cette description. Parmi les souches de moisissures testées, on retrouve deux champignons bien connus pour leurs effets dévastateurs :

  • Candida albicans, la levure responsable de nombreuses infections fongiques humaines ;
  • Botrytis cinerea, la fameuse pourriture grise qui attaque aussi bien les cultures de tomates, de fraises que les vignes.

Une étude exhaustive qui a porté ses fruits

Selon le professeur Simon Avery, responsable de ces travaux, il s’agit de la première étude exhaustive concernant la chimie des polymères résistant à l’adhésion de moisissures. En effet, après avoir étudié des centaines de formulations de méthacrylate, ils ont été capables d’identifier les polymères les plus efficaces.

Cette étude n’est qu’une première étape. Au-delà de l’utilisation de tels polymères à des fins thérapeutiques ou de protection des cultures, la méthode peut être utilisée pour toutes sortes d’applications où une protection antifongique s’avère nécessaire.

In Sun We Trust : « Le solaire est clairement le meilleur investissement »

David Callegari, cofondateur et directeur général d’In Sun We Trust

La technologie d’In Sun We Trust permet de simuler la production photovoltaïque de n’importe quelle toiture avec une marge d’erreur de 5 %. La simulation prend en compte tous les éléments potentiels qui diminueraient la production électrique tels que : microclimats, inclinaison, orientation, mais aussi effets d’ombrage provoqués par les bâtiments, le relief, la végétation, etc. La production de la toiture et la consommation du foyer sont ensuite comparées. Une porte d’entrée efficace pour évaluer tout projet solaire particulier dans les meilleures conditions. Entretien avec David Callegari, cofondateur et directeur général d’In Sun We Trust. Il insiste sur le fait que le solaire constitue aujourd’hui l’investissement le plus rentable et le plus sûr.

Techniques de l’ingénieur : Pourquoi les Français devraient installer des panneaux solaires ?

David Callegari : Le public nous pose toujours deux questions : pourquoi le solaire et pourquoi nous ? Le solaire est clairement le meilleur investissement où placer son argent aujourd’hui. Il y a très peu de placements dans lesquels investir de façon rentable. Le solaire pourrait être encore plus rentable à l’avenir en fonction de l’évolution du mix électrique. Pourquoi In Sun We Trust ? Nous vérifions la qualité des installateurs et avons la certitude d’offrir le meilleur rapport qualité-prix.

Quelles informations fournissent vos simulations ?

Le visiteur se rend sur notre simulateur solaire, renseigne son adresse pour avoir accès à son potentiel solaire. Avec les 3 questions posées – avez-vous un ballon, un chauffage électrique et une piscine ? – nous sommes capables d’avoir une précision à 70-80 %. Le premier résultat fournit un bon ordre de grandeur du potentiel solaire de la toiture recherchée. Les personnes demandant à être rappelées par un conseiller solaire auront une estimation encore plus précise de la production possible et accès aux devis des partenaires. Nous ne communiquons plus sur le temps de retour sur investissement, car il est mal interprété la plupart du temps.

Nous essayons de trouver des résultats plus facilement compréhensibles. Pour bien comprendre l’intérêt économique du solaire, il faut considérer le taux de rentabilité interne (TRI), un indicateur qui prend en compte, entre autres, la durée de vie du système, l’augmentation du prix de l’électricité et la disparition des subventions. C’est le chiffre que l’on utilise pour comparer deux investissements. Vous pouvez avoir un TRI de 6 % sur le solaire net d’impôt, à comparer à un TRI assurance-vie autour de 3 %. Le solaire est beaucoup plus intéressant lorsque l’on prend en compte tous les paramètres externes.

Lorsque nous vous avions interviewé en 2017 (*), il existait deux versions de cette technologie de simulation. La plus précise nécessitait un partenariat avec chaque collectivité locale pour avoir accès à des bases de données onéreuses. Pour l’autre version, les utilisateurs devaient renseigner de nombreuses informations techniques telles que la pente du toit pour avoir accès aux résultats de simulations. La plus précise, lancée en 2016 à Nantes Métropole, puis dans plusieurs collectivités couvre désormais tout l’Hexagone. Comment cela a-t-il été possible ?

La technologie la plus simple était disponible sur tout le territoire depuis plusieurs années. En parallèle, la version nantaise, plus précise, était très coûteuse en termes de données à acquérir et en temps de traitement de ces données. C’est la raison pour laquelle elle était restreinte à des territoires avec lesquels nous avions noué un partenariat. Ces territoires continuent d’ailleurs de bénéficier de fonctionnalités avancées et exclusives – simulateur de vente totale, de solaire thermique, sur toitures professionnelles, comparaison des options de financement… – et d’un accès privilégié aux données.

Pour étendre notre meilleure technologie de simulation à la France entière, nous avions besoin d’une belle force de frappe financière. Celle-ci nous a été conférée par notre fusion en 2019 avec le groupe Otovo, une start-up sœur en Scandinavie. Nous sommes désormais présents en Norvège, en Suède, en France et en Espagne.

Nous avons levé 17 millions d’euros auprès du groupe suédois Axel Johnson Inc., spécialisé dans le commerce de détail et les services aux consommateurs, et du fonds souverain norvégien. Nous avons ainsi pu déployer la technologie sur toute la France, sous forme de simulateur centré sur notre cœur de cible : l’autoconsommation individuelle pour les particuliers. En France, nous avons été à l’origine de 400 installations en 2019 et en prévoyons 1 000 cette année. À l’échelle du groupe, nous en visons 4 000 cette année.

D’où proviennent les données que vous exploitez ?

Nous exploitons deux types de données géographiques et deux types de données météorologiques. Nous utilisons les données de l’Institut national de l’information géographique et forestière (IGN) et les données de la NASA. Pour les données météorologiques, nous mixons les données de Météo-France et celles traitées par l’École des Mines de Paris qui utilisent des clichés du satellite Météosat. Cela nous permet de faire nos propres modèles d’irradiation et à partir de ces quatre grandes familles de données, nous créons nos simulations. Nous évaluons un taux d’erreur à 5 % grâce à des analyses menées sur plus d’une centaine de systèmes existants depuis au moins 2 ans et pour moitié, entre 5 ans et 10 ans.

(*) In Sun We Trust évalue le potentiel solaire de votre toit

Le bétail augmente le risque d’épidémies dans le monde

Serge Morand est chercheur à l’Institut des sciences de l’évolution de Montpellier (CNRS/Université de Montpellier/IRD/EPHE) et au laboratoire Astre du Cirad. Écologue spécialiste de la faune sauvage et de l’émergence des maladies infectieuses. Il publie une nouvelle étude dans la revue Biological Conservation. Entretien.

Techniques de l’Ingénieur : Quel est le rôle de l’élevage et de la baisse de la biodiversité dans l’émergence de maladies infectieuses ?

Serge Morand : Ces dernières décennies, on observe une augmentation des maladies infectieuses et d’épidémies, en parallèle d’une chute de la biodiversité et d’une hausse importante de la production d’animaux domestiques. J’ai voulu comprendre s’il y avait un lien entre ces différents phénomènes. Mon étude montre que la croissance mondiale d’élevage de bétail menace la biodiversité et augmente les risques sanitaires pour les humains et les animaux domestiques.

L’étude considère tous les types d’épidémies, explore les corrélations, mais n’explique pas les mécanismes. Les animaux domestiques peuvent être un relais : ces animaux sont réservoirs de nombreux virus et de bactéries pour les humains. On pense aux grippes porcines ou aviaires. En même temps, ils constituent un pont épidémiologique avec les animaux sauvages. Ce lien peut se faire par l’extension de l’empreinte écologique du bétail, notamment par la déforestation, pour produire des protéines animales, ou par la simplification des écosystèmes.

Quels sont les liens spatiaux et temporels mis en évidence ?

Sur l’ensemble des données spatiales par pays, l’augmentation du nombre d’espèces en danger, proportionnellement aux espèces connues dans les pays, est associée à une augmentation du nombre d’épidémies pour les humains. On retrouve cet effet lié à la perte de biodiversité sur les épidémies notifiées, au moins pour les 80 dernières années.

En revanche, lorsque l’on regarde la dynamique temporelle, le facteur prédominant est l’augmentation du bétail. L’augmentation du bétail impacte directement le nombre d’espèces de la faune sauvage mises en danger, ainsi que la santé humaine et la santé animale. Tout se passe comme si le véritable problème pour notre santé et la santé des écosystèmes est l’augmentation considérable du bétail. On voit très bien que le passage d’un milliard de têtes de bétail à presque 1,5 milliard entre les années 1960 et 2010 est très lié à ces phénomènes. C’est le facteur essentiel.

Plus précisément, quels liens observez-vous entre espèces en danger et épidémies humaines ?

La hausse de la perte de biodiversité était corrélée à une augmentation des épidémies, mais on a atteint un pic en 2009-2012. Depuis, le nombre d’espèces en danger contribue de moins en moins aux nouvelles épidémies humaines. Tout se passe comme si le risque épidémique est désormais en priorité à attribuer aux animaux domestiques. C’est peut-être le dernier soubresaut des épidémies provenant de la faune sauvage : la biodiversité commence à être tellement en danger et à disparaître qu’elle va finalement être de moins en moins à l’origine des épidémies. Toutefois, l’augmentation du nombre d’espèces menacées augmente le nombre de maladies chez les animaux, sans atteindre de pic. Cela renforce le rôle de pont épidémiologique de l’animal domestique. C’est lui qui sert d’amplificateur pour les humains ensuite.

Que faire pour réduire les risques épidémiologiques ?

Soit on se prépare au pire, soit on reconsidère sérieusement la place de l’animal domestique sur la planète. Le poids des animaux domestiques est supérieur au poids des humains et de la faune sauvage. Il ne faut pas forcément partir vers le véganisme mais réduire la part des protéines animales dans la consommation. Il est vraiment essentiel de revégétaliser notre nourriture. C’est bon pour notre santé et bon pour les écosystèmes, la biodiversité.

En parallèle de l’augmentation des animaux domestiques, nous avons une perte totale de la diversité des races élevées. Certaines sont en extinction. Finalement, l’étude dénonce le modèle de l’industrialisation de la ferme et de l’homogénéisation des races industrielles qui au final nous mettent en danger.

Vous utilisez de nombreuses données, pouvez-vous nous en dire plus sur leur origine ?

J’ai mené un travail avec les bases de données mondiales. Cette étude est corrélative, basée sur les meilleures données disponibles. J’ai utilisé la base de données GIDEON consacrée aux maladies infectieuses humaines dans chaque pays. L’extraction sur la période 1960-2019 contient 16 994 épidémies pour 252 maladies infectieuses. La deuxième base de données, WAHIS, tenue par l’Organisation mondiale de la santé animale, porte sur 180 maladies infectieuses qui touchent les animaux. Les données portent sur la période 2006-2019. La troisième base de données est celle de la FAO, FAOSTAT, qui fournit l’évolution des têtes de bétail depuis 1961. Enfin, j’ai utilisé les bases de données de l’UICN qui permettent d’extraire le nombre d’espèces décrites par pays – leur richesse et le nombre d’espèces en danger. À partir de là, j’ai exploré les liens entre augmentation des animaux domestiques, la baisse de la biodiversité, ainsi que l’augmentation des maladies infectieuses chez les humains et chez les animaux.

Regards de dirigeants #6 : Boris Lombard, président de KSB France

Boris Lombard a accepté d’évoquer avec Techniques de l’Ingénieur la crise sanitaire que le pays traverse depuis le mois de mars et ses conséquences pour KSB en France, sur les court et moyen termes.

Yves Valentin : Comment avez-vous réagi à l’annonce du confinement le 16 mars dernier ?

Boris Lombard : Dès le lendemain, nous avons fait le choix très clair de continuer à produire. Cela fut un moment compliqué. Le vocabulaire utilisé lors de l’allocution présidentielle du 16 mars, qui évoquait la « guerre » à mener contre le Covid-19, a généré de l’angoisse, à tous les niveaux de l’entreprise. Il faut se souvenir qu’à ce moment-là, nous ne savions presque rien sur le risque sanitaire réel lié au coronavirus.

Boris Lombard, président de KSB en France.

La tentation de « lever le pied » a alors été très forte, et il a fallu faire preuve de discernement. Nous avons vite estimé que le confinement allait durer au moins six semaines. Le risque était grand, en cas d’arrêt de l’activité, de perdre de nombreuses parts de marché durant cette période. Il nous est vite apparu que maintenir l’activité était indispensable, pour l’entreprise mais aussi pour nos clients en demande.
Toute décision d’arrêter aurait été catastrophique pour notre entreprise, autant du point de vue économique que du point de vue social. Aujourd’hui, presque quatre mois plus tard, nous sommes persuadés d’avoir fait le bon choix.

Quelles mesures avez-vous mises en place pour vous adapter à ce contexte inédit ?

En premier lieu nous avons organisé un CSE extraordinaire, afin d’activer tout le dispositif nécessaire pour assurer la sécurité sanitaire de nos salariés et continuer à produire.
Concrètement, cela s’est traduit par la mise en place des mesures drastiques de distanciation sociale, d’autant plus que dans un premier temps nous n’avions pas de masques.
Nous avons également aménagé les horaires de travail, pour éviter au maximum que les équipes se croisent et pour nettoyer les postes de travail entre chaque rotation.
Au niveau de nos quatre sites de production et de nos 18 ateliers de service, nous avons fait respecter ces règles de sécurité, en les adaptant localement en fonction des contraintes. Cela a très bien fonctionné dans l’ensemble.

Le dialogue au sein de l’entreprise et avec les partenaires extérieurs devient-il plus important que jamais dans ce contexte ?

Il est fondamental. Nous avons beaucoup communiqué durant cette période, avec les élus locaux, la CSSCT, les CSE… il a fallu s’organiser rapidement pour être cohérents et efficients dans nos actions, pour l’ensemble de nos 1200 salariés en France.
Nous sommes par ailleurs parvenus à limiter l’usage du chômage partiel au strict minimum, uniquement pour une petite partie de nos activités de service.
Du jour au lendemain, nous avons instauré le télétravail pour 40 % de nos salariés : ceux qui occupent des fonctions commerciales ou administratives principalement. Il a donc fallu, tout de suite, trouver des moyens de maintenir un niveau de communication suffisant, pour tous les salariés de l’entreprise, quelle que soit leur situation.
Nous avions déjà l’habitude d’organiser, à destination de nos 150 managers, des « CODIR live », à l’occasion desquels le comité de direction s’exprime sur la marche de l’entreprise. Nous en avons programmé trois durant le confinement pour les informer et échanger avec eux le plus régulièrement possible sur la situation que nous traversions.
Il était essentiel de cultiver le lien social ; nous avons donc également demandé à chaque manager de créer un groupe WhatsApp avec son équipe pour garder le contact du mieux possible.

Allez-vous maintenir, au-delà de la période actuelle, une certaine « dose » de télétravail chez KSB ?

Nous avons fait un sondage au sein de l’entreprise sur cette question. A une grande majorité, les salariés sont favorables à la possibilité d’alterner télétravail et présence au bureau, afin de préserver le lien avec l’entreprise et leurs collègues. Clairement, sur ce point, il y aura un avant et un après Covid-19. Jusqu’à présent, notre accord d’entreprise permettait aux salariés de télétravailler 8 jours par an. Nous allons revoir tout cela, et même si cette modalité nous offre une flexibilité appréciable, il n’est pas question d’en abuser. Dans les métiers de l’industrie, le télétravail, s’il est trop généralisé, peut être un frein à l’innovation, au partage des compétences et des savoir-faire. De ce point de vue, la fluidité des échanges, informels ou non, voire les discussions pendant les pauses déjeuner ou à la machine à café, ont une importance que nous aurions tort de sous-estimer.

Pour les salariés travaillant dans les ateliers, quelles mesures spécifiques avez-vous mises en place ?

Nous avons demandé aux collaborateurs qui souffraient de symptômes et à ceux qui les avaient côtoyés de s’isoler et de consulter leur médecin traitant. Nous avons par ailleurs décidé de ne pas imposer la prise de température dans nos usines. Il en allait de la responsabilité de chacun sur ce point. Nous ne sommes pas médecins, et cela ne s’improvise pas. La plupart des personnes infectées étant asymptomatiques, nous voulions éviter qu’une telle mesure –si elle avait été généralisée- entraîne une baisse de vigilance de la part de tous. Il s’agissait donc de maintenir tous les salariés présents en alerte par rapport aux consignes sanitaires.
Sur ce point d’ailleurs nous sommes très admiratifs du comportement de nos collaborateurs, dans les usines et nos ateliers de service, où la situation était très incertaine dans les premiers temps. C’était, au début, un peu un saut dans l’inconnu, avec un risque difficile à évaluer. Il me semble d’ailleurs que cet état d’esprit que nous avons observé chez nos salariés est caractéristique de celui qui a animé l’ensemble de notre industrie durant cette période.

Dans quelle mesure le chiffre d’affaires de l’entreprise a-t-il été impacté depuis le mois de mars ?

La baisse de notre chiffre d’affaires à fin juin n’est, si je puis dire, « que » de 7%. C’est en grande partie grâce à un bon premier trimestre et aux efforts de nos salariés, comme je viens d’en parler.
Mais cela est aussi la conséquence de ce qui fait la spécificité de KSB. Nos activités reposent sur plusieurs modèles économiques, basés sur des produits et des clients différents, dont les délais de livraison peuvent varier de 3 jours à 9 mois… Cela nous a permis d’être extrêmement résilients depuis le début de cette crise et d’en diluer l’impact sur une période relativement longue. Cela va nous permettre, je le pense, d’aborder sereinement la suite de cette année et 2021, qui seront marquées encore par les conséquences économiques de la crise du Covid-19 : c’est pour cela qu’il faut malgré tout rester très prudent.

La résilience dont vous parlez explique-t-elle à elle seule la bonne tenue de l’entreprise durant cette crise ?

D’une part, nous avons la chance de voir notre activité reposer sur trois socles : les pompes, les robinets industriels et le service.
D’autre part, nous servons à la fois des activités dites de « projets » et d’autres de « remplacement ». Dans cette dernière catégorie, la demande est quotidienne. A titre d’exemple, sur notre site de Lille, qui produit des pompes d’assainissement, nous allons devoir embaucher des intérimaires, afin de rattraper rapidement une partie du retard pris pendant la période de confinement.
A côté de cela nous constatons une baisse sur les « grands projets ». Il s’agit, pour nous, de garder un équilibre entre certains segments de produits dont la demande va baisser, d’autres pour lesquels elle va augmenter. Ce jeu de compensation nous permet de nous projeter plus sereinement sur les court et moyen termes.

Cette période a-t-elle permis de renforcer vos liens avec certains clients ?

Ce qui est sûr, c’est que nous avons pu nous apercevoir, durant cette période particulière, du caractère essentiel des produits que nous fabriquons. La pompe est au circuit hydraulique ce que la pile est au circuit électrique, en quelque sorte.
En Espagne par exemple nous avons été déclarés « activité essentielle », ce qui nous a permis de demander à nos fournisseurs locaux de reprendre leur activité. Nous avons également eu quelques craintes avec des fournisseurs en Inde, mais malgré un risque pourtant réel nous n’avons pas été impactés.
Cela nous a permis de ne pas avoir jusqu’à présent de rupture dans la chaîne d’approvisionnement, ce qui était fondamental pour nous et nos clients.

Depuis le déconfinement, comment gérez-vous la situation ?

Nous avons revu l’ensemble de nos règles lors du déconfinement, mais nous continuons à suivre scrupuleusement les process d’hygiène mis en place depuis le mois de mars : une jauge de 4 mètres carrés pour la distanciation des collaborateurs sur nos sites, le port du masque, des marquages au sol pour gérer la circulation dans les locaux…
Aujourd’hui, nous avons adapté nos bureaux pour permettre le retour de nos salariés, au fur et à mesure, dans des conditions sanitaires satisfaisantes. Nous allons continuer sur ce modèle là, au moins pendant l’été.

Et sur le plan de l’activité ?

Il y a au total une baisse des prises de commandes, c’est certain. Cela concerne surtout celles liées à des investissements conséquents. C’est ce qui nous amène, comme je vous l’expliquais précédemment, à rester très prudent sur la suite. Ce qui se dessine ressemble plus à une reprise en « racine carrée » plutôt qu’en « v », si je puis dire. Autrement dit, j’imagine difficilement que nous retrouvions l’activité économique de 2019 en 2020 et 2021. Il faudra, de mon point de vue, à minima trois ans pour effacer les stigmates de cette crise.

Comment préparer au mieux la sortie de crise ?

Il va falloir que nous soyons, au niveau de l’entreprise, beaucoup plus efficients. Cela passe par la nécessité d’abaisser nos points morts, poursuivre la digitalisation des processus, et continuer à développer la résilience de notre entreprise, que j’évoquais il y a quelques instants.

Vous parliez de vos approvisionnements en Inde tout à l’heure. La crise du Covid-19 vous a-t-elle fait réévaluer votre stratégie par rapport au choix de vos fournisseurs ?

Il se trouve que nous exportons 80 % de ce que nous produisons en France, et notre zone d’exportation –à quelques exceptions près- porte pour l’essentiel sur l’Europe, le Moyen-Orient et l’Afrique… la majorité de nos fournisseurs se trouve également dans ces zones géographiques. Nos chaînes de valeurs sont donc déjà extrêmement régionalisées. L’exemple indien fait partie des exceptions.
D’ailleurs, le confinement en Inde nous enseigne que nous ne devons pas être dépendants d’un seul pays pour des composants critiques. Cela peut nous mettre face à des difficultés importantes. Il faut intégrer ce risque pays au niveau des approvisionnements, comme nous l’avons déjà considéré au niveau de l’activité commerciale.

Croyez-vous à un mouvement de relocalisation dans l’industrie ?

Il s’agit d’un phénomène graduel dont nous percevions depuis un moment l’émergence, avant même que la crise sanitaire ne se déclare. Les raisons de relocaliser existent. La compétitivité économique et la loi du marché restent toutefois le moteur principal de ces mouvements.
Aujourd’hui, les salaires ont augmenté en Chine, le pays est donc moins attractif qu’avant. C’est un premier argument.
Nos clients sont également exigeants sur le niveau d’adaptation que nous pouvons mettre en œuvre pour coller à leurs besoins, souvent très spécifiques. Cela requiert de notre part une capacité à produire des solutions sur-mesure et à proposer des services complémentaires. Ces exigences croissantes plaident donc pour une régionalisation accrue des chaînes de valeurs, qui entraîne peu à peu un mouvement de relocalisation.
Forts de ce constat, nous devons faire en sorte que de nouvelles productions puissent émerger en Europe. L’innovation, le développement de produits et de services associés à de nouveaux modèles économiques, la modernisation de nos usines en profitant des leviers de la digitalisation, la prise en compte de l’impact environnemental de nos activités doivent nous permettre de relancer notre industrie.

En Europe, et aussi en France ?

Je l’espère. Même si l’attractivité de la France s’est nettement améliorée ces derniers temps, même si nous avons des atouts qui attirent les entreprises, nous avons aussi des freins. Et parmi ces freins, un tissu industriel qui s’est désagrégé dans les trente dernières années, et des savoir-faire qui se sont perdus. L’industrie c’est le temps long, l’investissement, les compétences.
Il nous faut non seulement être capable de mobiliser des investissements sur des solutions à forte valeur ajoutée mais également être en mesure d’attirer les nouvelles générations et de les former aux métiers de l’industrie.

Propos recueillis par Yves Valentin, directeur général de Techniques de l’Ingénieur, et Pierre Thouverez, journaliste.

Construction de l’une des plus puissantes centrales solaires au monde près d’Abu Dhabi

D’une capacité de 2 GW, une centrale solaire présentée comme la plus puissante au monde va être implantée dans la région d’Al Dhafra, aux Émirats arabes unis. Ce projet est l’aboutissement d’un appel d’offres lancé en juin 2019 par Emirates Water and Electricity Company (EWEC), l’un des premiers fournisseurs d’électricité du pays. Un consortium regroupant le français EDF Renouvelables et le chinois Jinko Power Technology a été sélectionné pour construire puis gérer cette centrale. « En Inde, le parc de Bhadla possède une capacité installée totale de plus de 2,2 GW, ce qui en ferait le plus puissant au monde, peut-on lire dans un communiqué de presse d’EDF Renouvelables. Mais il s’agit d’un complexe avec des lots successifs remportés par plusieurs acteurs. Notre projet est le plus puissant projet solaire qui sera raccordé en un point. » 

L’installation produira 4500 GWh par an et permettra d’alimenter en électricité l’équivalent de 160 000 foyers locaux chaque année. Pas moins de 5 millions de panneaux photovoltaïques en silicium monocristallin vont être posés sur une surface de 20 km2. Ces cellules seront posées sur des trackers afin de suivre la course du soleil et ainsi gagner en efficacité. Les panneaux auront la particularité d’offrir une bifacialité afin de capter le soleil sur la face arrière. Contacté par Techniques de l’Ingénieur, EDF Renouvelables précise : « Cette technologie permettra d’augmenter le rendement de 10% », sans indiquer le rendement total, qui reste une donnée confidentielle. 

Dans un marché extrêmement concurrentiel, le consortium a réussi à proposer l’offre la plus compétitive, avec un coût moyen de production de l’électricité de 13,5 dollars (11,4 euros) par MWh. « Les très bonnes conditions d’ensoleillement, la taille de la centrale, la baisse continue des coûts des équipements et de construction ainsi que le cadre économique solide du projet nous ont permis d’atteindre ce coût de production », nous informe EDF Renouvelables.

Des robots pour nettoyer automatiquement les panneaux

La production d’électricité sera injectée dans le réseau national. Le site se révèle particulièrement bien placé puisqu’il se trouve à moins de 35 km d’Abu Dhabi, l’un des principaux centres de consommation du pays. Le consortium a signé un contrat d’achat d’électricité pour une durée de 30 ans EWEC. 

Les travaux de construction devraient démarrer avant la fin de l’année 2020, pour une mise en service prévue en 2022. Le projet générera plus de 4 000 emplois au cours de sa phase de construction tandis que 40 à 70 personnes devraient travailler sur la centrale de manière pérenne lorsqu’elle sera en exploitation. « Du fait de sa grande taille et afin de réduire les coûts d’exploitation et de maintenance, des robots seront déployés et se déplaceront entre les panneaux photovoltaïques pour les nettoyer automatiquement », nous apprend l’entreprise française.

Même s’ils disposent encore d’importantes réserves en pétrole et en gaz, les Émirats arabes unis souhaitent diversifier leurs ressources énergétiques en développant notamment les renouvelables. D’ici à 2050, le pays a pour objectif de produire 50% de son électricité à partir d’énergies vertes. Pour EDF Renouvelables, il s’agira du deuxième projet d’installation photovoltaïque conduit dans la région. L’entreprise française construit en effet la centrale « Dewa III » d’une capacité de 1GW à Dubaï.

Un chauffeur VTC a tout intérêt à passer à l’électrique à Paris

Les chauffeurs VTC se multiplient dans les capitales européennes. La flotte de VTC a triplé à Paris en quatre ans, passant d’environ 10 000 en 2016 à près de 30 000 aujourd’hui. A Londres, ils sont déjà près de 88 000 chauffeurs de type Uber. Ils parcourent en moyenne 60 000 km par an contre 12 000 km pour un automobiliste européen moyen, dans des véhicules carburant majoritairement au diesel. La lutte contre le changement climatique et la pollution de l’air invite à penser à leur électrification.

L’ONG Transport & Environnement s’est penchée sur la question en étudiant comment l’électrification pouvait être rentable pour les chauffeurs. « C’est une situation gagnant-gagnant-gagnant pour les chauffeurs, les citoyens et la planète, analyse Yoann Le Petit, expert nouvelle mobilité chez Transport & Environnement. Si Uber veut mener le changement et faire partie de la solution dans nos villes, l’entreprise doit s’engager à faire 100 % de courses électriques d’ici 2025 dans les capitales européennes. »

L’infrastructure de recharge est capitale

Selon cette nouvelle étude, faire rouler des véhicules électriques à batterie de taille moyenne – comparables à la Nissan Leaf de 62 kilowattheures – coûte en moyenne 14 % moins cher que leur équivalent diesel pour les VTC. Deux conditions à cela : que les chauffeurs aient accès à une borne de recharge à leur domicile ou au dépôt et qu’ils bénéficient d’un accès à une borne de recharge rapide à un tarif avantageux. C’est souvent le cas à Londres, Berlin, Lisbonne et Paris. En revanche, l’exploitation d’un VTC électrique reste plus cher à Bruxelles dans tous les cas en raison de coûts de recharge élevés. Ces économies montent même jusqu’à 24 % à Paris, grâce à une électricité moins chère, des prix de vente moins élevés et des aides supérieures à l’achat. Ces économies varient ainsi entre 2 400 et 3 000 euros par an. L’économie peut donc atteindre 12 000 euros sur 4 ans, durée moyenne de possession du véhicule.

Les voitures électriques de taille moyenne à grande restent la meilleure option pour les chauffeurs ayant accès à la recharge à la maison ou au dépôt dans 12 des 15 scénarios envisagés. « Il est parfaitement logique sur le plan économique et climatique d’électrifier entièrement les véhicules à kilométrage élevé comme Uber et les taxis, prévient Yoann Le Petit. Les villes ont un rôle crucial dans la transition écologique, en fournissant les bonnes incitations pour que les conducteurs passent aux véhicules électriques et en construisant le réseau de recharge afin qu’ils puissent fonctionner facilement ». La charge est en effet un obstacle majeur à l’adoption des véhicules électriques par les conducteurs professionnels. La recharge lente est moins chère ; elle doit être accessible et proche des logements des chauffeurs pour réduire les coûts d’exploitation.

Selon les retours de terrain, un chauffeur peut parcourir jusqu’à 300 km par jour. Cela signifie qu’avec les derniers modèles, une batterie entièrement chargée couvre une journée complète de travail.  En absence de prise à domicile ou au dépôt, il faudra donc déployer des chargeurs rapides dédiés pour recharger les véhicules au cours de la journée, pendant une pause ou en attendant des clients. Une heure en moyenne est nécessaire pour recharger leurs batteries de 20 % à 80 %.

Mobilisation pour électrifier les VTC

L’ONG formule 5 mesures pour accélérer l’adoption des véhicules électriques par les conducteurs de VTC et de taxis. Elle défend l’idée de créer des licences spécifiques aux véhicules électriques, de leur donner un accès prioritaire aux stations de taxi et d’utiliser les couloirs réservés aux bus. Transport & Environnement invite aussi à déployer des chargeurs rapides aux stations, à faciliter l’accès à la recharge lente à domicile ou dans les rues et à mettre en place des aides spécifiques pour permettre aux chauffeurs de passer à l’électrique.

Transport & Environnement, Respire et SumOfUs ont lancé la campagne et la pétition #TrueCostOfUber pour demander à Uber l’électrification de ses VTC. Et pour cause, Uber représente 90 % du marché en France. L’actuelle maire de Paris, Anne Hidalgo, réélue pour 6 ans lors du second tour des élections municipales 2020, a apporté son soutien à cette campagne qui s’inscrit dans un mouvement européen et rassemble des associations de plusieurs pays.

Pour mener son étude, Transport & Environnement a passé au crible le coût total d’opération d’un VTC. Cet indicateur enveloppe l’ensemble des coûts liés à l’achat (primes et taxes incluses), à la dépréciation du véhicule, à sa valeur de revente, aux dépenses de carburant et d’électricité, à l’installation d’un point de recharge à domicile pour les véhicules rechargeables, ainsi que l’assurance et la maintenance du véhicule.

Faire glisser des liquides et des salissures sur une surface à l’aide d’ondes acoustiques

Vitres, pare-brise, optiques de phares, de caméras, de capteurs… La surface de nombreux matériaux doit rester propre en permanence pour conserver sa fonctionnalité. Face à ce constat, l’IEMN (Institut d’électronique, de microélectronique et de nanotechnologie) développe un dispositif qui génère des ondes acoustiques afin de faire glisser les liquides et les salissures présents sur la surface de certains matériaux. « De nombreux laboratoires et startups travaillent sur cette problématique, confie Michaël Baudoin, enseignant-chercheur à l’université de Lille, rattaché à ce laboratoire de recherche. L’originalité de notre travail est d’utiliser des ondes de surface et de faire osciller les gouttes pour qu’elles glissent et non pas de chercher à les atomiser ou évaporer. »

Le dispositif est actuellement basé sur du niobate de lithium (LiNbO3), un matériau piézoélectrique qui se déforme lorsqu’on le soumet à une tension électrique et donc produit une onde acoustique. À l’avenir, la technologie devrait être efficace sur tous types de matériaux, pourvu qu’ils soient rigides et qu’ils propagent bien les ondes, telles que des surfaces vitrées ou des métaux. « Seuls les matériaux qui absorbent ces ondes comme le PDMS (polydiméthylsiloxane), un polymère très utilisé en microfluidique, ne pourront pas être utilisés avec notre technologie », ajoute le chercheur.

Le système est totalement invisible

Le principe de fonctionnement est simple : les ondes acoustiques se propagent à la surface du matériau puis se transmettent au liquide. Chaque goutte va alors se mettre à osciller progressivement, ce qui va libérer la goutte et lui permettre de glisser naturellement selon le sens de gravité du matériau. « L’onde sonore libère les gouttes piégées dans des aspérités de la surface du matériau, précise Michaël Baudoin. Malgré la différence de densité et de vitesse du son entre le solide et le liquide, l’énergie se transmet très bien entre ces deux milieux ». Le système se révèle totalement invisible puisque les vibrations restent inférieures à quelques dizaines nanomètres.

L’équipe de recherche travaille avec des fréquences supérieures au mégahertz et le dispositif est efficace sur toutes sortes de liquides ainsi que des boues parfois très visqueuses. Le système se montre adaptatif c’est-à-dire qu’il suffit d’augmenter la fréquence de génération des ondes selon le niveau de saleté ou des quantités d’eau sur la surface. « Nous avons démontré que l’on pouvait également retirer le givre, quel que soit son niveau, et même de la glace, révèle le chercheur. Ce résultat nous a d’ailleurs surpris. »

Jusqu’ici, de nombreux laboratoires de recherche ont travaillé à rendre des matériaux superhydrophobes, notamment en créant à leur surface des micro- ou nanostructures qui empêchent l’eau d’y adhérer. Si ces technologies fonctionnent bien lorsque les surfaces sont propres, elles perdent progressivement leur efficacité au fur et à mesure de la pollution des matériaux en condition réelle d’utilisation. « Notre technologie fonctionne bien quel que soit le niveau d’aspérité ou d’irrégularité du matériau, même en présence de pollutions chimiques ou de chocs mécaniques à sa surface », précise Michaël Baudoin.

Un partenariat avec un industriel de l’automobile

Sur le plan de la consommation d’énergie, la puissance demandée est comprise entre le milliwatt et le watt en fonction des fonctionnalités. Pour certaines applications comme pour des voitures, la puissance n’est pas un facteur limitant, par contre pour d’autres applications portables comme des systèmes optiques mobiles, elle peut devenir critique. C’est pourquoi, les chercheurs travaillent actuellement à optimiser le système dans ce domaine.

Cette technologie est déjà rentrée dans une phase de maturation. Un partenariat a été conclu entre l’IEMN et la SATT Nord, un organisme qui facilite et accélère les transferts technologiques de la recherche publique vers les entreprises, ainsi qu’avec un industriel du secteur de l’automobile. « Nous travaillons sur des démonstrateurs que l’on pourra intégrer à des systèmes industriels et qui devraient être finalisés d’ici la fin de l’année. L’un des défis technologiques sera ensuite de fiabiliser et d’améliorer la robustesse de notre système », conclut Michaël Baudoin.

Vitres teintées intelligentes : bientôt une solution durable et économique ?

Contrôler la teinte des vitrages permet de faire entrer plus de lumière naturelle dans les bâtiments en réduisant la consommation énergétique des systèmes de climatisation et de chauffage, de 10 à 20 %.

Vitrages électrochromes basés sur le principe d’électrodéposition métallique réversible. À gauche : état transparent, à droite : état opaque. Crédit : Tyler Steven Hernandez

Vitrages dynamiques : inconvénients des technologies actuelles

Après plus de 20 ans d’existence, les vitrages dynamiques peinent à apparaître sur le marché et les exemples industriels sont rares. Pourquoi un tel constat ?

Ces dernières décennies, la majorité de la recherche dans ce domaine s’est concentrée sur l’électrochromie « classique » :

  • les molécules électrochromes organiques conductrices ;
  • les oxydes métalliques électrochromiques (WO3, NiOx, etc.).

Si, sur le papier, les propriétés de ce type de vitrages électrochromes semblent séduisantes, ces technologies souffrent malheureusement de désavantages qui freinent leur commercialisation à grande échelle. Ainsi, il est difficile de cumuler l’ensemble des caractéristiques intéressantes dans un même produit, car :

  • les teintes de couleur sont rarement neutres ;
  • leur opacité maximale n’excède pas 70 % ;
  • la rapidité à atteindre la teinte désirée n’est pas toujours suffisante ;
  • ces technologies sont souvent trop chères.

Une solution simple et efficace

Dans une publication récente, une équipe de chercheurs de l’Université Boulder du Colorado décrit une méthode de fabrication alternative. Cette nouvelle approche, basée sur le principe d’électrodéposition métallique réversible (Reversible metal electrodeposition, RME), consiste ni plus ni moins à réaliser une cellule électrochimique.

Cette cellule électrochimique est constituée de deux électrodes : l’une est un oxyde conducteur transparent (comme l’oxyde d’indium-étain, ou ITO), l’autre contient des ions métalliques. Lorsque l’on fait passer un courant électrique, la fine couche métallique qui se forme par électrodéposition bloque ainsi la lumière. En inversant la polarité, le film métallique s’oxyde et retourne sous forme d’électrolyte, laissant de nouveau à nu l’électrode transparente.

Cette étude leur a permis de mettre en évidence l’efficacité d’un électrolyte aqueux, composé d’ions ClO4- et d’atomes de Bi et Cu. Une cellule de 225 cm² est ainsi capable de supporter au moins 10 000 cycles d’allumage/extinction de manière stable, d’atteindre en 1 minute 80 % d’opacité et de revenir à un état transparent en moins de 5 secondes.

Les vitrages intelligents : un marché en devenir

Plusieurs projets en rapport avec les verres intelligents ont vu le jour ces dernières années. Apple vient par exemple de déposer un brevet concernant un système de vitre teintée intelligente pour les voitures, utilisant des cristaux liquides cholestériques.

La solution proposée par l’équipe de CU Boulder intéresse elle aussi l’industrie automobile, de même que l’industrie aéronautique, les Boeing 787 Dreamliner étant déjà équipés en vitrages électrochromes.

Enfin, comme cette technologie est plus simple à mettre en œuvre, ne nécessite pas d’outils spécifiques et admet des cadences de production élevées, elle permettra certainement de produire des vitrages électrochromes abordables dans les années à venir.

Pour en savoir plus :

https://www.colorado.edu/irt/mfm/2020/06/05/research-shows-promising-advances-lower-cost-and-durable-smart-window-technology

Electrolyte for Improved Durability of Dynamic Windows Based on Reversible Metal Electrodeposition, Hernandez et al., Joule 4, 1–13 15 juillet 2020 publié par Elsevier inc.

La taxe carbone aux frontières, vraiment efficace pour financer le plan de relance européen ?

Au matin du mardi 21 juillet dernier, l’Union européenne a annoncé la mise en place d’un vaste plan de relance. Au total, 750 milliards d’euros seront prêtés sous forme de dettes ou de subventions aux pays européens touchés par la crise sanitaire provoquée par le coronavirus. Afin de rembourser cette somme, plusieurs pistes sont envisagées par les États membres. Parmi elles, la mise en place d’une taxe carbone aux frontières. Selon Matthieu Toret, avocat spécialisé en fiscalité environnementale au sein du cabinet Enerlex, l’efficacité de cette nouvelle taxe n’est pas des plus évidentes. En cause, des raisons économiques, mais également politiques et géopolitiques.

Techniques de l’Ingénieur : Que pensez-vous de ce plan de relance ?

Matthieu Toret : C’est une nouveauté, et quelque chose d’assez important. Pour la première fois, l’Union européenne va mutualiser une partie de sa dette. Et a priori, si on lève de la dette, il va falloir lever de l’impôt. Ou il faudra a minima que l’Union européenne se dote de nouvelles ressources propres. Or, il y aura de nombreuses difficultés à dépasser.

Comment l’Union européenne prévoit-elle de financer ce plan ?

Dans son interview télévisée [au journal de 20h de TF1, le 21 juillet dernier, NDLR], Emmanuel Macron a indiqué que l’UE devrait rembourser cette dette grâce à quatre taxes européennes. Là aussi, ce serait une nouveauté si cela se concrétisait. Les deux premières taxes concerneraient les géants du numérique et les transactions financières. Une troisième porterait sur les matières plastiques et devrait entrer en vigueur dès l’année prochaine. La dernière, la taxe carbone aux frontières, est un projet de plus grande envergure. Pour l’instant, aucune date d’entrée en vigueur n’a été annoncée. À mon sens, cela s’explique par les nombreuses difficultés liées à sa mise en application.

Quelles sont ces difficultés ?

En tant qu’avocat, je pense immédiatement aux difficultés juridiques que la mise en place d’une telle taxe impliquerait. Par exemple, les règles de l’Organisation mondiale du commerce (OMC) interdisent de taxer plus fortement une marchandise étrangère qu’une marchandise nationale. Par conséquent, si un produit chinois se retrouvait subitement plus fortement taxé à l’intérieur de l’Union européenne, il faudrait obligatoirement qu’une taxation équivalente s’applique aux produits européens.

Le marché européen pourrait-il dépasser ce blocage ?

Effectivement, l’Union européenne possède une solution : le marché carbone. Par ailleurs, un prix du carbone est déjà fixé sur son territoire. Cela pourrait donc permettre aux Européens de taxer les marchandises étrangères à due concurrence de ce marché carbone, également appelé « marché ETS » (« Emissions Trading System »). Cependant, cette taxation ne s’applique pas à tout. Aujourd’hui, ce marché carbone concerne principalement l’acier, le ciment, l’électricité, et plus généralement l’industrie lourde, mais pas plus. C’est pourquoi il se dit que, dans un premier temps, cette taxe carbone aux frontières pourrait ne s’appliquer qu’aux secteurs du ciment, de l’acier, et de l’électricité.

Cette taxe carbone aux frontières suffirait-elle à rembourser le plan de relance ?

À mon sens, non. Mais en réalité, cela dépend du niveau auquel serait fixée la taxe. À titre d’indication, en Suède, la taxe carbone s’élève à 120 euros par tonne de CO2. C’est la plus élevée d’Europe. En France, la taxe carbone nationale, qui a été gelée suite au mouvement des gilets jaunes, est de 44 euros. Si on maintient ce niveau de taxation, les sommes collectées seront nettement insuffisantes pour rembourser cette nouvelle dette. Pour y remédier, il faudrait que le prix de la taxe carbone soit aligné sur celui donné par les Suédois. Notons cependant que l’Union européenne prévoit de rembourser ces 750 milliards d’euros sur trente ans.

Au-delà des questions financières, la taxe carbone aux frontières pose-t-elle d’autres difficultés ?

L’application de la taxe carbone aux frontières implique également des difficultés politiques et géopolitiques. Si on se met à taxer fortement le ciment qu’elle produit, la Chine ne serait-elle pas capable de prendre de sévères mesures de rétorsion sur les produits européens ? De plus, Emmanuel Macron a affirmé que cette nouvelle fiscalité ne pèserait pas sur les citoyens français. Mais cela ne peut pas être vrai. Il est bien évident que tous les coûts d’une chaîne sont répercutés sur le consommateur final. Mais effectivement, stricto sensu, la taxe ne sera pas directement acquittée par le consommateur final, qui devra cependant s’attendre à ce que le tarif du ciment augmente.

Selon vous, la taxe sur les matières plastiques générera-t-elle davantage de recettes ?

Non. Le réel but de cette taxe sur les plastiques est d’en réduire la consommation. Elle n’est pas censée rapporter beaucoup, ou alors elle sera un échec.

Que se passerait-il si l’Union européenne n’avait pas assez de recettes pour rembourser sa dette ?

Pour rembourser les créanciers, il faudra nécessairement créer de nouvelles ressources propres. De plus, pour obtenir ce plan de relance, la France et l’Allemagne ont dû concéder aux « Frugal Four » une baisse de leur contribution annuelle au budget de l’Europe. Ces pays (l’Autriche, le Danemark, les Pays-Bas et la Suède) sont partisans de l’austérité budgétaire. À mon sens, la tentation sera grande au niveau européen de ne rembourser que les intérêts et ainsi faire rouler la dette.

Un mois dans l’espace #7

Neowise, le tube de l’été

La comète Neowise, visible depuis l’hémisphère nord depuis quelques semaines, le sera pendant encore une bonne partie de l’été 2020. 

Il faut en profiter, car Neowise s’éloigne petit à petit de la Terre, en se dirigeant vers le nuage d’Oort. Elle repassera près du système solaire dans à peu près 6800 ans. Nul besoin de matériel sophistiqué pour observer le phénomène, une paire de jumelles suffit.
On peut aussi distinguer Neowise à l’oeil nu, aux abords de la grande casserole. Elle se dirige vers la chevelure de Bérénice et sa luminosité, qui reste forte, devrait permettre aux amateurs de l’observer aisément, notamment dans les jours qui viennent.

La Nasa a mis en place une page web pour aider les astronomes amateurs à deviner facilement cet astre dans notre ciel estival .

Thomas Pesquet de retour dans l’espace

L’astronaute Thomas Pesquet, dernier français dans l’espace, qui s’est rendu célèbre auprès des français – et de tous les amateurs d’exploration spatiale – en partageant son aventure spatiale à bord de l’ISS sur les réseaux sociaux, va retourner dans l’espace.

Il sera également le premier européen à quitter la Terre à bord du vaisseau Crew Dragon de Space X, qui le mènera jusqu’à la station spatiale internationale, le tout au printemps prochain.

La mission, Alpha, permettra au français de poursuivre une partie du travail commencé lors de sa première mission il y a trois ans, et de faire profiter à tous ceux qui restent sur Terre, via les réseaux sociaux, des vues magnifiques que l’ISS offre, notamment de la Terre.

Un nouveau robot en route pour Mars

Perseverance. C’est le nom du robot envoyé en direction de Mars le 30 juillet 2020 par la Nasa. Mais il ne sera pas seul, puisque un mini-hélicoptère, Ingenuity, l’accompagnera sur la planète rouge. Ces deux engins développés par la Nasa sont deux bijoux de technologies.Mis en orbite à l’aide d’un lanceur Atlas 5, le robot Perseverance se posera sur Mars le 18 février 2021, si la mission se déroule selon les prévisions. Plus précisément, Perseverance et Ingenuity devraient toucher le sol martien au niveau du cratère de Jezero, qui a abrité jadis un lac permanent.

Le but ? Déceler d’éventuelles traces de vie primitive, mais aussi collecter des échantillons ayant vocation à revenir sur Terre : il s’agira alors d’une autre mission, « Mars Sample Return« , qui sera mise en route à l’horizon 2030.

Vous pouvez revivre le lancement dans les conditions du direct (et en français) ci-dessous :

Découvrez également en vidéo les tests menés en laboratoire sur le robot Perseverance avant son lancement :

La Chine aussi s’intéresse à la planète rouge

Le jeudi 23 juillet, la Chine a lancé en direction de Mars une sonde qui devrait envoyer les premières données qu’elle récoltera en 2021.

Cet envoi, réalisé via la fusée Longue-Marche 5, la plus puissante dans l’arsenal spatial chinois, a précédé d’une semaine l’envoi de Perseverance, un robot américain qui foulera le sol martien en février 2021 et que nous avons évoqué plus haut. Le contexte diplomatique tendu entre les Etats-Unis et la Chine se matérialise donc aujourd’hui dans l’espace. Selon les autorité chinoises, la mission débutée le 23 juillet devrait permettre au pays de combler son retard en ce qui concerne la connaissance de la planète rouge, en plaçant une sonde en orbite et en posant un atterrisseur sur le sol martien. De leur côté, les Etats-Unis, à travers le développement du robot Perseverance qui cherchera des traces de vie primitive sur Mars, estiment garder une longueur d’avance sur le grand rival chinois.

Pour revivre le décollage de la Longue-Marche 5 et en savoir plus sur les ambitions martiennes de la Chine :

Par Pierre Thouverez

Google met à disposition un scanner de vulnérabilités

« En 2018, le nombre de vulnérabilités logicielles a dépassé celui de l’année précédente, avec une augmentation de 12 % du nombre total de vulnérabilités publiées en 2017 », lit-on dans le rapport de Skybox Security, leader mondial en matière d’opérations, d’analyse et de reporting dans le domaine de la cybersécurité.

De son côté, l’étude « 2020 Global Network Insights Report » de NTT constate une augmentation du nombre de vulnérabilités par catégorie d’équipements d’infrastructure de réseau. Mais les organisations n’appliquent pas régulièrement de correctifs aux systèmes. Très peu d’entreprises ont une gestion claire et précise des patchs de sécurité.

À leur décharge, il faut reconnaître que le déploiement de correctifs de sécurité relève du parcours du combattant pour les entreprises, car leur réseau informatique s’apparente à un millefeuille avec de multiples couches différentes.

Or, lorsqu’un pirate commence à exploiter les vulnérabilités de sécurité ou les mauvaises configurations de sécurité (telles que des mots de passe faibles), une organisation doit réagir rapidement afin de protéger les actifs potentiellement vulnérables.

Les attaquants investissant de plus en plus dans l’automatisation, le délai de réaction à une nouvelle vulnérabilité (surtout si elle est jugée comme « critique ») est généralement mesuré en heures. Cela représente un défi important pour les grandes organisations qui possèdent des milliers, voire des millions de systèmes connectés à Internet.

Dans de tels environnements à grande échelle, les vulnérabilités de sécurité doivent être détectées et, idéalement, corrigées de manière entièrement automatisée. Une gageure pour les grands comptes. D’où l’idée de Google de proposer un scanner de vulnérabilités spécialement conçu pour ce type d’entreprises.

Baptisé Tsunami, le scanner a été utilisé en interne chez Google et a été mis à disposition sur GitHub en juin. À la différence des autres solutions proposées par le moteur de recherche, Tsunami sera entretenu par la communauté des logiciels libres.

Autre particularité, Tsunami est capable d’analyser des réseaux extrêmement divers et très étendus, sans qu’il soit nécessaire de faire fonctionner des scanners différents pour chaque type d’appareil.

Sur son blog, Google a expliqué que Tsunami exécute un processus en deux étapes lorsqu’il scanne un système. La première est la reconnaissance : Tsunami scanne le réseau d’une entreprise à la recherche de ports (ou connexions) ouverts. Ensuite, il teste chaque port et tente d’identifier les protocoles et les services qui y sont exécutés afin d’éviter les erreurs d’étiquetage des ports et de tester les dispositifs pour détecter les vulnérabilités.

À partir des résultats du premier processus, l’étape suivante va vérifier s’il s’agit bien d’une vulnérabilité. Le logiciel utilise les informations recueillies lors de la reconnaissance pour confirmer qu’une faille existe bel et bien. Pour ce faire, le scanner exécute des tentatives d’infiltrations afin de confirmer que le système est bien vulnérable.

La précision du balayage sera l’objectif principal, le projet s’efforçant de fournir des résultats avec le moins de faux positifs possible (détections incorrectes). Cet objectif sera primordial, car même des petits faux positifs pourraient entraîner l’envoi de patchs incorrects à des centaines ou des milliers d’appareils, ce qui pourrait provoquer des pannes d’appareils ou des pannes de réseau.

TOP 5 : les articles les plus lus en #Juillet2020

1. A la chasse aux failles informatiques : le bug bounty expliqué

Trouver des failles de sécurité en échange de rémunération, c’est le principe du bug bounty. Cette pratique qui s’est démocratisée au fil des années permet aux entreprises de faire tester leurs systèmes par une grande communauté de chercheurs.

2. Baisser la consommation d’énergie grâce aux dernières connaissances de la tribologie 

L’étude des frottements entre deux matériaux s’appelle la tribologie. Cette science permet de réduire la consommation d’énergie de nombreux équipements. Yan-Ming Chen, expert référent tribologie au Cetim, nous dévoile les dernières avancées technologiques dans ce domaine.

3. Un nouveau catalyseur en graphène pour la production d’hydrogène

Les piles à combustible pour la production d’hydrogène ne cessent de s’améliorer. Une équipe internationale de chercheurs a développé un nouveau catalyseur à base de graphène et de nanotubes de carbone, beaucoup plus économique que les catalyseurs traditionnels.

4. Conquête spatiale : futurs matériaux pour enjeux nouveaux 

Le 30 mai 2020, la société privée SpaceX lançait son premier vol habité dans l’espace, marquant une ère nouvelle pour l’industrie aérospatiale, avec de nouveaux enjeux. Retour durable sur la lune, exploration spatiale, conquête de Mars, la réussite de ces objectifs ambitieux nécessite le développement de nouveaux matériaux, en particulier les textiles pour scaphandres.

5. Le seuil d’indécence énergétique bientôt défini par décret 

À partir de 2023, tout nouveau contrat de location d’un logement consommant plus de 500 kilowattheures d’énergie primaire par mètre carré et par an sera interdit, selon un projet de décret soumis à consultation publique jusqu’au 31 juillet.

A retenir :

[Webinar en replay] Airbus Helicopters : une solution de veille digitale au service des opérations commerciales

Depuis ses débuts et par nature, l’histoire de l’aviation émaille d’une quête perpétuelle de savoirs et de connaissances. Celles qui ont trait à la compétition et au marché n’échappent certainement pas à cette règle. En cette période de crise et ces temps incertains, chaque information compte. Comment Airbus Helicopters mise sur une solution de veille digitale pour relever ses défis ?

[Livre Blanc] L’actu scientifique en dessins

Chaque mois, le dessinateur Hubert Blatz croque l’actualité… Depuis 2014, chaque dessin a été compilé dans ce Livre Blanc. Une bonne manière de revisiter avec humour l’actualité scientifique de ces dernières années.

Le génome du SARS-CoV-2 analysé grâce à un logiciel étudiant

Profiter de la crise sanitaire pour travailler sur le virus qui en est la cause, c’est ce qu’ont fait Xavier Pilastre et Guillaume Langlois, deux étudiants en Technologie de l’Information pour la Santé (TIS) à Polytech Grenoble. Privés de stage de fin de quatrième année, ces jeunes hommes ont mis au point un logiciel capable d’analyser le génome d’un virus, et de le comparer à d’autres. Selon eux, l’avantage notoire de leur solution réside dans sa rapidité et dans sa simplicité d’exécution. Pour mener à bien leurs travaux, ils ont été encadrés par Matthieu Reichstadt, ingénieur informatique à l’INRAE de Clermont-Ferrand.

Techniques de l’Ingénieur : Pouvez-vous nous présenter le logiciel que vous avez créé ?

Crédit photo : X. Pilastre

Xavier Pilastre : Nous avons mis au point un logiciel capable d’analyser et de comparer rapidement les génomes de virus, ou de tout autre type de matériel génétique d’être vivant. Cet outil nous permet d’effectuer des analyses en nous focalisant uniquement sur les données que nous estimons intéressantes pour une recherche. Aujourd’hui, le vrai problème en bio-informatique réside dans la capacité de traitement des données. Énormément de données sont générées chaque jour. Quotidiennement, nous ne pouvons traiter que la moitié de ces données. Grâce à notre outil, nous pouvons traiter plus de données dans une temporalité plus courte.

Crédit photo : G. Langlois

Guillaume Langlois : Ce travail permet d’optimiser les analyses de génomes des virus, ce qui prend généralement beaucoup de temps. Dans le cadre d’autres travaux, les informations obtenues grâce à ce logiciel pourraient nous aider à savoir s’il est pertinent de continuer la comparaison génomique des organismes analysés ou non. Notons tout de même que ce logiciel a été réalisé dans le cadre d’un projet étudiant, et qu’il serait nécessaire de le parfaire avant de l’utiliser à des fins professionnelles.

Quel était l’état des données sur la Covid-19 au moment où vous avez commencé vos travaux ?

X.P. : Fin avril, sur la base de données américaine GenBank, gérée par le National Institutes of Health et qui fait office de référence mondiale, il y avait une cinquantaine de pages de génomes pour le SARS-CoV-2.

G.L. : Cela veut dire qu’à cette date, plus de 2 000 séquençages de génomes du virus SARS-CoV-2 avaient été réalisés dans le monde.

Concrètement, comment fonctionne votre logiciel ?

X.P. : Nous avons voulu comparer le SARS-CoV-2 à d’autres virus, qui ont également un effet pandémique ou saisonnier. Nous l’avons donc comparé au VIH, à la grippe espagnole, la grippe A H1N1 et le rhume. Ces cinq virus ont des caractéristiques à la fois très propres et très proches. Pour cela, nous nous sommes servis d’un algorithme connu, le BLAST (Basic Local Alignment Search Tool). Il est issu des bases de données américaines du NCBI (National Center for Biotechnology Information) qui font office de référence dans les bases de données contenant des génomes. À la différence d’autres solutions, notre logiciel ne nécessite pas le recours à de puissants serveurs pour fonctionner. De plus, nous n’avons besoin que d’une vingtaine de minutes pour accéder à des résultats qui nous intéressent, contre plusieurs heures avec d’autres outils.

Sur quelle(s) composante(s) des virus avez-vous travaillé ?

G.L. : Nous avons travaillé sur l’ADN, et plus particulièrement sur les CDS (Coding DNA Sequences, ou séquence codante). Les CDS sont les parties qui vont permettre la création de protéines. Nous avons donc comparé les séquences codantes de ces différents virus, par alignement et décalage. Notons que chaque virus possède plusieurs CDS, et produit plusieurs types de protéines. Ce travail nous a permis d’établir un pourcentage de similitudes entre des CDS. En clair, nous avons cherché à savoir si les séquences codantes des virus correspondent les unes avec les autres. Cela permet éventuellement de voir s’il y a des souches communes à plusieurs virus.

Qu’avez-vous découvert au sujet du coronavirus ?

X.P. : La majeure partie des virus que nous avons analysés n’a qu’une seule grande séquence codante. Le coronavirus, lui, a une douzaine de CDS. C’est quelque chose d’assez peu commun, sans pour autant savoir à quel point un tel phénomène est rare ou non. En ce sens, ce virus est relativement inédit. De plus, ce virus n’a que peu de similitudes avec les quatre auxquels nous l’avons comparé. Au maximum, nous avons trouvé 38 % de similitudes avec le virus le plus ressemblant, ce qui est très peu.

G.L. : Il est nécessaire d’appréhender ces informations avec prudence. Il ne faut pas conclure uniquement à partir de ces données que ce virus est plus dangereux ou plus meurtrier que d’autres. Cette information seule ne peut permettre d’aboutir à ce type de conclusions.

Avez-vous obtenu des informations au sujet de la capacité de mutation du coronavirus ?

G.L. : En comparant les données collectées en France et aux États-Unis, il nous est apparu que le SARS-CoV 2 semble être un virus à la mutation lente.

X.P. : Il y a des virus qui mutent très rapidement, parfois même en quelques jours. Or, nous avons constaté qu’en trois semaines, le coronavirus n’avait pas muté.

Au-delà de la connaissance des génomes, quels pourraient être les intérêts de vos travaux ?

G.L. : Cette méthode pourrait contribuer à la recherche de médicaments. En effet, si un traitement est reconnu comme étant efficace pour lutter contre une protéine commune à deux virus, il se peut qu’il puisse être utilisé pour les différentes pathologies qu’ils provoquent. Si on connaît un moyen qui fonctionne pour l’un, peut-être qu’il fonctionnera pour l’autre.

X.P. : Les informations sur l’ADN des virus peuvent également servir à la recherche de vaccins. La comparaison des CDS pourrait permettre d’identifier et de supprimer les protéines essentielles au fonctionnement d’un virus. Or, un virus inactif ou mort peut être utilisé pour faire un vaccin. Si on arrive à supprimer la capacité active en sachant où il faut aller dans le virus, grâce à des technologies comme CRISPR-Cas9, on pourrait effectivement aboutir plus rapidement à un vaccin. C’est pourquoi une analyse préalable rapide est intéressante.

Copernicus : deux nouveaux services pour évaluer l’agroécologie en Europe

Prochainement, la Commission européenne étendra sa capacité d’observation des terres agricoles, en vue du développement de modèles agroécologiques. À partir de la fin de l’année 2020, l’offre de service de Copernicus à destination des parcelles cultivées va s’intensifier. Deux nouveaux services, Phenology HR et Cropland HR, vont permettre l’accès à de nouvelles données relatives au monitoring des pratiques agroécologiques. Ils s’inscrivent dans le cadre du programme européen d’observation de la Terre par satellite, Copernicus. Les données collectées depuis 2014 par les satellites Sentinels servent notamment à appliquer les mesures de la Politique agricole commune (PAC).

Ces nouveaux outils permettront d’obtenir une grande résolution de cartographie, allant jusqu’à dix mètres. Selon Éric Ceschia, directeur de recherche à l’INRA et membre du Centre d’Etudes Spatiales de la Biosphère (CESBIO), Phenology HR et Cropland HR « fourniront des informations précieuses permettant de réaliser des diagnostics environnementaux à la parcelle ». En d’autres termes, ces fonctionnalités serviront à établir le suivi des pratiques favorisant le développement de l’agroécologie. Éric Ceschia rappelle tout de même que les agriculteurs devront continuer à réaliser certains relevés. En effet, les informations qu’ils fourniront au sujet de leurs utilisations d’engrais et de produits phytosanitaires contribueront à évaluer la performance environnementale des exploitations.

« Une cartographie des cultures à l’échelle de l’Europe »

Du fait de la crise sanitaire liée à l’épidémie de Covid-19, le lancement de Phenology HR a pris du retard. Ainsi, dès décembre 2020, soit trois mois après la date initialement annoncée, le service permettra de recueillir plusieurs informations topographiques sur les parcelles agricoles, relatives à leur fertilité. Elles concerneront les dates de cultures et leur intensité de développement. D’autres relevés seront effectués au sujet du taux de couverture de sols par la végétation, et au nombre de mètres carrés de feuilles par rapport aux mètres carrés au sol. « Cet outil servira également à évaluer le bilan carbone des exploitations », ajoute Éric Ceschia.

Le développement du service Cropland HR représente la deuxième phase de développement de l’observation des pratiques agricoles. Annoncé pour 2021, son déploiement pourrait également être retardé. « Cropland HR va fournir une cartographie des cultures à l’échelle de l’Europe de manière opérationnelle, explique Éric Ceschia. On ne va pas cartographier toute la diversité des cultures. Une vingtaine de classes de cultures parmi les plus courantes vont être représentées ». Ces observations porteront essentiellement sur les champs de maïs, de céréales à paille, de colza, de tournesol, de blé, d’orge. Les informations collectées seront compilées dans des cartes accessibles gratuitement. « D’autres cartes répertorieront les différentes pratiques agricoles : récoltes, dates de récolte, cultures intermédiaires, dates de fauche des prairies », souligne Éric Ceschia.

Une modernisation de la PAC crainte par les ministères

L’Institut national de la Recherche agronomique (INRAE) avait été mandaté pour définir une liste d’indicateurs agro-environnementaux. « Trois de ces indicateurs environnementaux ont été identifiés comme étant prioritaires : le bilan carbone, la biodiversité et le risque de lessivage de nitrates », déclare Éric Ceschia. Les deux nouveaux outils d’observation Phenology HR et Cropland HR permettront de favoriser le suivi de ces indicateurs, dans le cadre du projet NIVA.  « On peut imaginer que l’on aura dans quelques années des productions d’indicateurs environnementaux sur l’Europe qui permettront de faire une évaluation environnementale des exploitations agricoles. Cela servira à flécher, à orienter, à dimensionner les paiements du second pilier de la PAC », précise le chercheur.

Éric Ceschia imagine que l’évaluation de chaque indicateur pourrait aboutir à une note attribuée aux pratiques mises en œuvre sur une exploitation. Ce dernier imagine même que le versement de certaines aides de la PAC puisse être conditionné par ce score. Aujourd’hui, la Commission européenne semble favorable à la mise en place d’un tel système. En revanche, les ministères de l’Agriculture des États membres sont bien plus réticents. « Il y a une crainte de basculer dans un système où les contributions des États pour la PAC dépendraient de l’efficacité des pratiques », explique Éric Ceschia. « Aujourd’hui, les aides versées aux agriculteurs sont basées sur les efforts mis en œuvre. Demain, elles pourraient dépendre d’indicateurs de performance environnementale », avertit-il.

Le récap’ insolite du mois #5

Un gant connecté qui permet de traduire la langue des signes

Grâce à la technologie, l’apprentissage du langage des signes est facilité. Des chercheurs de l’Université de Californie à Los Angeles (UCLA) ont réussi à développer un gant intelligent capable de traduire en temps réel la langue des signes en mots écrits et parlés sur un smartphone.
Le concept est simple : les gants embarquent divers capteurs disséminés sur toute la longueur des doigts. Lorsque les doigts bougent, les capteurs détectent les mouvements effectués pour reconstituer le signe en question et traduire ensuite l’ensemble de l’expression en anglais. Ce n’est pas la première fois qu’un outil de traduction voit le jour, mais ce qui change c’est le prix du dispositif relativement abordable puisqu’il ne coûte que 50 dollars. Les scientifiques poursuivent encore le développement de ce prototype qui doit encore perfectionner sa compréhension des signes.

Un robot capable de vous couper les cheveux aux ciseaux

Sur sa chaîne Youtube Stuff Made Here, Shane Wighton s’est inspiré du confinement pour créer un robot coiffeur. Cet ingénieur américain travaille chez Formlabs, une entreprise spécialisée dans les imprimantes 3D. Pour éviter de se rendre chez le coiffeur pendant la pandémie, il s’est lancé le défi de créer un robot capable de lui couper les cheveux en n’utilisant que des ciseaux plutôt qu’une tondeuse.
Dans la vidéo, le robot utilise deux doigts pour séparer les mèches, munies de capteurs de pression pour pouvoir déterminer précisément la position de la tête afin de couper à la bonne longueur. Le mécanisme pivote tout autour de la tête, avec un bras articulé capable de couper selon différents angles. Pour définir les différents paramètres de la coupe, comme la longueur, il utilise un logiciel de modélisation 3D.
Si vous n’avez pas les moyens de construire votre propre robot, il est conseillé de rendre visite à votre coiffeur humain.

Des couverts comestibles et biodégradables

Chez Switch Eat tout se mange, même la vaisselle.  En effet,  pour réduire notre impact environnemental, l’entreprise a décidé de commercialiser une alternative comestible et écologique grâce à des objets plastiques à usage unique : paille, cuillère, barquette, bol et coupelle. L’objectif est de rassembler l’ensemble de la vaisselle comestible dans des packs éco-responsables.
Pour être à la hauteur de ce concept insolite, l’entreprise mêle recherche, innovation et saveurs puisqu’ils proposent des saveurs sucrées, salées ; des produits sans gluten, sans OGM et sans conservateur.

La qualité des données et le manque de profils : les principaux défis des entreprises

Un récent rapport d’International Data Corporation (IDC), groupe de conseil et d’études sur les marchés des technologies de l’information, démontre que l’adoption de l’intelligence artificielle se développe dans le monde entier. Plus d’un quart de toutes les initiatives d’IA sont déjà en production et plus d’un tiers sont à un stade de développement avancé. Et les organisations font état d’une augmentation de leurs dépenses en la matière.

L’écart risque donc de se creuser entre les entreprises qui s’appuient sur des solutions à base d’IA et les retardataires comme le signale une étude mondiale du cabinet d’analystes McKinsey.

Le buzz word autour de l’IA s’étant estompé, les entreprises franchissent une nouvelle étape en déployant des solutions métier. « Les entreprises ont acquis plus d’expériences sur ce qui marche et sur ce qui ne fonctionne pas. Il ne s’agit plus d’utiliser de la techno pour faire de la techno. Elles priorisent leurs objectifs en matière de déploiement, car il y a pléthore de technologies : la blockchain, la mobilité, la réalité virtuelle, l’IA… Les organisations ne peuvent pas tout mener de front ; elles doivent faire des choix liés à leur activité », explique Olivier Ezratty.

Beaucoup de progrès à faire

Spécialisé dans les technologies numériques, ce consultant rappelle que le niveau de maturité n’est pas similaire selon les technologies à base d’IA. « Il faut faire la différence entre le traitement de données (qui progresse de façon logique), le traitement d’images (il y a une rupture technologique datant de 2012 qui a permis de démocratiser les outils et les usages comme l’imagerie médicale) et le traitement du langage dans l’IA. Ce dernier est celui qui a la capacité de concerner le plus de monde et de métiers, mais les applications de traductions ou d’analyse de texte ont encore beaucoup de progrès à faire », constate Olivier Ezratty.

Outre les limites de l’IA qui n’est pas une solution miracle capable de tout prévoir et organiser, l’intégration de systèmes d’IA dans les entreprises pose plusieurs challenges selon le Cigref (réseau de grandes entreprises et d’administrations publiques) dans un rapport de 2018 :

  • coordonner et structurer les initiatives autour de l’IA, pour les développer, leur donner davantage de visibilité et en augmenter la valeur (avec notamment une « fertilisation croisée » des projets) ;
  • prendre en compte le besoin de réconcilier les cultures métiers ;
  • sensibiliser les équipes et directions aux enjeux et possibilités réelles de l’IA. La compréhension des grandes familles de pièges de l’IA (dérive, biais, surapprentissage) est essentielle pour les métiers. Cette acculturation de l’entreprise pourra aider à démystifier l’IA et à en faciliter l’appropriation.

Des résultats erronés

Mais le principal défi reste la qualité de la donnée. Les grandes entreprises qui ont beaucoup de données sont, a priori, privilégiées pour l’IA, mais leurs bases ne sont pas toujours exploitables par les algorithmes, car les données sont plus ou moins « propres ».

« Concernant la donnée, il y a deux niveaux de qualité à gérer. Premièrement, il faut des données propres et labellisées. C’est un principe de base, mais ce n’est pas suffisant pour faire du machine learning de qualité. Il faut s’appuyer sur une base de données qui représente bien l’espace du “possible” d’un point de vue probabiliste. Si ce n’est pas le cas, l’algorithme donnera de mauvais résultats comme nous l’avons vu récemment avec un algorithme visant à « déflouter » les images. Développée par des chercheurs de la Duke University, cette solution est affectée de biais discriminatoires et racistes, car sa base de données n’intégrait pas assez la diversité de la population », insiste Olivier Ezratty.

Selon Gartner Research, entreprise américaine de conseil et de recherche en informatique et nouvelles technologies, d’ici 2022, 85 % des projets d’IA produiront des résultats erronés en raison du biais dans les données, les algorithmes ou par manque de compétences en interne… « Il y a une pénurie générale de profils dans l’IA, que ce soit au niveau du développement, de la donnée ou du cloud », constate Olivier Ezratty.

La recherche de talents et la formation dans les domaines liés à l’IA deviennent donc des enjeux urgents pour l’entreprise. L’embauche de ces spécialistes a fait un bond de 74 % au cours des quatre dernières années, selon Linkedin.

À l’opposé, l’intégration de solutions d’IA fait craindre des pertes d’emplois. « L’IA pourrait impacter les métiers où l’on peut automatiser des processus (notamment dans la banque et l’assurance) avec la RPA (Robotic Process Automation). Mais on a peur de l’IA alors que l’on n’a pas eu peur de la PAO ou des tableurs. Quand ces derniers sont apparus, tout le monde n’a pas crié sur les toits à la disparition des experts-comptables. Ils ont au contraire démocratisé l’accès aux traitements de données », rappelle Olivier Ezratty.

IA : un outil de prédiction pour la transition écologique

Extrait de l’article Intelligence artificielle dans le cadre de la transformation numérique de Moamar SAYED MOUCHAWEH

La transformation numérique dans le contexte de la transition énergétique fait face à plusieurs défis. Premièrement, le remplacement des centrales à combustibles fossiles par des ressources énergétiques renouvelables augmente considérablement l’incertitude et la complexité d’assurer la stabilité du réseau et la gestion efficace de l’énergie. Cela est dû à la forte dépendance entre production d’énergie renouvelable et conditions météorologiques.

En outre, la gestion permettant de réduire la consommation d’énergie, le prix de l’énergie ou la congestion du réseau, doit être effectuée en ligne en traitant d’énormes volumes de données séquentielles concernant la consommation d’énergie agrégée, les prix de l’énergie en ligne, les paramètres contextuels et physiques et les données météorologiques. De plus, cette gestion de l’énergie doit tenir compte des événements futurs qui peuvent survenir dans le réseau intelligent, tels que l’ajout de nouveaux bâtiments, l’utilisation de nouvelles technologies, etc.

Enfin, les risques de sécurité et de confidentialité doivent être pris en compte du fait de la connectivité croissante et des échanges de données entre les utilisateurs (les consommateurs devenant également producteurs, appelés prosommateurs) et les autres acteurs du réseau électrique (services publics, opérateurs, prestataires de services, etc.). Les différentes techniques et méthodes basées sur l’IA utilisées pour relever ces défis sont présentées ici selon trois critères : leur objectif (sortie), le mode d’apprentissage qu’ils ont utilisé pour fournir cet objectif (sortie) et leur domaine d’application.

Outil de prédiction

Dans le domaine de la transition énergétique, les méthodes basées sur l’IA sont principalement utilisées pour prédire la consommation ou la demande d’énergie électrique, l’énergie produite par une ressource d’énergie renouvelable comme des éoliennes ou des panneaux photovoltaïques, et l’état de santé d’un composant ou d’une machine tel que des isolateurs, des transformateurs, un générateur ou des lignes de transport.

La prévision dans le domaine de la transition énergétique est difficile en raison des fluctuations de la demande et de la production dues à la variabilité des conditions météorologiques, des caractéristiques du bâtiment et des propriétés thermiques des matériaux physiques utilisés, des appareils (comme le système de chauffage, ventilation et climatisation), leur vieillissement, le comportement des utilisateurs, etc.

Cette prédiction devient plus difficile lorsque l’horizon temporel est à long terme et que la résolution est plus élevée. Par conséquent, les méthodes basées sur l’IA utilisées pour la prédiction dans le domaine de la transition énergétique diffèrent selon leur précision de prédiction ainsi que l’horizon temporel et la résolution employés pour effectuer la prédiction. La précision peut être évaluée en utilisant principalement deux critères : l’erreur quadratique moyenne (EQM) et le coefficient de corrélation de Pearson (PCC). L’EQM indique la différence entre les valeurs réelles et prédites pendant une fenêtre temporelle tandis que le PCC indique le degré de dépendance linéaire entre les valeurs réelles et prédites pendant une fenêtre temporelle.

 

Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 12 août !

Intelligence artificielle dans le cadre de la transformation numérique un article de Moamar SAYED MOUCHAWEH

L’IA au service des entreprises et de leurs clients

« L’IA est le moteur de la voiture, c’est une pièce essentielle pour la propulser vers l’excellence. Mais le carburant de ce véhicule serait représenté par la donnée collectée par l’entreprise » : avec Christopher Wiltberger, la compréhension des enjeux liés à cet univers complexe devient plus claire. Les relations avec la clientèle et le high tech n’ont pas de secret pour cet expert qui a passé l’essentiel de sa vie professionnelle au sein de sociétés technologiques américaines, toujours à des fonctions en relation avec les ventes. Il a rejoint Freshworks, une licorne [start-up valorisée à plus de 1 milliard de dollars, NDLR] indienne spécialisée dans l’engagement client avec différentes solutions en mode SaaS (Software as a service), début 2019 pour accélérer le développement en France et en Europe du Sud.

Techniques de l’Ingénieur : Pour les retailers notamment, les objectifs de l’IA semblent pragmatiques : prédire les comportements, segmenter pour personnaliser les messages aux clients et prospects, modéliser le comportement d’achat et, gérer la base de données clients. Peut-on détailler chacun de ces objectifs ?

Christopher Wiltberger, Directeur Général pour l’Europe du Sud de Freshworks

Christopher Wiltberger : Avant de détailler chacun de ces objectifs, il nous semble essentiel de rappeler que sans data, l’intelligence artificielle ne pourra pas apporter de véritable enseignement ni d’amélioration à vos opérations. Pour mettre en place l’IA dans votre entreprise, il est essentiel de commencer par vous assurer que vous êtes capables de capter, stocker et analyser les données de votre activité.

Pour rentrer dans le vif du sujet, vous avez listé les 4 objectifs principaux de l’IA pour le retail :

  • Gérer la base de données clients : il est impossible de mettre en place une IA qui interagit directement avec les clients sans au préalable la mettre en application en interne pour analyser la base clients. Une Intelligence artificielle correctement mise en place sera en mesure de recommander des actions aux agents de support lorsqu’ils résolvent les problèmes des clients et permettra d’identifier des schémas et des groupes parmi leurs clients.
  • Prédire les comportements : une fois la captation de la donnée mise en place à tous les niveaux du parcours client, l’IA est capable de recouper les informations des clients pour prédire leur comportement, avec une probabilité augmentant avec la masse de données recueillies. Cela est possible en rapprochant le comportement des clients à celui d’un groupe ayant des comportements d’achat similaires.
  • Segmenter pour personnaliser le message aux clients et prospects : une nouvelle fois, il est essentiel de capter assez de données pour pouvoir personnaliser les messages. Une fois des « groupes » d’utilisateurs constitués, les retailers peuvent leur adresser des messages personnalisés. Il ne faut pas oublier de continuellement tester différents messages sur des audiences similaires tout en mesurant les résultats de chacun. Ceci permettra d’affiner les groupes et de distribuer le bon message à chaque client.
  • Modéliser le comportement d’achat : c’est assez similaire au deuxième point évoqué. Il s’agit de trouver des schémas parmi les groupes de clients afin d’identifier une suite d’action qui mène fréquemment à l’achat. Les retailers peuvent ainsi s’efforcer à rendre ces parcours plus accessibles afin de maximiser leurs ventes.

Dans la réalité, l’IA est-elle efficace ?

L’efficacité de l’IA ne fait aucun doute. Toutefois, les entreprises doivent se donner les moyens d’y parvenir tant d’un point de vue structurel que technologique.

Intégrer l’IA au sein d’une entreprise demande un travail préparatoire important qui repose essentiellement sur la donnée. Si celle-ci est incorrecte ou incomplète, toute l’analyse qui en découle sera erronée. Il est donc primordial que la donnée de départ soit complète et structurée et les algorithmes performants pour les analyser. De plus, l’automatisation des process est indispensable pour intégrer l’IA à l’échelle de l’entreprise.

Enfin, une équipe formée à la culture des données et en lien avec les métiers doit être capable de manier la donnée pour interpréter les résultats. C’est uniquement en alignant tous ces paramètres que l’IA sera un franc succès pour les entreprises.

Quels sont les défis à relever pour que l’expérience client profite pleinement de l’IA ?

Comme je l’ai évoqué plus tôt, une bonne captation de la donnée est une dimension essentielle au succès de l’implémentation de l’IA. Il faut imaginer l’expérience client comme une voiture : l’IA est le moteur de la voiture, c’est une pièce essentielle pour la propulser vers l’excellence.

Mais le carburant (essence ou l’électricité !) de ce véhicule serait représenté par la donnée collectée par l’entreprise. Sans données, l’IA est absolument inutile, tournera à vide, et finira même par endommager l’expérience client. Une fois l’essence dans le moteur, en revanche, les entreprises se trouvent propulsées vers une expérience client de classe mondiale.

De plus, on réduit trop souvent l’IA aux simples chatbots. Bien qu’ils représentent une application très intéressante de cette technologie, il ne faut surtout pas se restreindre à cela. C’est une étape dans l’implémentation de l’IA, mais pas la pierre angulaire. L’IA va bien au-delà d’une simple application conversationnelle.

Enfin, il ne faut surtout pas oublier que l’amélioration du parcours client est bien influencée par les décisions prises aussi bien en interne qu’en externe. Il est crucial de ne pas restreindre l’utilisation de l’IA a un rôle simplement de « customer facing », le personnel en contact avec la clientèle joue bien entendu un rôle essentiel dans l’expérience client ; mais ils ne sont pas les seuls en contact direct avec les clients.

Il est nécessaire de prévoir d’utiliser l’IA pour les agents de support, notamment via la suggestion de réponse type. Grâce à celle-ci, ils seront en mesure de mieux conseiller les clients, et d’éviter une accumulation de tâches répétitives pour se concentrer sur la résolution de problèmes à vraie valeur ajoutée. Ceci leur permettra également de trouver un plus grand intérêt dans leur travail, et comme nous le disons souvent chez Freshworks : « Happy employees = Happy customers ».

Toutes les entreprises, même des TPE, peuvent-elles tirer profit de l’IA pour mieux satisfaire leurs clients ?

L’IA n’est plus réservée aux grandes entreprises. Néanmoins, le challenge le plus important pour les petites entreprises reste celui de la donnée et plus précisément celui de la captation de données suffisamment importantes pour mettre en place l’IA de manière efficace.

Chez Freshworks, tous nos produits sont enrichis avec une intelligence artificielle nommée Freddy qui est accessible à tous en option. Freddy appuie les équipes de vente, de support client et de marketing des entreprises de toute taille afin de résoudre les problématiques clients de manière plus efficace et plus efficiente sur l’ensemble des canaux.

Que pensez-vous du Magazine d’Actualité de Techniques de l’Ingénieur ?

Dans son Magazine d’Actualité, Techniques de l’Ingénieur relaye et analyse les actualités scientifiques. De la découverte en laboratoire à l’innovation industrielle, en passant par l’actualité des entreprises et des filières, le Magazine d’Actualité scrute les tendances au jour le jour et prend part aux grands débats scientifiques qui construisent le monde de demain.

Donnez-nous votre avis !

Afin de perfectionner le Magazine d’Actualité, venez nous aider à mener une réflexion sur notre offre afin de mieux l’adapter à vos attentes en répondant à ces quelques questions. L’occasion de nous partager également tout ce que vous aimeriez trouver sur notre page d’actu.