Environ 140 000 personnes sont victimes d’un AVC (Accident vasculaire cérébral) chaque année en France. Leur chance de guérison repose en grande partie sur la rapidité du diagnostic. Il existe deux types d’AVC, chacun demandant un traitement très différent. L’un, appelé ischémique, s’explique par un vaisseau cérébral obstrué tandis que l’autre est au contraire hémorragique. Des techniques d’imagerie très performantes comme l’IRM ou la tomographie par rayons X sont actuellement utilisées pour différencier ces deux AVC. Sauf que ces appareils sont lourds, coûteux, et ne sont pas présents dans les services d’urgence. L’échographie n’est pour l’instant pas en mesure d’observer l’activité cérébrale car la paroi crânienne rend difficile la propagation des ondes ultrasonores dans le cerveau. Un projet nommé Attract-EchoBrain et financé par la Commission européenne a réussi à franchir cet obstacle. Ce travail de recherche pourrait à terme ouvrir la voie à de nouveaux appareils embarqués dans les ambulances.
À l’origine de ce résultat, des travaux réalisés au CEA-List sur le contrôle non destructif à l’aide d’ultrasons. L’institut a en effet développé des outils de simulation et d’imagerie pour détecter des défauts dans des pièces industrielles destinées à l’industrie nucléaire et aéronautique. Installé sur le site hospitalier d’Orsay, le laboratoire d’imagerie biomédicale multimodale Paris-Saclay (BioMaps), lui a fait part de son intérêt pour cette technologie qui pourrait améliorer l’échographie transcrânienne.
Echographie transcrânienne – Crédit photo : CEA
Les ondes sonores se propagent difficilement
La technique de l’échographie médicale est aujourd’hui bien maîtrisée, mais efficace uniquement sur des tissus mous. « Dès qu’il y a un obstacle dur, notamment des os, les ultrasons ont des difficultés à se propager, analyse Sylvain Chatillon, ingénieur-chercheur au CEA-List. C’est particulièrement le cas lorsque l’on veut traverser la paroi crânienne car elle est composée de trois couches. De plus, chaque crâne a une géométrie différente selon les personnes, et au final ce matériau n’est pas homogène. La vitesse et la propagation des ondes sonores sont donc difficiles à maîtriser. »
Reprenant la technologie développée pour pénétrer dans des milieux complexes et solides, les chercheurs ont construit des modèles de calcul pour simuler les perturbations que va subir le faisceau ultrasonore dans le crâne. « Nous avons d’abord fait une imagerie nanographique du crâne pour obtenir sa description géométrique, explique le chercheur. Ensuite, nous avons utilisé nos outils au CEA-List pour simuler la propagation du champ ultrasonore au travers de la paroi crânienne et pouvoir ensuite calculer les lois de phases nous permettant de corriger l’image ». Les chercheurs se sont servis de capteurs multi-éléments qui se pilotent indépendamment les uns par rapport aux autres, afin de focaliser en profondeur le faisceau ultrasonore. Ces capteurs sont notamment capables de retarder les émissions d’ondes pour compenser les perturbations provoquées par le milieu.
La résolution de l’image s’est nettement améliorée
Grâce à ces techniques, les chercheurs sont ainsi parvenus à focaliser les ultrasons sur les tissus mous à l’intérieur du crâne et à améliorer nettement la qualité de l’image échographique. « La résolution de l’image est nettement meilleure, ajoute Sylvain Chatillon. Nous avons réussi à améliorer l’amplitude des échos d’environ une dizaine de décibels, ce qui est déjà beaucoup ». Pour le moment, ce résultat est une première preuve de concept. Les chercheurs ont démontré qu’à condition de connaître parfaitement la géométrie du crâne, et en considérant une hypothèse simplificatrice que le matériau constituant le crâne est homogène, ils sont capables d’améliorer notablement les caractéristiques de l’image obtenue en corrigeant les perturbations. « Toute la difficulté est de connaître la géométrie du crâne pour pouvoir appliquer ces algorithmes de correction des aberrations, poursuit le chercheur. »
Ce travail de recherche va se poursuivre. Les scientifiques veulent améliorer les outils de simulation pour les rendre plus performants et plus rapides. Plusieurs années seront nécessaires avant de voir cette technologie rejoindre les équipements disponibles en soins ambulatoires. Elle devra au préalable subir des phases de validations pré-cliniques puis cliniques.
La loi anti-gaspillage projette la fin de la mise sur le marché d’emballages en plastique à usage unique d’ici à 2040. Elle prévoit des objectifs quinquennaux de réduction, de réemploi et de réutilisation, ainsi que de recyclage des emballages en plastique à usage unique pour y parvenir. Le projet de décret visant à définir les premiers objectifs pour la période 2021-2025 est en consultation publique jusqu’au 12 janvier 2021.
Un objectif de réduction collectif de 20 %
Le projet de décret prévoit notamment un objectif collectif de 20 % de réduction des emballages plastiques à usage unique d’ici fin 2025 par rapport à l’année de référence 2018. Il laisse soin aux metteurs sur le marché de s’organiser « en tenant compte du potentiel propre aux catégories de produits auxquelles sont destinés ces emballages ». « C’est un projet de décret qui est très important, mais qui en l’état est un peu décevant, réagit Moïra Tourneur, responsable du plaidoyer de Zero Waste France. En particulier, l’objectif est collectif donc si les producteurs ne se responsabilisent pas, il n’y aura pas de sanctions. En plus, l’objectif est formulé en tonnage, ce qui va plutôt inciter à alléger le poids des emballages. Cela peut même être contre-productif car les plastiques plus légers peuvent être moins recyclables ». La portée du décret dépendra donc du bon vouloir des marques.
À partir du 1er janvier 2023 le projet de décret prévoit la mise en place d’un indicateur complémentaire pour suivre l’évolution du nombre « d’Unités de Vente Consommateur » commercialisées dans des emballages ménagers en plastique à usage unique et d’unités d’emballages industriels et commerciaux en plastique à usage unique. « Le projet de décret ne précise pas l’articulation avec les indicateurs en tonnage, ni les modalités de suivi et de mise en place, constate Moïra Tourneur. Un objectif de 20 % en tonnage ou en unité de vente, ce n’est pas du tout la même chose. Un objectif de 20 % en unités de vente aurait été satisfaisant. »
Vers la fin des emballages en plastique à usage unique inutiles
Est considéré comme emballage en plastique à usage unique tout emballage « qui n’est pas conçu, créé ou mis sur le marché pour accomplir, pendant sa durée de vie, plusieurs trajets ou rotations en étant retourné à un producteur pour être rempli à nouveau, ou qui n’est pas conçu, créé ou mis sur le marché pour être réutilisé pour un usage identique à celui pour lequel il a été conçu », rappelle le projet de décret.
Le projet de décret espère atteindre au moins la moitié de cette réduction grâce au réemploi et à la réutilisation. Il souhaite aussi faire disparaître les emballages plastiques à usage unique « inutiles », et fixe l’objectif de « tendre vers 100 % de réduction ». Ces emballages sont « définis comme ceux n’ayant pas de fonction technique essentielle, comme une fonction de protection, sanitaire et d’intégrité des produits, de transport, ou de support d’information réglementaire ».
Favoriser des solutions recyclables et moins impactantes
Le projet de décret liste plusieurs voies pour atteindre ces objectifs. En premier lieu, il propose la suppression pure et simple des emballages en plastique à usage unique. Il suggère la réduction du poids de l’emballage et donc de la quantité de plastique incorporé. La mise en place de dispositifs de recharge ou la substitution par d’autres matériaux figurent parmi les autres suggestions. Enfin, le choix peut se porter sur le remplacement par un emballage réemployé ou réutilisé, en plastique ou en d’autres matériaux, y compris via des dispositifs de vrac. « Certains metteurs sur le marché voulaient que l’incorporation de plastique recyclé compte comme une condition vers la réduction, mais cela n’a pas été retenu », se félicite Moïra Tourneur. Pour éviter que le remède soit pire que le mal, les metteurs sur le marché pourront privilégier la méthode d’analyse de cycle de vie comparée par rapport aux impacts de l’emballage en plastique à usage unique auquel ces alternatives se substituent.
L’objectif gouvernemental est de tendre vers le recyclage de 100 % des plastiques et donc de 100 % des emballages en plastique à usage unique d’ici 2025. Afin de faciliter le recyclage de tous les emballages en plastique, le projet de décret fixe l’objectif que toutes les solutions déployées disposent d’une filière de recyclage opérationnelle d’ici au 1er janvier 2025. Il suggère qu’elles ne perturbent « ni les opérations de tri ni celles de recyclage des déchets d’emballages » et « ne comportent pas de substances ou éléments susceptibles de limiter l’utilisation du matériau recyclé et permettent une réduction des impacts environnementaux, y compris sur la biodiversité ». Il s’agit là d’une avancée pour Zero Waste France, mais « le projet décret ne prévoit pas la démonstration de la recyclabilité opérationnelle », tempère Moïra Tourneur.
Le monde de l’éducation vit des jours difficiles depuis plusieurs mois maintenant. Les cours et les échanges avec les enseignants se multiplient à distance, à chacun de s’y adapter ! Dans le même temps, la recherche de stage ou les choix d’orientation deviennent compliqués dans une société en pleine mutation.
En interface entre le monde des étudiants et celui des industriels, Techniques de l’Ingénieur a donc imaginé une série de webinars pour encourager les échanges et soutenir au mieux les étudiants.
Tous les replays des webinars sont désormais disponibles : les présentations comme les sessions de questions/réponses ont été enregistrées et peuvent être à nouveau visionnées sans limite.
PERSPECTIVES DES MÉTIERS SCIENTIFIQUES ET TECHNIQUES :
Ingénierie : les femmes prennent leur place, par Marie-Hélène Therre, Spécialiste du développement des équipes et des problématiques de Diversité Hommes-Femmes, d’Inclusion dans les organisations
D’après l’ADEME, en 2016 l’incinération des ordures ménagères a produit 443 000 tonnes de REFIOM et cendres en France. La totalité des résidus d’épuration des fumées collectés en sortie de four a terminé sa vie en installation de stockage de déchets dangereux (ISDD).
mélange avec des boues acides issues du traitement des gaz ;
lixiviation acide, entre 40 et 60°C ;
précipitation chimique des cristaux de Zn(OH)2 par NaOH (pH autour de 9) ;
pompage des boues et filtration des cristaux de Zn(OH)2 par filtre-presse ;
lavage et séchage à l’air comprimé ;
re-incinération des cendres restantes, pour éliminer les dioxines.
Les essais réalisés à partir du pilote industriel qu’ils ont développé ont permis d’obtenir des gâteaux de filtration extrêmement riches en zinc, contenant 80 % en masse de Zn(OH)2 sous forme solide. Grâce à cette méthode chimique, il est ainsi possible de récupérer jusqu’à 70 % du zinc contenu dans les cendres volantes.
Vue d’ensemble du procédé d’extraction du zinc des cendres volantes. Crédit : Yen Strandqvist
L’élimination des dioxines : un enjeu important
Les cendres issues de l’incinération sont considérées comme des déchets dangereux, car elles contiennent des substances hautement toxiques telles que les dioxines. Les dioxines sont des polluants organiques persistants de la famille des organochlorés qui se forment lors du refroidissement des fumées et présentent des risques importants pour l’environnement.
Dans un communiqué de presse, Karin Karlfeldt Fedje, première auteure de la publication, affirme que cette méthode de récupération du zinc a également l’avantage de permettre la destruction des dioxines :
« Après extraction, nous incinérons à nouveau les cendres résiduelles afin de dégrader les dioxines. 90 % de ces cendres peuvent être transformées en cendres résiduelles, utilisables en tant que matériau de construction par exemple ».
Sven Andersson, co-auteur de l’étude, ajoute : « Cette technologie de recyclage du zinc contenu dans les cendres volantes pourrait avoir plusieurs effets positifs, comme la réduction du besoin d’extraction de zinc primaire, la diminution de la toxicité des cendres et une forte réduction de l’enfouissement. »
Un pilote industriel
Cela fait de nombreuses années que Karin Karlfeldt Fedje développe cette méthode, en collaboration avec des partenaires extérieurs. L’objectif de cette étude était le passage à l’échelle du pilote industriel. C’est désormais chose faite, car deux entreprises – Babcock & Wilcox Vølund et Renova AB – sont en train de construire en Suède une installation de lavage des cendres volantes avec récupération du zinc dans la ville de Göteborg.
Ce projet, qui s’inscrit ainsi dans le contexte d’économie circulaire, devrait en outre permettre à l’entreprise de traitement des déchets appartenant à la municipalité d’économiser plusieurs centaines de milliers d’euros par an.
Tessael est une start-up spécialisée en maillage géologique optimisé permettant de reproduire la complexité morphologique du sous-sol, en respectant ses structures naturelles. Avec sa technologie GeO2, l’entreprise créée en mai 2020, permet de réaliser des maillages correspondant aux besoins des exploitants du sous-sol, plus précisément dans les études géomécaniques et les études d’écoulement des fluides. « Pour faire du stockage, de l’extraction d’énergie géothermique ou d’hydrocarbures par exemple, les exploitants ont besoin d’une bonne connaissance du sous-sol, détaille Cédric Borgese, directeur général chez Tessael. Pour prendre les bonnes décisions, ils vont alors effectuer des simulations afin d’éviter tout problème d’endommagement et d’arrêt de production, pour avoir une meilleure rentabilité mais surtout éviter les désastres écologiques qui peuvent en découler. »
Une découpe en millions de mailles
Les simulations reposent sur un découpage des surfaces et du volume du sous-sol en unité géométrique : la maille. C’est l’ensemble de ces mailles, interconnectées, qui constituent le maillage. « On découpe le sous-sol en millions d’éléments sur lesquels on applique des formules physiques. Le maillage est le cœur du jumeau numérique du sous-sol », précise Wan Chiu Li, président de Tessael. « Pour l’énergie géothermique par exemple, afin de réintroduire l’eau chaude puisée d’une profondeur de plusieurs kilomètres après en avoir converti les calories en énergie via un doublet géothermique, il faut les bons calculs pour savoir par quel endroit passe l’eau, et quelle pression et débit injecter sans induire de séismicités fortes. Ce sont des calculs encore plus complexes que ceux réalisés pour le pétrole, car le milieu du circuit – là où l’eau se réchauffe – est invisible ». L’eau de pluie est récupérée, injectée dans un puits pour être chauffée à haute température en profondeur pour ensuite la pomper dans un autre puits. Cette eau chauffée servira dans la production d’électricité par exemple.
Une échographie du sous-sol
Modèle 3D d’un jumeau numérique du sous-sol, réalisé grâce au logiciel GéO2 de Tessael. Crédit image : Tessael
Pour réaliser ce maillage, Tessael a besoin de données numériques modélisées en 3D : le jumeau numérique du sous-sol. Ces données sont récupérées des sondes. « Visuellement, c’est un peu comme une échographie, avec des ondes plus fortes sur plusieurs kilomètres et un rendu très peu précis », ajoute Cédric Borgese. A partir de ce modèle (partie droite de l’image ci-dessus), le logiciel GeO2 va réaliser un maillage (partie gauche de l’image). Ce maillage n’est pas identique partout. Il se distinguera sur le logiciel par une couleur (rouge par exemple), notamment aux endroits où il y a des failles.
La technologie est proposée sous forme de système ouvert, compatible avec les plateformes de logiciels standards en géomodélisation et simulation.
Voilà maintenant une dizaine d’années que l’équipe du professeur Leslie Yeo étudie les interactions entre les matériaux, les cellules et les ondes sonores de plus de 10 MHz. Pendant toutes ces années, ils ont observé des phénomènes étranges : ils commencent tout juste à les comprendre.
Aller plus loin que la sonochimie classique
La propagation d’ultrasons (10 kHz à 3 MHz) dans un milieu liquide provoque l’implosion de bulles d’air appelées bulles de cavitation. De ce phénomène de cavitation localisé, il résulte une brusque montée de la température et de la pression. La sonochimie consiste à exploiter cette énergie pour induire des réactions chimiques.
Que se passe-t-il au-delà de cette gamme de fréquences ? La transmission d’ondes à haute fréquence dans divers matériaux et même des cellules vivantes a des effets pour le moins étranges.
« Nous avons vu des molécules qui semblent s’orienter dans le cristal selon la direction des ondes sonores » affirme Leslie Yeo dans un communiqué de presse.
L’équipe du professeur Leslie Yeo (tout à gauche sur la photo) du Micro/Nanophysics Research Laboratory de l’université RMIT. (Crédit : RMIT)
Des applications biomédicales
Contrairement à la cavitation, les ondes sonores à haute fréquence ne détruisent pas les molécules et les cellules, ce qui les rend compatibles avec les applications biomédicales. Voici quelques-unes des possibilités répertoriées par les chercheurs :
administration de médicaments et de vaccins par inhalation, grâce à un nébulisateur spécialement développé ;
incorporation de molécules thérapeutiques dans des cellules.
Le nébulisateur ultrasonique à haute fréquence dont il est question ici est un dispositif breveté appelé « Respite ». En plus d’être économique, léger et portable, cet appareil est capable d’administrer de grosses molécules comme de l’ADN ou des anticorps.
Le dispositif breveté “Respite” utilise des ondes sonores à haute fréquence pour administrer des traitements par inhalation, de manière ciblée (Crédit : RMIT).
La synthèse de matériaux par ultrasons HF
Les applications médicales ne sont qu’un exemple des possibilités offertes. L’équipe du professeur Yeo s’intéresse également à la synthèse de réseaux organométalliques (MOF), des matériaux de nouvelle génération qui ont une surface de contact interne gigantesque, ce qui les rend très utiles pour la purification de l’eau, de l’air ou le stockage de l’énergie.
Avec les procédés actuels, la synthèse des MOF demande des heures, voire des jours, requiert l’utilisation de solvants agressifs et consomme beaucoup d’énergie. Comme expliqué dans la publication du 23 novembre 2020 pour le journal Advanced Science, l’équipe de chercheurs a développé une méthode propre, permettant la synthèse de MOF en quelques minutes.
Poudre de MOF créée en utilisant des ondes acoustiques HF et la puce électronique qui a permis de les générer (Crédit : RMIT)
Pour les chercheurs, la prochaine étape concerne le passage à l’échelle industrielle. Avec un coût avoisinant les 0,70 USD par unité, les puces électroniques permettant de générer les ondes acoustiques à haute fréquence peuvent être fabriquées en masse en utilisant les procédés conventionnels de la microélectronique.
Alors qu’elle est fréquemment utilisée pour décrire les phénomènes de condensation, l’équation de Kelvin semble bien fonctionner à l’échelle du micromètre et du nanomètre. Pourtant, cette équation ne devrait pas être applicable pour des capillaires de seulement quelques nanomètres, une échelle comparable à la taille des molécules d’eau (0,3 nm).
Le défi de la preuve expérimentale
Si l’équation de Kelvin est utilisée faute d’une meilleure approche théorique, c’est aussi parce qu’il est extrêmement difficile d’étudier expérimentalement de tels phénomènes à l’échelle moléculaire. Créer des capillaires de cette taille est un défi, en particulier à cause de problèmes liés à la rugosité de surface.
Dans l’étude publiée dans le journal Nature, l’équipe de chercheurs dirigée par le professeur Andre Geim, corécipiendaire du prix Nobel de physique en 2010 et pionnier du graphène, explique comment a été réalisée cette prouesse.
En assemblant deux cristaux de mica et de graphite, séparés par de fines bandes de graphène, ils ont réussi à concevoir des capillaires artificiels suffisamment petits pour condenser la vapeur d’eau dans des conditions ambiantes.
En contrôlant l’épaisseur des bandes de graphène qui jouent le rôle d’intercalaire entre les deux cristaux ils ont ainsi pu obtenir des capillaires de hauteur variable, dont des capillaires d’un seul atome de hauteur, capables d’accueillir seulement une couche de molécules d’eau.
Lord Kelvin avait-il raison ?
L’équipe de chercheurs s’attendait à une défaillance de la physique conventionnelle. Au lieu de ça, les expérimentations ont démontré que l’équation de Kelvin pouvait en effet décrire la condensation capillaire à l’échelle nanométrique, du moins de manière qualitative.
Dans un communiqué de presse de l’université de Manchester, le Docteur Qian Yang, premier auteur de l’étude, affirme ainsi : « Le fonctionnement de la vieille équation s’est avéré correct. C’est un peu décevant pour nous, mais aussi très excitant d’avoir finalement résolu ce mystère centenaire. »
Comme l’explique le professeur Geim : « Lord Kelvin était un scientifique remarquable, qui a fait beaucoup de découvertes, mais même lui serait sûrement surpris de constater que sa théorie tient encore la route à l’échelle atomique. En fait, il a justement admis cette impossibilité dans son article de référence. »
Puis il ajoute : « Nos travaux ont prouvé qu’il avait à la fois tort et raison en même temps. »
Tesseract Solutions est une start-up basée à Saint-Quentin, dans les Hauts-de-France. Spécialisée en robotique, l’entreprise propose des dispositifs permettant aux industriels de prendre le contrôle de leurs systèmes robotisés. Son produit phare s’appelle KMeleon, un logiciel de programmation robotique simplifiée multirobot.
Florian Dordain est co-fondateur de Tesseract Solutions et chargé de la recherche et du développement technique sur les sujets de la robotique et de l’intelligence artificielle. Il évoque l’impact de la crise sanitaire sur son activité et explique les raisons qui l’ont poussé à développer CleanCovid, un dispositif capable de désactiver les fonctions pathogènes des bactéries et virus présents sur les surfaces, par l’exposition à un rayonnement UV-C..
Techniques de l’Ingénieur : Comment Tesseract Solution a-t-elle vécu la crise sanitaire ?
Florian Dordain : Le premier confinement a été une surprise, et comme pour toutes les entreprises, la question du chômage partiel s’est vite posée.
Le cœur de l’activité de Tesseract Solutions repose sur le développement de KMeleon, notre logiciel de programmation robotique. Face à cette situation inédite, nous avons cherché des solutions pour continuer à promouvoir KMeleon. Nous nous sommes dit : puisque nos prospects et clients sont tous en télétravail, pourquoi ne pas proposer une version de démonstration de KMeleon afin qu’ils se familiarisent avec l’interface de simulation ?
Cette démarche a-t-elle porté ses fruits ?
En effet, ça a fonctionné et nous avons eu des dizaines de bêta-testeurs. Néanmoins, la conjoncture économique n’étant pas propice aux projets d’innovation, cela n’a pas abouti à la signature de commandes, mais nous sommes plutôt satisfaits, car nous avons pu lancer des projets avec de nouveaux clients.
Vous êtes développeur d’un logiciel de robotique. Pourquoi vous être lancé dans l’aventure CleanCovid ?
Nous voulions tout simplement participer à la lutte contre le virus et ne pas rester les bras croisés alors que notre activité tournait au ralenti. Nous avons regardé les moyens dont nous disposions et ce qui existait déjà. J’ai découvert diverses études concernant les effets du rayonnement UVC sur la décontamination et je me suis dit qu’avec les machines d’impression 3D et les connaissances en électronique que nous possédons, concevoir ce genre d’équipements était à notre portée.
CleanCovid fonctionne sur le principe de désinfection par UV-C. L’efficacité de cette méthode est-elle prouvée ?
La désinfection de l’air et des surfaces par rayonnement UV-C est quelque chose de connu depuis longtemps. Les UV-C détruisent ou rendent inactifs la majorité des agents pathogènes, à condition que la puissance utilisée et le temps d’exposition soient suffisants. Les tubes fluorescents installés sur CleanCovid sont d’ailleurs présents dans de nombreux équipements de désinfection de l’air et des surfaces, comme ceux utilisés par certains laboratoires ou hôpitaux.
Selon leur constructeur Philips, les cinq tubes UV-C installés sur la lampe CleanCovid permettent de désactiver plus de 99,99% du virus SARS-COV-2 en moins d’1 minute.
Les UV-C sont bien plus dangereux pour la santé que les UV-A et UV-B. Il faut éviter tout contact prolongé avec les yeux ou la peau. Si les UV-C ne représentent qu’une infime partie des 100 W consommés par la lampe, c’est tout de même bien au-delà de la dose admissible pour un humain. Or, CleanCovid n’est pas une lampe protégée par un capot, car le but est justement de désinfecter les surfaces autour. La lampe est ainsi conçue pour fonctionner quand personne n’est dans la pièce.
Selon le constructeur (Philips), les tubes UV-C installés sur la lampe CleanCovid permettent de désactiver plus de 99,99% du virus SARS-COV-2 en moins d’1 minute.
À qui s’adresse CleanCovid ? Est-il déjà utilisé ?
CleanCovid s’adresse par exemple aux restaurants, chambres d’hôpital, bureaux et transports en commun et elle est déjà utilisée par plusieurs commerces comme des boulangeries. Le produit a d’ailleurs été conçu pour que son tarif soit abordable pour les petits commerces.
Actuellement dans les boutiques de vêtements, l’essayage est déconseillé. CleanCovid serait ainsi une solution potentielle pour limiter les risques de transmission du virus, par une désinfection entre deux essayages.
Vous parliez d’impression 3D. En quoi vous a-t-elle aidé pour CleanCovid ?
Toute la structure de la lampe est imprimée en 3D. Seules les douilles d’alimentation, le bouton d’arrêt d’urgence, l’électronique et bien sûr les tubes UV-C ne sont pas imprimés en 3D. C’est grâce à l’impression 3D que CleanCovid a vu le jour aussi rapidement, car nous possédons plusieurs machines qui nous servent habituellement à concevoir des outillages pour bras de robot.
Comment voyez-vous l’avenir de CleanCovid ?
Nous pensons à plusieurs évolutions potentielles pour CleanCovid. Par exemple, améliorer la circulation d’air autour de la lampe pour optimiser la purification de l’air. Concernant la fabrication, pour répondre à un éventuel accroissement du volume de commande, nous avons également plusieurs options, comme embaucher du personnel pour le montage des kits ou sous-traiter l’impression 3D des pièces.
Par rapport aux méthodes de fabrication conventionnelles, l’impression 3D change la donne : en disposant d’une imprimante à la maison, il est possible d’imprimer en 3D, tout en étant en télétravail ! La sous-traitance du montage des kits et l’impression des pièces par des volontaires sont pour l’instant des pistes que nous envisageons.
Cette crise, cela fait un an que nous la subissons. Nous n’avons pas le choix que de nous adapter, et c’est par l’innovation que nous y arriverons.
L’Europe va-t-elle rater le train de l’informatique quantique et ne pas être capable d’assurer sa souveraineté technologique ? Cette inquiétude transparait fortement dans une étude réalisée par France Digitale et le cabinet Wavestone. Elle insiste en particulier sur les dangers du quantique en matière de cybersécurité. Elle rappelle que de nombreux experts estiment que les ordinateurs quantiques seront opérationnels entre 2025 et 2040 et auront la capacité de déchiffrer en 8 heures une communication cryptée, et que le chiffrement RSA 2048 bits pourrait être cassé d’ici 20 ans.
Cette date parait lointaine. Mais en réalité, il est nécessaire de s’y préparer dès maintenant. Pour deux raisons principales. Premièrement, certains systèmes informatiques sensibles (comme ceux des télécoms ou de l’armée) reposent sur des roadmaps figées sur plusieurs années. Il est donc difficile de les mettre à jour aussi rapidement qu’un simple ordinateur.
Par exemple, le nouveau programme informatique des Rafale, appelé standard F4, a été lancé en janvier 2019 et ne sera déployé qu’à partir de 2023.
Deuxièmement, certains États ont pris de l’avance. Aujourd’hui, ils peuvent récupérer des données sensibles qu’ils pourraient déchiffrer le moment venu avec leurs ordinateurs quantiques.
« Une course technologique internationale s’est enclenchée, d’où les Européens sont aujourd’hui absents. Les Américains ont mobilisé aussi bien l’État que les Big Tech », insiste Nicolas Brien, directeur général de France Digitale.
Une réponse européenne lacunaire
Une dizaine d’États se sont dotés d’un plan national ambitieux. La Chine a investi plus de 10 milliards de dollars dans un centre de recherche de 37 hectares et les États-Unis ont investi plus de 2 milliards de dollars sur 5 ans.
Ces craintes concernant les capacités de déchiffrement des échanges de données, mais aussi un « décrochage » de l’Europe, ne sont pas récentes. Pourtant, le vieux continent montre à la fois des forces (avec une recherche fondamentale d’élite et la création de plus de 80 startups quantiques dont beaucoup sont françaises) et des faiblesses.
Signes encourageants, l’Allemagne montre l’exemple en ajoutant 2 milliards de dollars aux 650 millions du plan d’investissements sur 5 ans de 2018. L’Europe a également annoncé son plan de souveraineté digitale, le « Digital Europe Programme », pour 2021-2027.
Côté négatif, « la réponse européenne reste lacunaire, constate Nicolas Brien. Notre quantum flagship, créé en 2018 avec un budget global théorique d’un milliard d’euros sur dix ans, vise à financer des projets de recherche internationaux sur les technologies quantiques… et aucun plan stratégique européen n’est encore mis en œuvre ».
Mais surtout, l’Europe est divisée. « Il lui faut une stratégie commune, portée par une organisation rassemblant les acteurs européens du quantique (startups, chercheurs, industries) : une organisation européenne de recherche quantique. À l’heure où l’Europe négocie son budget pour 2021/2027 et établit pour priorité de relance la souveraineté technologique, elle doit tirer les enseignements des autres courses technologiques pour lesquelles elle n’a pas su se placer en tête », lit-on dans ce rapport.
C’est la raison pour laquelle les auteurs de ce rapport demandent aux décideurs politiques de bâtir un véritable plan quantique européen, basé sur trois piliers :
La collaboration entre États membres – notamment grâce à la création d’une organisation européenne de recherche quantique ;
La collaboration entre chercheurs, startups et industries européennes – portée notamment par la commande publique européenne ;
La transdisciplinarité des projets quantiques, incluant la cybersécurité, mais également tous les autres usages.
« Le quantique peut aussi devenir une opportunité de premier plan pour sécuriser et pacifier le cyberespace, avec la création de réseaux d’échanges théoriquement inviolables », insistent les auteurs du rapport. Reste le plus dur à faire : convaincre les hommes politiques et les décideurs des grands comptes de relever ce défi sans plus attendre…
Dans une étude publiée dans la revue Climate Dynamics, des chercheurs de l’Université McGill estiment que le seuil d’un réchauffement climatique dangereux sera probablement franchi entre 2027 et 2042. Par « seuil dangereux », ils entendent une augmentation de plus de 1,5°C de la température mondiale. Ces nouveaux travaux réduisent encore le temps qu’il nous reste pour agir contre le réchauffement climatique. Le Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC) estimait jusqu’ici que nous franchirions ce seuil entre aujourd’hui et 2052. Les chercheurs de l’Université McGill invitent donc les décideurs politiques à accélérer l’action dans la courte fenêtre d’action qu’il leur reste.
Selon cette nouvelle étude, même si les émissions de gaz à effet de serre étaient drastiquement réduites aujourd’hui, la probabilité que le seuil de 1,5°C soit franchi d’ici 2050 reste de 54 %. Cette modélisation la plus favorable repose sur le scénario d’émissions RCP 2.6 du GIEC, le plus optimiste. Dans le scénario d’émissions le plus défavorable, il y a 94 % de chances que la hausse des températures moyennes atteigne les 2°C d’ici 2100. Cette modélisation repose sur le scénario d’émissions RCP 4.5, le plus pessimiste du GIEC.
Un autre raisonnement pour modéliser l’évolution des températures
Habituellement, les scientifiques utilisent des modèles climatiques pour construire leurs scenarii de réchauffement climatique et faire leurs projections de températures. Ces modèles climatiques traditionnels reposent sur des simulations mathématiques des facteurs influençant le climat, comme l’atmosphère, l’océan, la glace, la surface terrestre et le soleil
« La nouvelle méthode que nous utilisons pour prédire la température planétaire s’appuie sur des données climatiques historiques, plutôt que sur les relations théoriques mesurées de façon incomplète par les modèles de circulation générale. Cette méthode permet d’évaluer la sensibilité climatique et son incertitude à l’aide d’observations directes, et ne relève qu’un faible nombre d’hypothèses », explique Raphaël Hébert, coauteur et ancien étudiant-chercheur à l’Université McGill, aujourd’hui à l’Institut Alfred-Wegener à Potsdam, en Allemagne.
Ce nouveau modèle, dénommé Scaling Climate Response Function pour « fonction de calcul de l’ampleur de l’action contre les changements climatiques », permet de faire des projections de la température de la planète d’ici 2100. Fondé sur des données historiques, selon les auteurs, il réduit de moitié environ les incertitudes liées aux projections par rapport aux modèles climatiques classiques.
La mobilisation de la FNSEA a payé. Alors que le plan pollinisateurs devait initialement être soumis à la consultation du public dès la fin d’année 2020, il a été renvoyé à 2021. « Nous avons entendu les inquiétudes des uns et des autres. Il y aura bien une concertation qui tiendra compte des réalités de terrain et des conditions de travail », a annoncé le ministre de l’Agriculture Julien Denormandie lors d’un déplacement à Saclay (Essonne) aux côtés de la FNSEA et de l’association SOLAAL qui facilite l’aide alimentaire, le 18 décembre. Le projet de plan devrait finalement être soumis à la consultation du public début 2021 en vue d’une publication officielle en mars.
La FNSEA reprochait au gouvernement depuis plusieurs semaines « d’avancer à marche forcée, en l’absence de réelle concertation ». Le syndicat agricole redoute notamment l’obligation qui sera faite aux agriculteurs de travailler de nuit pour traiter leurs cultures et dénonce de nouvelles distorsions de concurrence pour les agriculteurs français, au profit des agriculteurs européens.
Un plan pour mieux protéger les pollinisateurs
Le plan pollinisateurs a toutefois été présenté le 18 décembre en fin d’après-midi aux représentants des producteurs agricoles et à différentes associations. Il s’articule autour de quatre axes : améliorer les connaissances sur les pollinisateurs, mobiliser les leviers économiques d’accompagnement des agriculteurs et apiculteurs, lutter contre les agresseurs de la ruche et protéger les pollinisateurs de l’épandage des pesticides. L’axe qui fait le plus réagir les différents acteurs concerne le renforcement de la réglementation encadrant l’épandage des pesticides en présence de pollinisateurs.
Ce plan prévoit notamment une révision de l’arrêté « abeilles » du 28 novembre 2003. Il projette d’étendre l’interdiction des pulvérisations d’insecticides aux cultures attractives pour les abeilles en période de floraison aux fongicides et herbicides. Les produits portant la mention « abeilles » pour lequel il existe une dérogation, pourront être utilisés après le coucher du soleil et pendant les 3 heures qui suivent. Des dérogations sont à l’étude pour les surfaces de traitement particulièrement étendues ou suivant la typologie du terrain.
« Nous savons que la FNSEA exerce une très forte pression pour tenter d’annuler ces dispositions relatives aux pesticides, avance François Veillerette, porte-parole de Générations Futures. Nous demandons au gouvernement de ne pas céder sur ce point et d’accorder le moins possible de dérogations à l’interdiction d’utilisation tout en suivant la recommandation de l’ANSES qu’elles soient soumises à la réalisation de nouveaux essais. »
Accessoires essentiels pour se protéger contre le coronavirus, les masques sont devenus une nouvelle source majeure de déchets plastiques non recyclés en 2020. Selon la Fédération nationale des activités de la dépollution et de l’environnement (Frade), l’incinération des déchets infectieux a bondi de 40 à 50 % durant la première phase de confinement, entre le 17 mars et le 10 mai 2020. Et depuis le printemps dernier, le jet de masques sur la chaussée ou en pleine nature a explosé.
C’est dans ce contexte que Plaxtil s’est donné comme objectif de recycler ces masques jetables. Olivier Civil, codirecteur de cette société spécialisée dans le recyclage de déchets textiles et basée à Châtellerault dans la Vienne, explique que lui et son associé Jean-Marc Neveu ont voulu répondre à une nouvelle problématique sanitaire. « On a vu arriver les masques et surtout la pollution liée à ces masques, il y en avait partout, dans les rues, dans la nature » a affirmé Olivier Civil à l’AFP. Depuis le lancement de cette activité en juin 2020, la start-up aurait recyclé environ 200 000 masques jetables.
Objectifs d’économie circulaire
La start-up collabore avec Audacie, une structure d’insertion par l’activité économique qui collecte localement les masques usagés. Une fois récupérés, ces masques sont mis en quarantaine durant quatre jours. Ensuite, la barrette métallique située au niveau du nez, non recyclable, est retirée. Après cette étape, les masques sont broyés. Puis la matière obtenue est passée trente secondes dans un tunnel d’ultraviolets – mis au point par la start-up UVMOBI – pour les décontaminer complètement. Enfin, la matière est mixée avec une résine qui la transforme en une matière dure, également appelée Plaxtil.
Ainsi, Olivier Civil affirme que plusieurs objets tels que des visières de protection ou des ouvre-portes peuvent être confectionnés par moulage. Cette solution qui permet le recyclage des masques jetables a séduit l’agglomération du Grand-Châtellerault. Cette dernière a financé les débuts de l’activité de la start-up. Évelyne Azihari, en charge de la politique énergie du Grand-Châtellerault, a indiqué à l’AFP que la solution de Plaxtil « rentre depuis le début dans [les] objectifs d’économie circulaire » du territoire.
Sollicité par le ministère de l’Économie
Aujourd’hui, l’avenir de Plaxtil semble être de bon augure. « Nous avons des demandes de la France entière. Le ministère de l’Économie et des Finances nous a contactés pour voir si nous étions prêts à nous associer pour faire une filière de recyclage de masque » affirme Olivier Civil. Cela pourrait être d’autant plus nécessaire que la production de masque croît. « En décembre, nous aurons multiplié par 30 la production française de masques sanitaires par rapport à janvier avec une production hebdomadaire de 100 millions de masques » a déclaré Agnès Pannier-Runacher, ministre déléguée chargée de l’industrie, sur son compte Twitter.
Or, selon l’association Zero Waste, chaque Français utilise en moyenne deux masques jetables par jour. Ainsi, 400 tonnes de déchets sont générées quotidiennement. De plus, une enquête de la Fondation Vinci Autoroutes indique que 5 % des Français admettent avoir déjà « perdu ou jeté » un masque sur la voie publique. Ce phénomène inquiète les défenseurs engagés pour la préservation de l’environnement. « Ces masques-là sont en polypropylène. Et le polypropylène, c’est tout sauf biodégradable » a expliqué Jean-François Gérard, Professeur du Département Science & Génie des Matériaux de l’INSA Lyon, à 20 Minutes. Selon lui, la probabilité que ces masques mettent environ 450 ans à se dégrader est envisageable.
Laurent Bataille est président de la société Poclain, spécialisée dans la fabrication de moteurs, de pompes, et de systèmes hydrauliques de puissance. Il a accepté d’évoquer pour Techniques de l’Ingénieur la crise sanitaire et ses conséquences, pour son entreprise et pour l’industrie française.
Le mardi 4 août, deux immenses explosions détruisent le port de Beyrouth et dévastent en partie la capitale libanaise. L’enquête se poursuit et la piste de l’accident est privilégiée. En cause : la détonation de 2 750 tonnes de nitrate d’ammonium stockées depuis près de sept ans dans un entrepôt portuaire, et provenant d’une cargaison saisie en 2013. Elles étaient transportées sur un navire en direction du Mozambique, depuis la Géorgie, qui faisait escale au port beyrouthin.
Des chercheurs américains ont ajouté un polymère conducteur à la surface de briques qui sont utilisées pour construire des murs d’habitation. Ces briques se comportent comme un supercondensateur et sont capables de stocker et restituer l’énergie.
En partenariat avec Techniques de l’Ingénieur, le Cetim (Centre technique des industries mécaniques) présente : « Défaillance d’étanchéité : Diagnostics et solutions ». Lors de cette conférence en ligne, les experts du Cetim et du LRCCP (Laboratoire de recherches et de contrôle du caoutchouc et des plastiques) vous proposent de partager leur expérience autour de cette thématique. L’occasion de répondre à toutes vos questions sur le sujet.
Nicolas Multan est directeur général d’Hemeria, une start-up toulousaine qui est devenue en quelques années une des pépites françaises de l’aérospatial.
Lors d’un accident industriel, l’Etat mobilise ses services pour assurer la gestion de crise. C’est ainsi que l’Ineris est intervenu lors de l’accident de Lubrizol. Retour sur cet épisode.
Des chercheurs ont fabriqué une nouvelle membrane pour dessaler de l’eau de mer à grande échelle grâce au procédé d’osmose inverse. Elle s’inspire directement d’une protéine localisée dans les membranes cellulaires des plantes et des animaux.
Le collectif Labos 1point5 lance un nouvel outil de bilan de gaz à effet de serre développé par et pour les scientifiques, spécifiquement pour les laboratoires de recherche. Il invite la communauté scientifique française à s’engager dans une démarche systémique de diminution des émissions. Lumière.
La neuromorphique consiste à s’inspirer du cerveau humain pour créer artificiellement des réseaux intelligents. Un exemple de bio-insipration qui pourrait à terme permettre le développement de réseaux performants et moins énergivores.
Sherpa dévoile une nouvelle étude sur le devoir de vigilance lié aux chaînes d’approvisionnement en minerais de neuf entreprises françaises impliquées dans la transition énergétique. Entretien.
Les premiers radis de la Station spatiale internationale
Les astronautes de l’ISS ont récolté des radis cultivés à bord. Une vingtaine de plants qui ont été placés dans une chambre froide pour être analysée sur Terre en 2021.
Cette expérience de la NASA a pour but d’étudier la culture de produits frais en milieu de microgravité afin de pouvoir remplacer à terme les plats lyophilisés consommés actuellement par les astronautes. En effet, lors de missions longue durée, les astronautes ont besoin de produits frais et de vitamines, qui ne se décomposent pas au fil du temps.
Cette culture de radis a été réalisée dans de petites chambres de croissance équipées d’un éclairage LED et d’un système d’arrosage. « Des systèmes de contrôle sophistiqués fournissent de l’eau, tandis que des caméras de contrôle et plus de 180 capteurs dans la chambre permettent aux chercheurs du Kennedy Space Center de la NASA de surveiller la croissance des plantes ainsi que de réguler les niveaux d’humidité, la température et la concentration de dioxyde de carbone (CO2) », précise la NASA.
Entre 2003 et 2005, les astronautes russes avaient réussi à faire cultiver des petits pois dans l’espace.
Shimon, ce robot-rappeur qui clashe
La Georgia State Technology nous présente le robot nommé Shimon, un robot rappeur capable d’écrire des rimes en rythme. Ce robot est aussi capable de vous aider à composer les paroles de vos chansons grâce à son vocabulaire composé de 3000 mots.
Créé en 2011, le robot continue de se développer et de s’améliorer grâce à l’intelligence artificielle et le machine learning. Il joue désormais différents instruments grâce à ses bras robotiques ; il écrit et interprète même ses propres chansons.
De plus, l’un des ajouts récents de Shimon est l’utilisation de « données phonèmes ». Un phonème est la plus petite unité de la prononciation d’un mot. L’utilisation de ces données utilisant des phonèmes permet alors à Shimon de découper son texte en couches rythmiques et d’improviser ses propres mélodies.
[Photo] Découvrez la galaxie lenticulaire connue sous le nom de NGC 1947
Le télescope Hubble a immortalisé la galaxie lenticulaire NGC 1947, située dans la constellation du Dorado. Sur le cliché mis en avant sur le site d’Hubble, nous apercevons un amas cosmique dont le noyau présente un spectre d’émission caractérisé par de larges raies d’atomes faiblement ionisés. Cette galaxie est située à environ 40 millions d’années-lumière de la Voie lactée.
NGC 1947 a été découvert il y a près de 200 ans par James Dunlop, un astronome d’origine écossaise. Mais « sans la majeure partie de son matériau pour former des étoiles », il est probable de voir disparaitre cette galaxie.
This unusual lenticular galaxy, known as NGC 1947, featured in our Picture of the Week, has lost almost all the gas and dust from its signature spiral arms.
Mis au point en 1913 par BASF, le procédé Haber-Bosch permet la production industrielle de NH3 à partir de N2 et H2. Bien que ce procédé soit actuellement employé pour produire la quasi-totalité de l’ammoniac industriel, il présente plusieurs inconvénients :
son rendement est faible (20 %)
la synthèse est associée à un fort dégagement de CO2
la production du dihydrogène nécessite la consommation de méthane ou de coke
La production de NH3 par réduction électrochimique
Avec sa triple liaison, la molécule N2 est extrêmement stable, ce qui la rend très difficile à activer dans des conditions ambiantes. Appliquer un potentiel électrique à un électrocatalyseur est ainsi un moyen de réduire la barrière d’activation de la réaction de réduction de N2 (NRR).
Dans une étude théorique publiée dans le journal ACS Catalysis, l’équipe dirigée par Meenesh Singh, professeur assistant d’ingénierie chimique à l’University of Illinois Chicago College of Engineering, a identifié le cuivre comme un catalyseur efficace pour la NRR.
L’électrocatalyseur proposé est un maillage revêtu de cuivre, un écran électrocatalytique qui permet de stimuler les réactions lorsqu’il est parcouru par un courant électrique.
Schéma illustrant la capture continue de N2 dans l’air et sa conversion en NH3 avec une forte sélectivité, grâce à des écrans électrocatalytiques. (Avec l’autorisation de Aditya Prajapati et Meenesh Singh)
Une méthode encore améliorable, mais néanmoins efficace
Si cette méthode consomme autant d’énergie que les procédés conventionnels, elle nécessite beaucoup moins de combustibles fossiles : elle génère donc moins de CO2. Par ailleurs, comme le précise Meenesh Singh dans un communiqué de presse : « L’électricité utilisée pour alimenter l’écran électrocatalytique peut être d’origine solaire ou éolienne, ce qui peut représenter un écart énorme dans la réduction des gaz à effet de serre. »
Puis il ajoute : « Même les centrales électriques modernes sont très efficaces, et si le réseau est alimenté de manière conventionnelle, notre procédé utilisera quand même moins d’énergie fossile et générera moins de gaz à effet de serre que les procédés de production de NH3 actuels. »
Ce procédé, qui a fait l’objet d’une demande de brevet provisoire, est encore améliorable. À l’heure actuelle, il permet en théorie de produire 20 % de NH3 et 80 % de H2 et l’équipe de chercheurs espère maintenant augmenter le taux de production de NH3. Ils explorent également la possibilité d’utiliser directement de l’air comme source d’azote, à la place du N2 purifié.
La sonde chinoise Chang’e 5 a rapporté des échantillons lunaires
La mission chinoise Chang’e 5 avait décollé le 23 novembre dernier avec succès, grâce au lanceur Longue Marche 5. Près de trois semaines plus tard, le 16 décembre, le module de retour a atterri en Mongolie intérieure, avec sa cargaison de roche lunaire (environ deux kilos de matériel). Une première depuis 1976.
Du point de vue scientifique, ces prélèvements vont permettre aux chercheurs chinois de continuer à collecter des informations relatives à l’histoire de notre astre. Mais pour la Chine, le réel enjeu est ailleurs. Il s’agit d’une part de s’affirmer comme une nation majeure dans le domaine du spatial ; d’autre part, ces missions lunaires, si elles ont leurs buts propres, sont les jalons de LA grande ambition chinoise à court et moyen terme, c’est-à-dire envoyer des hommes sur la Lune, à l’horizon 2030.
Ainsi, Chang’e 5 est la troisième étape de ce projet très ambitieux, baptisé Chang’e. Avant cela, Chang’e 1 et Chang’e 2, deux satellites d’observation, avaient été mis en orbite autour de la Lune en 2007 et 2010. Par la suite, l’administration spatiale nationale chinoise (CNSA) a, lors de la mission Chang’e 3, fait atterrir un rover sur la face visible de la Lune, baptisé Yutu (voir ci-dessous). C’était en 2013. Chang’e 4, lancé en 2019, est une mission similaire à Chang’e 3, à ceci près qu’il s’agit de placer un rover sur la face cachée de la Lune.
Pour Chang’e 5, la difficulté (voir vidéo ci-dessous) de la mission consistait non seulement à prélever des échantillons sur le sol lunaire, mais surtout à les placer dans un module destiné à quitter la Lune pour se remettre en orbite autour de l’astre, avant de revenir sur la Terre.
Les images de la télévision chinoise et les communiqués du CNSA ont largement relayé le succès total de cette mission commandée depuis la Terre, et qui constitue une première.
Le monde entier a vu naître et grandir les ambitions spatiales chinoises depuis l’envoi du premier homme dans l’espace en 2003 par le pays. Depuis, la Chine a surpris le monde entier par son ambition très forte, et les succès accumulés.
Car envoyer des Chinois sur la Lune via le programme Chang’e n’est qu’une des facettes des ambitions chinoises. Au mois de juin dernier, la Chine a achevé la mise en place de son système de navigation Beidou, qui a pour but de concurrencer le GPS américain.
Au même moment, le pays lançait une mission à destination de Mars, où doit se poser dans les prochains mois un robot téléguidé depuis la Terre. Pour compléter le tableau, la Chine entend fermement assembler «sa» propre station spatiale en orbite, d’ici 2022.
De succès en succès, la Chine est passée du statut de nation émergente du spatial à celui de nation mature en la matière. Cela n’a pas pris très longtemps.
SpaceX teste Starship… avec succès ?
La 9 décembre dernier, SpaceX avait rendez-vous avec ses fans : en effet, l’entreprise créée par Elon Musk avait décidé de diffuser en direct le test de son dernier bijou : la fusée Starship SN8 (voir ci-dessous).
Le but de la mission, tester le prototype de Starship en haute altitude. Si le vaisseau a décollé et réussi ses manoeuvres lors de son vol, il s’est ensuite écrasé lors de l’atterrissage, donnant lieu à une explosion spectaculaire.
Si on considère qu’un des objectifs de ce test était de tester le retour d’un vaisseau sur la terre ferme, on peut raisonnablement dire que de ce côté là la mission est un échec. Mais il y a aussi des motifs de satisfaction, si l’on écoute Elon Musk : «Nous avons toutes les données dont nous avons besoin», a annoncé le célèbre fondateur de SpaceX. Au rayon des succès en effet, l’ascension, le changement de position en altitude, et la précision de la trajectoire jusqu’au point d’atterrissage ont été performants… seule la vitesse de l’engin à l’atterrissage, qui était trop importante, et qui a causé la destruction du prototype, a échappé au contrôle des ingénieurs de SpaceX.
Prochaine étape, le SN9 : ce nouveau prototype de Starship, quasiment achevé à l’heure qu’il est, sera équipé de 37 moteurs (contre 9 pour le SN8) et devrait mesurer près de 120 mètres de haut.
Le RobotOne de l’entreprise hollandaise Pixelfarming Robotics est un robot agricole intelligent conçu pour enlever les mauvaises herbes sans utiliser de pesticides. Ce robot s’adapte aux environnements biodiversifiés avec ses 10 bras, capables d’utiliser différents outils. Equipé de panneaux solaires, il navigue en toute autonomie grâce à ses caméras qui fonctionnent comme des yeux. L’utilisation de l’intelligence artificielle lui permette de faire face aux nombreux défis environnementaux et économiques à venir.
Une digue construite à partir de matériaux limoneux étanches.
La loi biodiversité de 2016 a pour but de réduire autant que possible les impacts environnementaux de projets d’aménagement. Entre Arles et Tarascon dans le sud de la France, il a fallu raser un corridor écologique qui tient un rôle primordial pour le déplacement des espèces et donc leur survie. L’idée a donc été de créer un bras mort le long du Rhône, qui permettra de rééquilibrer les niveaux hydrauliques et aussi d’utiliser la terre excavée pour la fabrication d’une digue, composée de matériaux limoneux étanches. Un nouveau corridor écologique sera donc crée le long de la digue avec des arbres, des arbustes sur plus de 7 km.
L’art devient accessible aux malvoyants grâce à la fabrication additive
Le Château Musée de Gien a lancé un projet qui vise à faire découvrir toutes les œuvres de sa collection aux personnes malvoyantes grâce au toucher. Les pièces sont modélisées à partir d’un bras de mesure Faro Edge 9 et elles sont imprimées en nylon blanc PA 12. Cette matière donne un aspect solide et flexible aux objets ; nécessaire pour permettre aux personnes malvoyantes de manipuler ces pièces.
L’effondrement du télescope d’Arecibo
Dans cette vidéo de la Fondation pour la science, on distingue l’effondrement du télescope d’Arecibo suite à la rupture de 2 câbles soutenant les 900 tonnes des instruments du télescope. L’accès était donc interdit par crainte d’un effondrement et seuls les drones avaient l’autorisation de survoler la structure.
Dans la vidéo, il ne faut que quelques secondes pour voir le télescope tomber et trouer une partie de la parabole. Malgré cette destruction, la station d’observation d’Arecibo ne devrait pas fermer ses portes. Un remplacement est déjà prévu mais « c‘est un processus qui dure plusieurs années et qui implique un financement du Congrès et des études sur les besoins de la communauté scientifique » souligne Ralph Gaume, le directeur des sciences astronomiques de la fondation.
De l’eau sur la lune : une découverte décisive
La Nasa a publié la preuve de la présence d’eau sur la Lune. Cette découverte donne un coup d’accélérateur à l’exploration spatiale. L’eau se présente sous la forme de molécules isolées et dispersées un peu partout dans la roche lunaire.
Selon les mesures effectuées au fond d’un cratère, il y aurait l’équivalent de 35 cl d’eau, soit la contenance d’une canette dans un mètre cube de sol lunaire. Avant de boire de l’eau de Lune en bouteille, le projet le plus ambitieux est de construire une base habitée d’ici la fin de la décennie.
Pour la première fois, des microplastiques ont été détectés dans les tissus de placentas humains à tous les niveaux. « Les microplastiques transportent avec eux des substances qui agissent comme des perturbateurs endocriniens et qui pourraient avoir des effets à long terme sur la santé humaine », s’inquiète l’étude à paraître en janvier dans le journal Environment International. Les chercheurs italiens redoutent notamment des dérèglements du système immunitaire et des effets transgénérationnels sur le métabolisme ou la reproduction.
Des microplastiques dans toutes les parties des placentas
Les chercheurs ont analysé six placentas humains, issus de grossesses et d’accouchement sans incident, à l’hôpital Fatebenefratelli de Rome. Au total, 12 microplastiques, de 5 à 10 micromètres (µm), de forme sphérique ou irrégulière ont été retrouvés dans quatre placentas. Cinq se trouvaient dans la partie fœtale, quatre dans la partie maternelle et trois dans la membrane amniotique qui tapisse la face interne du placenta. Ces tailles sont compatibles avec un possible transport par le système sanguin, préviennent les chercheurs. Ces derniers n’ont toutefois pas pu déterminer si ces microplastiques proviennent des organes respiratoires ou gastriques de la mère, c’est-à-dire s’ils ont été initialement ingérés ou inhalés.
Les douze particules sont colorées. Trois d’entre elles ont pu être identifiées comme étant du polypropylène coloré. Pour les autres, les chercheurs n’ont pas réussi à identifier le polymère, mais ont pu identifier les pigments qu’ils contenaient. Ainsi, les chercheurs affirment qu’il s’agit de microplastiques contenant des pigments que l’on retrouve classiquement dans les peintures, revêtements, adhésifs, enduits, cosmétiques et produits de soins personnels.
Le placenta, une interface importante
Pour chaque placenta, les chercheurs ont prélevé trois portions d’un poids moyen de 23 grammes du côté maternel, du côté fœtal et de la membrane amniotique. Le poids moyen d’un placenta s’élevant à 600 grammes, cela laisse supposer que le nombre de microplastiques total dans tout le placenta est beaucoup plus élevé.
Le placenta constitue l’interface entre le fœtus et l’environnement. Les embryons et les fœtus doivent s’adapter en permanence à l’environnement maternel et, indirectement, à l’environnement externe, par une série de réponses complexes. L’étude résume les risques potentiels : « Une partie importante de cette série de réponses consiste en la capacité à différencier soi-même et le non-soi, un mécanisme qui peut être perturbé par la présence de microplastiques. En fait, il est rapporté qu’une fois présents dans le corps humain, les microplastiques peuvent s’accumuler et exercer une toxicité localisée en induisant et/ou en accentuant les réponses immunitaires et, par conséquent, en réduisant potentiellement les mécanismes de défense contre les agents pathogènes et en modifiant l’utilisation des réserves d’énergie. »
Les impacts de la pandémie sont très larges. Dans les entreprises et les administrations, l’organisation des ressources humaines, d’un point de vue technique, a été chamboulée par le développement du télétravail, le recours au cloud et la multiplication des visioconférences.
Ce contexte très particulier transparait dans la dernière publication du cabinet Gartner, l’une des références dans le domaine des nouvelles technologies. Intitulée « Top Strategic Technology Trends for 2021 » ; elle confirme l’intégration grandissante de l’IA et du cloud en particulier.
Parmi les neuf technologies mises en avant dans le document du Gartner, deux concernent en particulier l’être humain. La première est l’IoB (Internet of Behaviors). Pour affiner la gestion de leurs collaborateurs, mais aussi de leurs clients, les entreprises pourraient s’appuyer sur l’internet des comportements.
Comportements dangereux des conducteurs
Les principales briques techniques de l’IoB sont d’ores et déjà disponibles et exploitées. Ce cabinet cite l’exemple d’un industriel qui a installé des étiquettes RFID pour vérifier que ses employés se lavaient régulièrement les mains. La vidéosurveillance lui permet également de s’assurer qu’ils portent correctement leur masque.
Autre exemple d’application de l’IoB : l’analyse des comportements des chauffeurs routiers. Grâce à des capteurs et des antennes GPS, les entreprises peuvent utiliser des données pour améliorer les performances, l’itinéraire, mais aussi la sécurité des conducteurs (freinages trop brusques dans les virages).
« D’ici 2025, la moitié de la population mondiale sera soumise à un programme privé ou gouvernemental d’IoB », a déclaré Brian Burke, vice-président de la recherche, lors du symposium virtuel Gartner IT Symposium/Xpo 2020. Mais il reconnaît aussi que des débats éthiques et sociétaux ne manqueront pas de se multiplier…
À l’opposé de cet IoB, qui peut sembler effrayant pour certains, le cabinet Gartner considère que la protection de la vie privée deviendra un enjeu majeur pour les entreprises. « Les nouvelles réglementations les obligeront à se préoccuper davantage de la protection de la vie privée », insiste Brian Burke.
Sans les citer, le vice-président de la recherche chez Gartner pense certainement au « Digital Service Act » européen, au « California Consumer Privacy Act » (que l’on peut considérer comme un équivalent au RGPD européen) et aux réglementations régionales en matière de respect de la vie privée qui continuent de se déployer en Australie, au Canada, au Brésil et partout dans le monde.
Du « bruit » pour plus de confidentialité
Brian Burke a évoqué de nouvelles méthodes de protection de la vie privée, telles que la « confidentialité différentielle » et le « cryptage homomorphe ». La première méthode n’est pas nouvelle puisqu’un document de recherche (Calibrating Noise to Sensitivity in Private Data Analysis) l’évoque dès 2006.
Schématiquement, elle consiste à rendre les données anonymes en injectant délibérément du « bruit » dans un ensemble de données, mais d’une manière qui permet toujours aux ingénieurs d’effectuer toutes sortes d’analyses statistiques utiles, mais sans qu’aucune information personnelle ne soit identifiable.
Le second procédé permet à des tiers de traiter des données qui sont pourtant chiffrées et de renvoyer un résultat chiffré au propriétaire des données, tout en ne fournissant aucune connaissance des données ou des résultats. Le Gartner prévoit que, d’ici 2025, la moitié des grandes organisations mettront en œuvre des méthodes respectueuses de la vie privée pour le traitement des données.
29,15 %. C’est le nouveau record du monde d’efficacité de conversion de la lumière solaire en énergie électrique, rapporté le 11 décembre 2020 dans Science. Plus précisément, la cellule solaire étudiée a pu maintenir 95 % de son efficacité initiale après 300 heures de fonctionnement. Les chercheurs du Helmholtz-Zentrum Berlin für Materialien und Energie sont ainsi parvenus à supplanter les 28 % du record précédent. Comment ont-ils procédé pour réussir leur coup ? Tout d’abord, ils ont opté pour une cellule solaire composée de deux semi-conducteurs, chacun ayant une bande interdite* différente. Un tel tandem emploie plus efficacement le spectre solaire que les simples cellules individuelles. En effet, la cellule pérovskite/silicone choisie par les scientifiques associe la capacité de conversion des composants infrarouges par le silicone à celle du métal avec la lumière visible. Rien n’a été laissé au hasard. L’interface du substrat a été optimisée avant d’employer de la pérovskite avec une bande interdite de 1,68 électronvolt. Et le résultat était au rendez-vous !
La chimie verte se met à la peinture
Près d’un siècle que les revêtements, résines et peintures sont basés sur des monomères pétrochimiques comme les acrylates. N’existe-t-il donc aucune alternative, sachant que la production globale d’acrylates excède 3,5 milliards de tonnes par an ? Il y en aurait bien une, selon les chimistes organiques de l’université de Groningen et la compagnie multinationale néerlandaise AkzoNobel, productrice majeure de peintures et revêtements. Dans un papier publié le 16 décembre 2020 dans Science Advances, ils présentaient un revêtement durable basé notamment sur des matériaux verts abondants. Pour l’obtenir, les chercheurs ont eu recours à un processus photochimique. Ils sont d’abord partis de furfural, un composé chimique industriel dérivé de la biomasse, auquel ils ont appliqué une photo-oxydation. Avec les monomères d’alkoxybuténolides ainsi formés, ils ont procédé à une (co)polymérisation à l’aide d’ultraviolets, afin d’arriver au revêtement proprement dit. Ces films fins et robustes s’appliquent aussi bien sur du verre que sur du plastique, avec une polarité et une rigidité modifiables à l’envi. Les propriétés du revêtement étant finalement comparables aux acrylates, il pourrait être amené à les remplacer dans le futur.
Des microbes pour traiter sans consommer
Traiter les eaux usées municipales est gourmand en énergie. Des pompes sont chargées de mixer l’air et l’eau en continu, de manière à fournir aux bactéries l’oxygène dont elles ont besoin pour oxyder les matières organiques et autres contaminants. Pourtant, des chercheurs de la Washington State University ont réussi à diminuer la note énergétique avec leur propre système. Ce dernier est décrit en détail dans Bioelectrochemistry, en date du 16 décembre 2020. Leur invention s’appuie sur des piles à combustible microbiennes. En fait de piles, il s’agit de communautés microbiennes se développant sur des électrodes polarisées. Leur rôle revient à remplacer l’aération en échangeant des électrons avec lesdites électrodes. De plus, elles produisent de l’électricité ! Ainsi, le système de traitement est capable de fonctionner selon deux modes. Le premier s’auto-alimente grâce à l’intervention des piles à combustible microbiennes, et nettoie lentement les eaux usées. Le second, plus classique, emploie de nouveau les pompes avec l’électricité fournie par les communautés de microbes afin d’accélérer le processus. Après voir fonctionné sans interruption biologique ou électrique pendant un an, ce système double promet un traitement durable et sans failles.
*Selon la théorie des bandes, en physique de l’état solide, les électrons ne peuvent prendre que des valeurs d’énergie présentes dans des intervalles bien définis : ces intervalles sont séparés par des bandes d’énergie interdites, dites bandes interdites.
Comme toute nouvelle technologie, la 5G devra être compatible avec les enjeux climatiques et respecter le budget carbone disponible. « En l’absence de mesures complémentaires, la 5G est susceptible d’augmenter significativement les émissions, à la fois sur notre territoire, mais aussi à l’étranger via les importations de biens électroniques et l’utilisation de centres de données », alerte Corinne Le Quéré, présidente du Haut Conseil pour le Climat.
Dans un nouvel avis, le Haut Conseil pour le climat veut « maîtriser l’impact carbone de la 5G » pour le rendre compatible avec la trajectoire nationale bas carbone. Actuellement, l’empreinte carbone du numérique s’élève à environ 15 millions de tonnes équivalent de CO2, soit environ 2 % de l’empreinte carbone française. « Selon l’intensité du déploiement, l’impact carbone de la 5G pourrait ajouter entre 2,7 et 6,7 millions de tonnes de CO2 en 2030, la majeure partie provenant des émissions importées et le reste provenant de l’augmentation de l’utilisation de l’électricité, détaille Corinne Le Quéré. L’incertitude est très forte. Il faut toutefois anticiper dès maintenant les risques au regard de la trajectoire vers la neutralité carbone ». La consommation d’électricité additionnelle est tout aussi importante : entre 16 et 40 térawattheures (TWh), soit entre 6 % et 13 % de la consommation finale d’électricité des secteurs résidentiel et tertiaire en 2019.
Une hausse des émissions à maîtriser
Dans le scénario où la 5G est développée sans condition, l’impact carbone provient à 54 % de la production des terminaux, à 22 % du développement des réseaux et des datacenters et à 24 % de l’utilisation des réseaux, des terminaux et des datacenters. Cinq catégories d’acteurs peuvent aider à mieux maîtriser cet impact carbone, rapporte le HCC. Il s’agit des opérateurs, de l’État et ses agences, des collectivités locales, des fabricants de terminaux, ainsi que des fournisseurs et utilisateurs, entreprises et particuliers.
Pour maîtriser l’impact carbone à venir de la 5G, le HCC recommande de mener des études d’impact environnemental au moment de l’allocation des fréquences. Et ce, pour s’assurer que les opérateurs respectent les trajectoires climatiques. Le HCC invite ainsi l’Autorité de régulation des communications et des postes (Arcep) à proposer des engagements de maîtrise des émissions aux opérateurs dans le cahier des charges d’utilisation des fréquences de la 5G. « Les émissions associées à ce nouveau standard de téléphonie mobile vont dépendre de plusieurs facteurs : des modalités retenues par les opérateurs, de l’évolution de l’offre de services numériques et des usages potentiels par les entreprises et les particuliers et finalement du renouvellement des terminaux », conclut Corinne Le Quéré.
Ces vingt à trente dernières années, le nombre de publications scientifiques a explosé. En cause, le développement des logiciels de traitement de texte qui facilitent la production de ces documents et l’arrivée d’Internet qui permet de les diffuser massivement. L’évaluation des chercheurs en fonction de leur nombre de publications explique également ce phénomène. Face à ce foisonnement, la communauté scientifique peine à détecter et à corriger d’elle-même toutes les erreurs publiées. Un projet de recherche baptisé NanoBubbles va se pencher sur ce problème. Financé par une bourse de l’ERC (European research council) Synergy, ce travail de recherche va tenter de comprendre pourquoi, quand et comment la science échoue à se corriger elle-même. Il se concentrera uniquement sur le domaine de la nanobiologie et regroupera une équipe française et néerlandaise multidisciplinaire. Avec les autres membres de ce projet, notamment une bibliothécaire et linguiste ainsi que des informaticiens, Cyril Labbé aura pour mission de développer des algorithmes pour décortiquer automatiquement les articles scientifiques. Entretien avec ce maître de conférences à l’Université de Grenoble-Alpes et membre du Laboratoire d’informatique de Grenoble.
Techniques de l’Ingénieur : Pour quelle raison avez-vous rejoint le projet NanoBubbles ?
Cyril Labbé, maître de conférences à l’Université de Grenoble-Alpes et membre du Laboratoire d’informatique de Grenoble. Crédit photo : Cyril Labbé
Cyril Labbé : Je suis spécialiste de la détection des erreurs et de leur propagation dans la littérature scientifique. Mon travail porte sur le traitement automatique des langues et des bases de données. J’ai créé un premier outil informatique capable de détecter de fausses publications générées automatiquement par SCIgen, un logiciel créé par des étudiants du MIT (Massachusetts Institute of Technology). Il est capable de générer une publication de 4 à 5 pages, dans un anglais très correct sauf que le texte n’a aucun sens puisque les mots choisis sont hors contexte. Certains de ces articles ont été édités par les éditeurs comme IEEE et Springer. J’ai également développé un second outil capable de parcourir les documents pour en extraire les séquences de nucléotides (molécules organiques à la base des acides nucléiques comme l’ADN et l’ARN, NDLR.) et de comprendre la description qui en est donnée. Par exemple, s’il est écrit qu’une séquence de nucléotides a une homologie avec le génome (l’ensemble des gènes d’une espèce ou d’un individu, NDLR.) humain, le logiciel va automatiquement le vérifier. Plusieurs erreurs ont ainsi pu être détectées, ce qui a permis de retirer les publications erronées.
Quel va être votre travail au sein de ce projet ?
Nous allons développer des algorithmes capables de rechercher les papiers qui avancent une idée ou son contraire. Il s’agit d’aller beaucoup plus loin qu’une simple recherche par mot-clé. Le travail va se faire en plusieurs étapes. Une première consistera à retrouver ce qu’on appelle les entités nommées. Par exemple, en biologie, il existe une grande quantité de gènes, mais de nombreux ont des homonymes. Nous devons donc être capables de les différencier. L’étape suivante consistera à comprendre les relations entre deux entités, à l’aide entre autres de l’extraction de triplets RDF (Resource Description Framework). Nous allons par exemple analyser le lien entre une nanoparticule décrite dans un texte et la barrière hémato-encéphalique (barrière physiologique séparant la circulation sanguine et le système nerveux central dont le cerveau, NDLR.) c’est-à-dire sa capacité à pénétrer dans le cerveau. Certaines publications affirment qu’une même nanoparticule a cette aptitude et d’autres décrivent le contraire. La représentation abstraite du texte, notamment grâce aux triplets RDF, va permettre de représenter la subtilité du texte et donc d’identifier les publications en conflit.
Quels sont les autres outils développés ?
Nous allons poursuivre notre recherche dans le domaine du traitement automatique des langues, cette fois-ci en utilisant l’argument mining. Il s’agit de techniques permettant d’extraire les arguments avancés dans un texte pour supporter une affirmation. Nous utiliserons aussi des outils déjà existants et capables de classifier des citations et des références présentes dans un texte et d’analyser si elles sont positives, négatives ou neutres vis-à-vis d’un autre texte. Le but est de savoir si une publication s’oppose ou valide un concept décrit dans un autre article ou tout simplement que son contenu est relié à celui-ci. L’outil le plus connu capable d’accomplir cette tâche a été créé par la start-up américaine Scite.ai. Nous allons aussi développer nos propres algorithmes. Le « machine learning » (l’apprentissage automatique) et les réseaux de neurones ont fait d’énormes progrès ces dernières années et font partie des outils incontournables. Mais la principale limite dans leur utilisation est la disponibilité du corpus d’apprentissage. Ces outils nécessitent en effet d’être pré-entraînés. Pour l’instant, il y a clairement des barrières à franchir pour faire en sorte qu’ils fonctionnent correctement dans notre travail de recherche.
Combien de temps va durer ce travail de recherche ?
Il se terminera en 2025 ; pour l’instant, il vient à peine de débuter. Ce projet va se limiter au domaine de la nanobiologie, mais nous espérons que les résultats obtenus pourront ensuite être applicables à d’autres domaines et à tous les articles scientifiques publiés.
En France, la quasi-totalité des eaux usées traitées dans des stations d’épuration sont rejetées dans des ruisseaux, des fleuves ou la mer. Moins de 1 % de ce volume est réutilisé alors qu’en Espagne et l’Italie, il est compris entre 5 et 10 %. Le Mexique, l’Australie ou encore Israël vont beaucoup plus loin puisqu’il atteint 50 voire 60 %. La plupart des pays confrontés à des climats arides avec des problématiques d’accès et de rareté aux ressources en eau ont développé la REUT (Réutilisation des eaux usées traitées). Face au réchauffement climatique et aux sécheresses à répétition, il est fort à parier que la France va elle aussi devoir plus largement recourir à ce procédé.
Les usages sont multiples : irrigation des cultures, arrosage des parcs et jardins, des golfs, nettoyage des voiries… Certains pays comme Singapour vont jusqu’à utiliser cette eau recyclée comme eau potable pour être ensuite consommée par la population. Bien sûr, les conditions d’utilisation de cette eau sont encadrées par des réglementations afin de prévenir tous risques sanitaires. Car les eaux résiduaires urbaines, même traitées par une STEP (Station d’épuration des eaux usées), contiennent divers micro-organismes pathogènes et des éléments organiques et minéraux potentiellement toxiques.
La qualité de l’eau est encadrée par la réglementation
Depuis 2010, la France encadre la REUT à travers un arrêté revu en 2014. Les textes fixent des exigences de qualité d’eau en sortie de STEP allant de A à D en fonction des usages. Ainsi, l’irrigation des vignes et des arbres fruitiers nécessite une eau classée C. Tandis que pour les plantes maraîchères dont la partie comestible est au contact avec l’eau de récupération, celle-ci doit être de classe A. Pour chaque classe, des seuils de présences de pathogènes comme les coliformes, les entérocoques, les salmonelles… sont à respecter.
Des salades et des poireaux sont cultivés dans des bacs hors sols sous serre afin d’analyser la présence de polluants organiques.(Crédit : INRAE)
Face à la libre circulation des denrées alimentaires en Europe, un règlement européen publié en mai dernier est venu harmoniser les règles relatives à l’irrigation agricole dans toute l’Union. Certains seuils à ne pas dépasser se sont durcis. Par exemple, pour une eau de qualité A, la présence d’Escherichia coli ne doit plus excéder 10 UFC (Unité formant colonie) par ml alors que le cadre français fixait la limite à 250. Mais en contrepartie, certaines précautions supplémentaires ne sont plus exigées comme la vitesse du vent au moment de l’irrigation ou alors la proximité avec des personnes ou des chemins.
Des essais sont conduits sur une plate-forme expérimentale dans l’Hérault sur laquelle poussent des vignes, de la luzerne et des arbres fruitiers. (Crédit : INRAE)
Depuis 2017, l’INRAE expérimente ce procédé pour irriguer des cultures. Des essais sont réalisés sur une plate-forme expérimentale d’un demi-hectare à Murviel-lès-Montpellier dans l’Hérault. Sa localisation n’est pas anodine puisque depuis plusieurs années, l’Occitanie est confrontée à une raréfaction de la ressource en eau et à des conflits d’usages.
Des nutriments permettent de fertiliser les plantes
Plusieurs techniques de traitement de l’eau sont testées comme les procédés membranaires. « Les eaux recyclées contiennent de l’azote et phosphore, explique Nassim Ait Mouheb, chargé de recherche à l’INRAE et à l’UMR G-Eau. En partenariat avec l’Institut européen des membranes, nous testons un bioréacteur à membrane capable de garantir les exigences de qualités sanitaires de l’eau tout en laissant passer les nutriments. L’irrigation à partir de la REUT permet ainsi un apport d’eau aux plantes mais aussi une fertilisation ». Dans une publication à paraître prochainement, les chercheurs doivent démontrer que des salades irriguées avec une eau issue de STEP ont vu leurs rendements augmenter de 40 %.
Cette eau recyclée provoque par contre la formation de biofilms sur les systèmes d’irrigation. Il s’agit de l’apparition de colmatage lié à la croissance bactérienne à l’intérieur de ces systèmes, notamment au goutte-à-goutte. « Les biofilms provoquent une réduction de l’efficience et de la durabilité des systèmes d’irrigation, analyse le chercheur. Nous testons différents procédés de nettoyage. Par exemple, en associant la chloration à la purge, nous avons démontré qu’il est possible de réduire de manière efficace ces biofilms. Des travaux sont en cours de développement afin de concevoir un capteur et être ainsi informé dès le départ de l’apparition du colmatage pour intervenir rapidement et de manière plus efficace. »
Des polluants médicamenteux peu présents
Sur le plan sanitaire, l’INRAE évalue l’impact de certains pathogènes présents dans ces eaux recyclées sur les plantes et le sol. Dans une étude parue dans la revue Science of the Total Environment en octobre, les chercheurs ont analysé la présence de polluants organiques, notamment médicamenteux, sur des laitues et de poireaux, après deux années d’irrigation au goutte-à-goutte. Ces deux plantes ont volontairement été sélectionnées car les légumes verts à feuilles présentent un potentiel élevé d’absorption de contaminants organiques. Les résultats ont révélé une accumulation limitée de ces polluants dans le sol et les feuilles des plantes, leurs niveaux de concentration étant de l’ordre de quelques nanogrammes par gramme. « Pour absorber l’équivalent d’un gramme de paracétamol, une personne devrait manger une tonne de salade, ajoute Nassim Ait Mouheb. Avant de rencontrer des problèmes de santé liés à la présence de ces médicaments, elle aura d’autres problèmes liés aux quantités consommées ». Les chercheurs veulent à présent se pencher sur le degré de salinité de ces eaux qui peut poser un problème dans le sol puis à moyen terme sur la plante.
Si, dans le futur, la REUT semble être une solution incontournable pour mieux répondre aux tensions sur les ressources en eau en France, cette pratique pourrait entraîner une augmentation du prix de l’eau dans certains territoires. Les procédés de traitements supplémentaires de recyclage ont en effet un coût. Des réflexions sont en cours à l’INRAE sur la conception de STEP décentralisée. Il s’agirait de créer des mini-stations d’épuration implantées au plus près de la production, dans un lotissement par exemple, et dont l’eau recyclée serait réutilisée pour un usage local. Avant son développement massif, la REUT devra se confronter à la perception de la population. Les consommateurs sont-ils prêts à manger des salades irriguées avec des eaux usées traitées ? Une attention particulière devra aussi être portée sur l’impact de ce procédé sur le débit de certains cours d’eau. L’utilisation des eaux en sortie de STEP, qui habituellement sont rejetées dans le milieu naturel, ne doit pas contribuer au phénomène d’étiage rencontré en été.
Une mission bien engagée, jusqu’au premier confinement de mars 2020. Depuis, la maison Christofle a dû s’adapter à un contexte sanitaire et économique particulier, tout en maintenant le cap pour poursuivre la transformation engagée par l’entreprise. Techniques de l’Ingénieur a rencontré Nathalie Remy, CEO de Christofle.
Yves Valentin : Qu’est-ce qui fait la particularité de la maison Christofle ?
Nathalie Remy : la maison Christofle a été fondée en 1830. C’est une ETI très complexe. Elle est très internationale, puisque le chiffre d’affaires en France ne représente que 20% du chiffre d’affaires total. Nous sommes distribués dans près de 70 pays, où nous faisons de la distribution en direct, en indirect, et en B to B, avec un catalogue d’à peu près 4500 références. Opérer dans plus de soixante-dix pays, pour une ETI, est un véritable défi, notamment au niveau logistique.
Quels objectifs aviez-vous fixés pour l’entreprise lors de votre arrivée en 2018, avant que ne survienne le premier confinement deux ans plus tard ?
Ma mission quand je suis arrivée était de « réveiller la belle endormie », si je puis dire. Nous étions très bien partis, avant que ne survienne au mois de mars dernier la crise sanitaire, suivie d’une crise économique.
Ce premier confinement a été un choc brutal, qui nous a obligés à nous adapter très rapidement et à mettre en place de nouvelles pratiques. Nous y sommes parvenus, et l’expérience accumulée à cette occasion nous a servi lors du second confinement, qui a été pour nous beaucoup plus facile à gérer que le premier.
Nous avions déjà une organisation du travail distancielle, donc il a été facile de revenir au télétravail pour les postes qui le pouvaient lors de ce second épisode.
Aussi, lors du premier confinement nous avons stoppé la manufacture pendant deux mois. Il a donc fallu gérer l’arrêt, puis la relance des ateliers. Lors de ce second confinement nous avons maintenu toutes les opérations, en appliquant tout le protocole sanitaire que nous avions mis en place à la sortie du premier confinement. Cela a été beaucoup plus simple à mettre en œuvre.
Pensez-vous que les évolutions des modes de travail mis en place à l’occasion de cette crise sanitaire vont perdurer sur le long terme ?
Évidemment, le premier confinement, puis le second, encore en cours [à date de cette interview, NDLR.], ont profondément bouleversé nos modes de travail. Aujourd’hui, outre les incertitudes sur l’avenir, nous réfléchissons à ce qui va rester de cette période. Quelles évolutions allons-nous conserver, lesquelles allons-nous abandonner ? Nous ne le savons pas encore. Nous sommes passés au digital, nous avons mis en place des visioconférences, nous avons organisé tous les mois des plénières virtuelles, auxquelles tout le monde avait la possibilité de participer. Nos modes de communication ont drastiquement évolué durant cette période.
Un des bons côtés de cette crise, si je puis dire, c’est que cela a permis à tous les collaborateurs de serrer les rangs : la solidarité entre les équipes s’est grandement renforcée. Nous avons le sentiment d’être plus forts désormais, le fait d’avoir surmonté cette crise, qui n’est pas terminée, nous donne beaucoup de confiance pour l’avenir.
En termes de management par exemple, il s’est avéré nécessaire d’être dans une logique de proximité, pour appréhender au mieux les réactions différentes des collaborateurs à la situation inédite que nous traversions. Ce management de proximité s’est révélé primordial, nous nous en rendons compte aujourd’hui.
Le second confinement (qui a débuté le 29 octobre et a pris fin le 15 décembre) fait place aujourd’hui à un contexte qui reste tendu. Quelle est la situation aujourd’hui pour Christofle ?
Ce second confinement a été plus limité dans le temps, et donc plus facile à gérer, notamment au niveau du chiffre d’affaires, puisque tous les pays ne se sont pas confinés en même temps. C’est principalement l’Europe qui a été touchée par ce second confinement. Il a donc fallu s’adapter à cette réalité.
Concrètement, cela nous pousse au niveau commercial à se réinventer sans cesse, à faire de la vente à distance, que ce soit du B to B, du B to C… nous avons également mis en place le click and collect. De ce point de vue, la crise du coronavirus est un accélérateur de changement incroyable.
Après, si on regarde la situation depuis le mois de mars 2020, il est certain que l’impact économique est important pour une maison comme Christofle, qui a subi de plein fouet le ralentissement économique, en France et dans le reste du monde.
Nous avions fait un début d’année 2020 avec une croissance à deux chiffres, et le 15 mars a constitué un gigantesque coup d’arrêt : en avril, nous avons perdu 80% de notre chiffre d’affaires. Par la suite, cela est remonté progressivement, et je suis fière de vous dire que nous avons bouclé le mois d’octobre en croissance. Nous avons rebondi mieux que ce que nous pouvions espérer. Au final, sur 2020, nous devrions être sur une baisse de chiffre d’affaires de 15 à 20% par rapport à 2019.
Dans quelle mesure la stratégie mise en place lors de votre arrivée a-t-elle été impactée par la crise sanitaire ?
Ce qui est important dans la tempête, c’est de garder le cap. Dans ce contexte, très incertain, nous avons décidé de garder le cap et de conserver notre stratégie. Quitte à en modifier le planning : nous avons rééchelonné certains projets, décalé certains investissements dans le temps, mais sans jamais changer de cap.
Notre stratégie est simple. Nous avons une nouvelle mission de marque, qui est de développer l’art du partage. Nous voulons réaffirmer notre légitimité en tant que première marque française d’orfèvrerie de luxe.
Au niveau mondial nous voulons travailler sur la désirabilité de notre marque, et concentrer nos efforts sur les secteurs les plus dynamiques : en termes géographiques ce sera par exemple la Chine, en termes de circuits de distribution ce sera le e-commerce… et bien sûr nous devons développer des produits innovants, tant par le design que par l’usage, pour coller aux us et coutumes de 2020.
Nos moteurs de croissance sont tous allumés dans la période actuelle : la Chine est en plein boom, le e-commerce aussi, et les lancements que nous avons faits sur les dix-huit derniers mois rencontrent un grand succès. Tout cela nous donne beaucoup d’espoirs pour l’avenir, même si à court terme nous subissons des vents contraires au niveau économique. Nous avons beaucoup de signaux très positifs sur les zones contributrices à notre croissance future, c’est cela qui nous motive.
Pour revenir sur la Chine, Christofle y est implanté depuis 1996, mais nous avons réellement accéléré nos efforts là-bas depuis un an. Nous avons pour le moment peu de boutiques sur place : deux points de vente à Shangaï et deux également à Hong-Kong. D’où l’importance de la vente en ligne. Nous avons donc développé cette solution en mai 2020 pour la Chine en ouvrant notre flagship sur TMall Luxury Pavilion. Nous sommes aussi présents pour équiper tous les projets hôteliers de luxe et les nouveaux restaurants qui ouvrent dans ce pays. Et ils sont nombreux.
Au niveau mondial, nous avons aussi relancé un site de e-commerce dans chacun des pays suivants : France, Royaume-Uni, Japon, Etats-Unis et une boutique monde, en formant les collaborateurs à distance sur ces évolutions, vu la situation sanitaire.
La mise en place de ces sites de e-commerce est pour nous une forme d’amélioration continue.
Au-delà des circuits de distribution, quelle stratégie est mise en place sur l’innovation produit ?
En termes de produits, nous travaillons aujourd’hui à la fois sur l’innovation d’usage et l’innovation technologique, pour pouvoir offrir plus de personnalisation, plus de produits originaux… Il s’agit aujourd’hui d’une grande demande des consommateurs.
Nous avons réorganisé notre offre en 5 univers, pour sortir de la vision par produit :
Deux univers “moments de partage” – repas et bar, et trois univers de cadeaux – “pour eux”, “pour elle et lui” (bijoux et accessoires), et les cadeaux pour les enfants. Nous sommes ainsi passés d’une vision industrielle des produits à une vision de marque. C’est une évolution très importante.
Pour une maison familiale comme Christofle, comment s’organise la gestion et la transmission des savoir-faire ?
Nous avons été installés pendant des décennies à Saint-Denis, mais aujourd’hui notre seule manufacture est à Yainville en Normandie, où nous sommes installés depuis 1972.
C’est notre seul outil de production. D’ailleurs, notre manufacture est au cœur de notre stratégie de transformation de marque et d’entreprise.
Nos savoir-faire historiques sont aujourd’hui indispensables à Christofle, pour pouvoir à la fois réaliser des produits d’exception, comme la haute orfèvrerie, avec une qualité irréprochable, et assurer une bonne performance semi-industrielle, puisqu’il y a encore beaucoup de travail manuel dans notre activité.
C’est une nécessité pour nous, afin d’assurer la pérennité de l’entreprise. Nous avons à l’heure actuelle un certain nombre de projets en cours, notamment pour internaliser certaines productions qui ont été sous-traitées au cours de la dernière décennie. Cela va nous permettre de renforcer notre leadership technologique à Yainville, et de flexibiliser toute notre chaîne d’approvisionnement, avec un projet dédié.
Avec la volonté de faire du « made in France » ?
Le “made in France” est important bien sûr, mais nous cherchons, de notre côté, à valoriser dans un premier temps le “made in Christofle”. Nous voulons offrir une qualité “made in Yainville”, et nous sommes à l’heure actuelle en mesure d’offrir cette qualité, à un coût raisonnable, parce que nous disposons des savoir-faire dans notre manufacture.
Les savoir-faire d’orfèvre sont à la fois des savoir-faire artistiques, mais aussi des savoir-faire axés sur les process industriels. Ces savoir-faire là se situent surtout au niveau des collaborateurs : avoir le bon geste, l’expérience…
Quelles dispositions mettez-vous en place afin de conserver ces savoir-faire au sein de la maison Christofle ?
Nous avons mis en place tout un plan de sauvegarde des compétences. Nous allons devoir faire face à une grosse vague de départs à la retraite dans les cinq prochaines années, et nous devons anticiper, même si cela est compliqué dans un contexte de crise. Nous sommes obligés de recruter des ressources aujourd’hui pour avoir le temps de les former. Pour vous donner une idée, il faut à peu près cinq ans de formation pour apprendre à un graveur à reproduire nos matrices. C’est donc quelque chose qu’il faut absolument anticiper. C’est pour cela que nous avons vocation à internaliser les compétences au maximum, pour que notre manufacture fonctionne à pleine capacité.
Pour autant, il est aujourd’hui clair que nous allons garder une activité de sous-traitance, car nous sommes orfèvres, pas porcelainiers ni cristalliers. Nous avons des partenaires de très longue date, notre porcelaine est réalisée par l’entreprise Bernardaud à Limoges, et notre cristal à la cristallerie de Montbronn.
Nous n’avons pas vocation à investir dans ces savoir-faire industriels, nous préférons maintenir des collaborations avec les meilleurs partenaires externes.
Le made in France, et le made in Christofle en particulier, sont donc des objectifs vers lesquels nous tendons un peu plus chaque année. Mais il faut bien comprendre que ce genre d’ambition ne se développe et ne se concrétise que via une stratégie pensée sur du long terme.
Au début des années 2000, il y a eu un gros mouvement de sous-traitance chez Christofle. J’ai, depuis mon arrivée, pris les décisions pour inverser cette tendance, et nous sommes actuellement dans un mouvement de réindustrialisation, notamment grâce aux aides qui existent pour nous accompagner dans cet effort.
Cette démarche de “made in Christofle” a donc comme objectif principal de mieux maîtriser votre outil industriel et la qualité des produits ?
Tout à fait. Et nous voulons également être plus réactifs pour nos clients. Si nous voulons réellement conserver nos savoir-faire, il faut donner du travail à nos ouvriers. Et pas seulement du travail répétitif, il faut également qu’ils développent des compétences diversifiées, et soient impliqués dans l’innovation. Tout cela doit également s’accompagner d’une diversification des techniques de fabrication dans notre manufacture.
C’est quelque chose de très important pour moi. Je crois beaucoup à la polyvalence, et à la possibilité pour nos ouvriers d’avoir des carrières riches et de développer des savoir-faire diversifiés et complémentaires tout au long de leur carrière. Cela participe aussi à fidéliser dans la durée les collaborateurs au sein de l’entreprise.
Envisagez-vous de développer une école interne, comme cela peut se voir en Allemagne ?
La formation diplômante fait partie des pistes de réflexion, puisqu’il n’existe pas aujourd’hui de diplôme d’orfèvre, et je pense que Christofle est la meilleure école pour apprendre ce métier. Aujourd’hui, notre urgence à ce niveau est d’assurer le bon passage de témoin dans les cinq années qui viennent, pour gérer les départs à venir, comme je vous l’expliquais tout à l’heure.
Christofle est une ETI familiale, et quand vous allez à notre manufacture à Yainville, vous vous rendez compte que c’est une famille au sens propre, comme au figuré. Beaucoup d’ouvriers ont des parents, des cousins, des frères ou des sœurs qui sont passés par la maison Christofle.
C’est aussi pour cela que notre priorité aujourd’hui, c’est que le patrimoine vivant de Christofle en termes de savoir-faire soit sécurisé.
Beaucoup de nos ouvriers sont des passionnés, qui travaillent bien au-delà de l’âge de la retraite. Ce qui est une aubaine pour nous, puisque cela nous laisse plus de temps pour appréhender la transmission des savoirs. Et in fine cela laisse plus de temps aux jeunes pour prendre la relève.
Conserver les savoir-faire et les traditions, tout en modernisant la marque, constitue-t-il un défi complexe ?
Mon challenge au quotidien, depuis deux ans et demi, c’est de moderniser l’entreprise tout en conservant ce qui a fait la force de Christofle dans le passé. Il nous faut nous réinventer tout en respectant les traditions, en restant authentiques.
Nous devons faire en sorte que la pérennisation des savoir-faire ne se fasse pas au détriment de l’innovation. C’est d’ailleurs ce que nous remarquons avec certains jeunes qui arrivent chez nous : au contact des plus anciens, ils apprennent les savoir-faire tout en étant force de proposition, pour faire évoluer les choses. Cela va dans le bon sens selon moi. C’est cette tension entre héritage et modernité qu’il nous faut gérer.
Quels sont les contours stratégiques de cette modernisation ?
La première étape pour nous était la modernisation dans la fabrication. Notre usine de Yainville est une usine semi-manuelle. Quand vous avez un couvert Christofle entre les mains, il a été auparavant touché par près de 100 mains entre la plaque d’argent brute et le produit fini emballé. Le travail reste donc très manuel. Mais ce n’est pas pour ça qu’on ne peut pas imaginer d’automatiser ou de moderniser certains process, au contraire.
Nous réfléchissons beaucoup aux moyens nous permettant d’améliorer la qualité de vie au travail. Par exemple, nous avons décidé de mettre en place des éjecteurs automatiques au matriçage. Les collaborateurs ne sont plus obligés à chaque fois d’aller chercher la pièce au fond de la matrice. Cela permet de réduire les risques de TMS (troubles musculosquelettiques) pour les collaborateurs qui accomplissent ces tâches.
A côté de ces innovations sur les process, nous cherchons aussi bien évidemment à être performants en termes d’innovations technologiques. Il faut bien comprendre qu’historiquement, la maison Christofle s’est fondée sur l’innovation technologique, dès l’origine. En 1842, le vrai décollage de la marque s’est opéré quand Charles Christofle a déposé son brevet d’argenture électrolytique, ce qui a permis la production en masse de métal argenté. A l’époque, cela a offert la possibilité à toute une classe sociale, bourgeoise, d’accéder à une orfèvrerie jusque-là inaccessible financièrement pour elle. Cette époque signe d’ailleurs le début de la révolution industrielle française, et Charles Christofle était à cette époque un visionnaire en termes d’innovation industrielle.
Déposer des brevets fait-il partie de la stratégie d’innovation de Christofle ?
Depuis plusieurs décennies, Christofle n’a déposé aucun brevet. Une de nos ambitions est d’en redéposer dans l’avenir. Si nous voulons être leaders sur notre secteur, c’est notre maison qui doit développer des nouveaux procédés. Nous avons à l’heure actuelle des tests en cours, notamment en ce qui concerne les traitements de surface. Nous allons bientôt déposer, je le pense, un brevet pour de la dorure partielle en or rose. Nous avons aussi des pistes pour produire de l’argent noirci… toutes ces innovations ont pour objet d’animer notre offre, pour proposer à nos clients toute une palette de finition, avec une différenciation retardée sur la chaîne de production.
Le défi logistique est également important pour Christofle, dont la clientèle est présente dans plus de soixante-dix pays. Comment cela est-il appréhendé ?
La logistique et plus particulièrement la chaîne d’approvisionnement constituent le second pan de notre stratégie d’innovation. Nous sommes une ETI, mais nous vendons nos produits dans plus de 70 pays. Nous avons des rotations unitaires faibles et des valeurs unitaires de produits élevées : en bref, nous savons que nous allons vendre des produits, mais sans savoir exactement dans quel pays. C’est là que réside notre challenge.
Si nous décidons de rapprocher les stocks de nos clients pour résoudre cette problématique, cela nous coûte très cher en stocks. Si nous n’avons pas de stock, les délais de livraison vont mécontenter nos clients.
Le modèle que nous avons imaginé s’étale sur plusieurs niveaux, avec la création d’entrepôts régionaux, nous permettant de rapprocher les stocks des marchés.
Concrètement, nos boutiques auront moins de stock, mais elles seront situées à 24/48 heures d’un entrepôt auprès duquel elles pourront se réassortir. Nous conserverons notre entrepôt monde en Normandie, qui fournira les entrepôts régionaux.
Tout cela est en train d’être mis en place.
Nous avons déjà un entrepôt au Japon. En 2021 nous mettons en place un entrepôt en Chine, et en 2022 un autre en Amérique pour couvrir les besoins du continent entier.
Tout cela s’opère dans un contexte de mise en place d’un nouvel ERP, en mai 2021, qui nous permettra de piloter tous ces flux, avec un modèle beaucoup plus basé sur de la planification qu’il l’est actuellement.
Au niveau de notre manufacture à Yainville, nous avons recréé des stocks de produits semi-finis, qui avaient disparu en 2018, de manière à être plus réactifs, en ne travaillant que sur l’aval de la chaîne de production et pas sur l’amont. Ainsi, en 18 mois, nous avons créé 220 000 pièces de produits semi-finis, ce qui nous permet d’être beaucoup plus réactifs à la demande. Grâce à cela nous pouvons fournir nos clients en six semaines, alors qu’on était parfois sur un délai de six à neuf mois auparavant.
Au final, Christofle est en train de se transformer, malgré la crise sanitaire actuelle. Cette crise a-t-elle été une forme de catalyseur de changement pour l’entreprise ?
C’est certain ! Cette crise a été, comme je l’expliquais tout à l’heure, un accélérateur de changement.
Nous sommes 450 collaborateurs dans l’entreprise, et nous sommes engagés dans une véritable transformation. A mon niveau, trouver le bon dosage entre modernisation et respect des traditions est mon devoir quotidien. Cette transformation en cours commence à porter ses fruits, puisque nous sommes en 2020 en sur-performance, malgré le contexte. Pour moi, cela est dû à la qualité des équipes, avec une forte ambition commune. Ce succès repose également sur notre agilité et particulièrement notre capacité à accepter le fait que l’on peut se tromper. Il faut savoir se remettre en question, et garder une certaine souplesse. Je suis une fervente partisane des relations humaines, et je pense que la période que nous venons de traverser a fait tomber certaines barrières, liées à l’éloignement géographique, au fait que l’on ne prenait pas le temps nécessaire parfois… La période que l’on vient de vivre nous a permis d’établir des fondations, en termes de relations humaines, qui vont perdurer, j’en suis persuadée.
Propos recueillis par Yves Valentin, directeur général de Techniques de l’Ingénieur, et Pierre Thouverez, journaliste.
Mise à jour : Depuis mars 2021, Nathalie Remy n’est plus PDG de Christofle.
Le logiciel libre et open source gagne le secteur de l’agriculture où le numérique prend de plus en plus d’ampleur. Pour comprendre les enjeux de l’agriculture libre, nous avons échangé avec Morgan Meyer, directeur de recherche en sociologie des sciences et techniques au CNRS qui a publié ses travaux sur le sujet.
Techniques de l’Ingénieur : Comment peut-on définir l’agriculture libre ?
Morgan Meyer : L’agriculture libre comprend toutes formes de pratiques et de technologies qui visent à démocratiser, libérer et émanciper l’agriculture. En effet, les agriculteurs sont dans un système verrouillé dicté par les industries et les multinationales. Leur lutte se situe à plusieurs niveaux : les équipements, les semences et les logiciels. C’est un mouvement de fond : l’open source fait sens dans ces nouveaux mondes, que ce soit en biologie ou en agriculture.
Pourquoi l’agriculture veut se tourner vers l’open source ?
Des associations développent des logiciels et programmes libres, non propriétaires et privatifs, adaptés aux tâches des exploitations agricoles. Prenons l’exemple des États-Unis où un vent de contestation est monté chez les agriculteurs. Ils étaient frustrés que le fabricant de tracteur John Deere ait verrouillé les systèmes de ses machines. Ils étaient vraiment frustrés car il est légalement impossible de réparer soi-même un tracteur de la marque. Ils devaient alors faire appel à un technicien de l’entreprise ou d’un concessionnaire agréé qui vient avec des logiciels en main pour faire un diagnostic pour voir ce qui pose problème, quelle pièce est cassée. Ce logiciel va permettre de redémarrer le moteur du tracteur, sinon celui-ci ne va pas bouger. C’est une réparation chronophage qui coûte cher. Au début c’était une frustration technique et économique. Maintenant les agriculteurs demandent une Fair Repair Act, une loi qui autorise de réparer soi-même un tracteur. En 2017, les acteurs font pression sur John Deere pour avoir un nouveau cadre – le cas pour Apple également. C’est un gros changement, le combat est toujours en cours. Aux États-Unis, les gens sont un peu pessimistes. En Europe, il y a eu des débats. La Commission Européenne va instaurer un droit à la réparation, qui devrait entrer en vigueur l’année prochaine, en 2021. Ce hacking de tracteur a fait couler beaucoup d’encre.
Du côté du machinisme agricole, on parle également d’auto-construction d’équipements. Est-ce une solution ?
C’est une lutte que l’on a vu apparaître il y a 5 ou 6 ans avec des collectifs comme l’Atelier Paysan, une coopérative française spécialisée dans la conception de matériels agricoles, ou Farm Hack aux États-Unis, Angleterre et Pays-Bas. Ce sont des mouvements qui défendent un certain modèle d’agriculture plus écologique, respectueux, démocratique et moins capitaliste. Ce que je trouve intéressant, notamment dans le cadre de l’Atelier Paysan, c’est qu’ils proposent l’auto-construction de machines agricoles pour les rendre réparables et adaptables. Ils vont faire des tournées de recensement d’innovations paysannes en France, les analyser, les prototyper et essayer de les améliorer. Une fois validées, ils vont diffuser ces tutoriels, descriptions et plans très détaillés, étape par étape, avec le matériel nécessaire pour fabriquer sa propre machine. Mais en même temps, ils ont un positionnement politique qui vise à critiquer une forme d’agriculture jugée trop intensive et destructive, et vont se positionner en faisant référence à l’open source, au “do it yourself”. C’est à la fois un travail technique et éthique.
Le “do it yourself” est également promu dans les semences, comment cela se traduit-il ?
Des réseaux, comme Réseau Semences Paysannes en France dans les années 2000, se sont créés pour permettre d’échanger les semences au lieu de les acheter. C’est une lutte qui est présente en Europe (Espagne et Italie) mais également en Asie et en Amérique du Sud. En Inde par exemple, il y a un historique de lutte juridique et politique pour ne pas empêcher les paysans de cultiver, utiliser et échanger ses propres semences.
Le phytoplancton est présent partout, aussi bien dans les lacs que les océans. Il produit plus de la moitié de l’oxygène que nous respirons et représente la source quasi-exclusive de matière organique à la base des chaînes alimentaires océaniques. Le phytoplancton serait en outre une porte d’entrée potentielle des nanoparticules d’argent dans la chaîne alimentaire aquatique.
Image de l’absorption de nanoargent par l’algue brune-dorée Poterioochromonas malhamensis, réalisée par microscopie optique. Les nanoparticules perturbent le métabolisme de cette algue. (Crédit : Liu Wei, UNIGE)
Des perturbations à plusieurs niveaux
Les travaux dirigés par la professeure Vera Slaveykova de l’Université de Genève (UNIGE) et réalisés en collaboration avec l’Université de Californie Santa Barbara mettent pour la première fois en évidence la présence de perturbations métaboliques induites par les nanoparticules d’argent sur le phytoplancton.
Selon l’étude publiée dans le journal Scientific Reports, l’exposition de l’algue appelée Poterioochromonas malhamensi à des nanoparticules d’argent et aux ions argent (Ag+) dissous provoque ainsi des perturbations multiples :
peroxydation des lipides, provoquant un accroissement de la perméabilité de la membrane cellulaire ;
accroissement du stress oxydatif ;
photosynthèse moins efficace, ce qui réduit la production d’oxygène ;
Les résultats de cette étude indiquent en outre que les ions Ag+ produits par les nanoparticules d’argent sont le principal facteur de toxicité. Comme l’affirme Vera Slaveykova, dans le communiqué de presse de l’université de Genève : « Le nano argent est internalisé dans les cellules de l’algue par le mécanisme de phagocytose utilisé pour alimenter les cellules en matière organique. »
Elle ajoute ensuite : « Ces mesures ont été conduites à Genève par le docteur Liu en utilisant un microscope électronique à transmission (MET). Ce mécanisme d’entrée est seulement connu dans Poterioochromonas malhamensi ; nous ne savons pas s’il est présent pour d’autres espèces de phytoplancton. »
La métabolomique, un outil pour la détection précoce des perturbations en toxicologie environnementale
Pour mieux comprendre ces perturbations métaboliques, l’équipe internationale de chercheurs a exploité plusieurs outils à sa disposition, dont des études concernant la réponse physiologique et la métabolomique ciblée.
De plus en plus utilisée dans les sciences médicales et pharmaceutiques, l’approche métabolomique est une discipline récente, encore très peu employée en toxicologie environnementale. Cette étude démontre ainsi l’intérêt de cette technique pour la détection précoce de changements induits par des toxines, avant l’apparition d’effets plus globaux tels que l’inhibition de la croissance des algues.
Le cuivre est un métal largement utilisé dans tous les secteurs d’activité et chaque année, des millions de tonnes de cuivre sont extraites à travers le monde. Malheureusement, l’omniprésence de ce métal est associée à des problèmes de pollution des eaux et des sols.
De gauche à droite : diagramme schématique d’un réseau ZIOS ; cliché MEB d’un échantillon ZIOS-cuivre sur wafer silicium (crédit : Berkeley Lab)
La dépollution des métaux lourds par adsorption
Pour éliminer les métaux lourds des effluents, les industriels utilisent plusieurs méthodes : l’évaporation, la précipitation chimique, la coagulation-floculation, la photocatalyse ou encore la séparation membranaire. Malheureusement, les procédés de dépollution actuels ne permettent pas de séparer ces différents métaux de manière économiquement viable, ce qui empêche la récupération de nombreux métaux précieux.
La capture des métaux lourds par adsorption apparaît comme une solution de dépollution efficace et économique, mais elle nécessite de développer des matériaux adsorbants spécifiques à chaque métal à récupérer. Si des solutions existent pour l’adsorption du cuivre (adsorbants à base de carbone, de polymère, réseaux organométalliques MOF), aucune ne donne à ce jour entière satisfaction.
HOIF : une classe émergente de matériaux d’adsorption
Une nouvelle classe d’adsorbants, appelée HOIF (Hydrogen-bonded organic–inorganic frameworks), est en train d’émerger pour la séparation sélective. Dans un article publié dans Nature Communications, une équipe de scientifiques du Berkeley Lab présente un nouveau matériau entrant dans cette catégorie : le ZIOS (zinc imidazole salicylaldoxime supramolecule).
Jeffrey J.Urban et Ngoc T. Bui, du Molecular Foundry ainsi que leurs coauteurs affirment ainsi que les cristaux de ZIOS présentent les propriétés suivantes :
capture sélective des ions cuivre 30 à 50 fois plus rapide que les solutions actuelles ;
très bonne stabilité dans l’eau : jusqu’à 52 jours ;
capture sélective efficace en milieu acide (même à pH <3) ;
« Au début, j’ai pensé que c’était une erreur, car les cristaux de ZIOS ont une très faible surface spécifique, or il est communément admis qu’un matériau doit avoir une surface spécifique élevée pour que sa capacité d’adsorption le soit également et que la cinétique d’adsorption soit rapide, comme c’est le cas avec les autres familles d’adsorbants comme les PAF et les MOF ».
Comme le montrent les investigations complémentaires réalisées suite à ces observations, il est apparu que l’immersion de cristaux de ZIOS conduit au gonflement des nanocanaux présents dans ceux-ci (d’à peine 2-3 angströms, soit un peu plus que la taille d’une molécule d’eau). Cette extension des pores permet une meilleure circulation des molécules d’eau et des ions cuivre, ce qui facilite la réaction chimique qui a lieu entre les ions cuivre et le ZIOS.
Fort de ce succès, l’équipe de chercheurs entend maintenant explorer de nouvelles solutions d’élimination sélective pour d’autres polluants.
Durant 20 ans, Pascal Boulanger a travaillé dans la recherche au CEA sur différentes thématiques : le nucléaire, le solaire et les nanotechnologies. Lors de l’une de ses missions, il doit identifier des technologies, encore au stade de la recherche fondamentale, aptes à être transférées vers l’industrie. Il en repère plusieurs mais l’une d’elles l’intéresse plus particulièrement, celle des tapis de nanotubes de carbone verticalement alignés. Il décide alors de transférer lui-même cette technologie et de tenter l’aventure entrepreneuriale en créant sa start-up en 2013. Aujourd’hui, son entreprise compte 46 salariés et est sur le point de concevoir ses premiers prototypes industriels. Rencontre avec Pascal Boulanger, fondateur de Nawa technologies.
Techniques de l’Ingénieur : Quelle est l’origine de la technologie développée par votre start-up ?
Pascal Boulanger – Crédit photo Nawa Technologies
Pascal Boulanger : Au départ, il y a la découverte des nanotubes de carbone en 1991, un nanomatériau dont les propriétés de conductivité électriques et thermiques sont remarquables. Sauf qu’ils ressemblent à des spaghettis cuits dans une assiette, éparpillés dans tous les sens et extrêmement flexibles. Lorsque les chercheurs ont tenté de les intégrer dans des matériaux, ils ont rencontré énormément de difficultés. Les propriétés individuelles de ces nanotubes de carbone se trouvaient noyées dans le produit fini et, au final étaient fortement réduites. Le CEA a alors développé des tapis de nanotubes de carbone alignés qui ont la particularité d’être droits et parallèles les uns par rapport aux autres. Cette configuration a permis d’obtenir des propriétés globales bien supérieures à leurs propriétés individuelles, un peu comme si en additionnant un plus un, on obtenait trois. L’alignement de ces nanotubes a également permis de les intégrer plus facilement dans des matériaux.
Tapis de nanotubes de carbone – Crédit photo : Nawa Technologies
Aujourd’hui, quel est le savoir-faire de Nawa technologies ?
Il existe dans le monde plusieurs entreprises travaillant sur les nanotubes de carbone alignés. Par contre, nous sommes aujourd’hui la seule capable d’industrialiser cette technologie. Concrètement, nous fabriquons des tapis de nanotubes de carbone alignés sur de grandes surfaces et sommes en mesure de faire varier leur diamètre, l’espacement entre les tubes et la longueur en fonction des applications. Par exemple, pour concevoir des supercondensateurs, ces dispositifs de stockage d’énergie, nous fabriquons des tapis plutôt épais et denses, avec un grand nombre de nanotubes par cm². Alors que pour des matériaux composites, les tapis sont plutôt plus fins et moins denses.
Quels bénéfices apporte votre technologie aux matériaux composites ?
Nous travaillons avec des matériaux composites composés de plis de carbone empilés les uns sur les autres. Nos tapis de nanotubes de carbone alignés vont venir se positionner entre ces plis et ainsi renforcer l’endroit le plus fragile de ces matériaux. Ils vont permettre d’obtenir une résistance à la fatigue beaucoup plus importante. Par exemple, un matériau qui au départ pouvait endurer 5 000 cycles va voir sa limite repoussée à 50 000 cycles, soit une multiplication par 10. Autre exemple : lorsqu’on projette une bille sur un matériau composite classique, il va se briser ou subir des marques dès le premier impact. Grâce à l’ajout de nos nanotubes de carbone alignés, dix impacts seront nécessaires avant d’observer la moindre trace.
Et sur les performances des batteries automobiles ?
Grâce à nos tapis de nanotubes de carbone alignés, nous fabriquons des électrodes pour stocker de l’énergie. Ces nanotubes étant 50 fois plus petits que les électrodes actuelles, nous obtenons une surface spécifique, à l’intérieur des batteries, très importante et au final une capacité à stocker beaucoup plus de charges. Notre technologie va venir se greffer à des batteries déjà existantes fabriquées par nos clients. Nous allons ainsi contribuer à doubler voire à tripler l’autonomie de leurs batteries, celles-ci pourront atteindre 800 à 1 000 km. De plus, grâce à l’alignement de nos nanotubes, la vitesse de déplacement des ions, c’est-à-dire des charges électriques, se trouve fortement accélérée. En effet, contrairement aux batteries standard, ces déplacements ne subissent aucune tortuosité. Résultat : le temps de recharge des batteries est très rapide. Certains de nos clients ont calculé qu’ils devraient réussir à recharger leur batterie à 80 % en 5 minutes.
À quelle échéance ces batteries seront-elles commercialisées ?
Pour l’instant, nos résultats restent à l’échelle du laboratoire, mais étant donné que nous avons démontré notre capacité à fabriquer ces nanotubes de carbone alignés sur de grandes surfaces, le processus vers la phase industrielle va aller vite. Les performances ultimes dont je viens de parler arriveront sur le marché en 2025. D’ici là, un important travail de R&D est encore à réaliser, car concevoir des batteries reste toujours très complexe. Nawa technologies ne va pas fabriquer ces batteries du futur, mais va contribuer à ce que l’un de ses clients le fasse. Nous avons actuellement un projet en cours avec l’entreprise française Saft et qui est financé par l’ADEME. Nous travaillons également avec d’autres clients, mais je ne peux pas citer leur nom car nous sommes tenus par des accords de confidentialité.
Au-delà de son savoir-faire technologique, qu’est-ce qui différencie votre jeune entreprise ?
Nos valeurs environnementales. Pour faire croître nos tapis de nanotubes alignés, nous avons besoin de carbone. Nos concurrents utilisent du gaz, mais il est très peu dense. Nous avons fait le choix de travailler avec des liquides et à terme de l’huile végétale, dont le rendement est beaucoup plus élevé. Nous venons ainsi récupérer le CO2 capté par les plantes pour concevoir nos nanotubes de carbone alignés. Et à la fin de leur cycle de vie, ils seront dégradés pour à nouveau redevenir du CO2 ; on ferme ainsi la boucle du carbone. Nous construisons également nos usines de production afin qu’elles aient le moins de surface au sol et dans le but de réduire leur impact sur l’environnement. Tesla rencontre par exemple des problèmes en ce moment dans la construction d’une grande usine de batteries en Allemagne à cause notamment de l’arrachage d’arbres. Nos unités de production auront un impact au sol plus réduit d’environ un quart à un tiers.