Obsolescence : un mot pour de multiples formes

Un extrait de Obsolescence : un phénomène de société ? – Sources et risques industriels, économiques, et sociétaux, remédiations possibles par Claude BARON, Marc ZOLGHADRI, Sid-Ali ADDOUCHE, Yann ARGOTTI, Kevin BOISSIE

L’analyse de la littérature sur le sujet permet de répertorier de nombreux qualificatifs associés au mot « obsolescence ». L’obsolescence indirecte survient lorsque l’obsolescence directe d’un élément (un chargeur de téléphone mobile) génère l’obsolescence d’autres composants dépendants (le téléphone). L’obsolescence peut être totale dans la mesure où aucun fournisseur ne propose le produit ; c’est le cas par exemple des tubes cathodiques anciennement utilisés dans les téléviseurs. L’obsolescence est dite partielle si elle ne concerne que quelques fonctionnalités ou technologies. L’obsolescence partielle peut induire un fonctionnement dégradé, ou moins performant, qui rend alors la décision de remplacement moins immédiate : le consommateur hésite à se séparer d’un objet qui « marche encore » … Lorsque le changement est effectué par le fabricant lui-même pour promouvoir de nouveaux produits, augmenter sa part de marché et ses ventes, l’obsolescence est considérée comme intentionnelle ; on parle alors d’obsolescence programmée.

Une diversité foisonnante à prendre en compte

L’obsolescence technique concerne les produits qui sont substitués par d’autres plus performants, qui sont perçus comme utilisant une meilleure technologie, de nouvelles fonctionnalités et remplissant mieux la fonction attendue. L’obsolescence technique se produit lorsqu’il existe une nouvelle technologie qui peut remplacer l’ancienne (produits électroniques, systèmes d’information, logiciels…). Ainsi, le lecteur MP3 basé sur une technologie numérique a peu à peu remplacé les lecteurs de musique utilisant la bande magnétique. L’ADEME, quant à elle, distingue deux catégories d’obsolescence technique. D’une part, l’obsolescence fonctionnelle, quand un produit ne répond plus aux nouveaux usages attendus, pour des raisons techniques (incompatibilité avec de nouveaux équipements par exemple), réglementaires et/ou économiques.  D’autre part, l’obsolescence d’évolution, quand un produit ne répond plus aux envies des utilisateurs qui souhaitent acquérir un nouveau modèle du fait d’une évolution de fonctionnalité ou de design.

L’obsolescence esthétique, elle, est due au fait que le produit possédé apparaît comme moins désirable. Elle apparaît avec la mise sur le marché régulière de produits avec une esthétique nouvelle, sinon améliorée, qui rend désuètes les versions précédentes de ces produits. On parle parfois d’obsolescence psychologique, dont la cause est un changement dans la perception de la mode, la qualité esthétique, voire le statut social attaché aux produits existants : le produit ne correspond plus à la perception que le consommateur a de lui. On parle aussi d’obsolescence économique lorsque les consommateurs décident de renouveler leurs produits parce que le coût d’usage ou de maintenance du produit actuel est largement supérieur à celui du neuf. Cela peut également être dû au fait que le coût perçu ou réel de l’achat d’un nouveau modèle est inférieur au coût de la réparation. L’ensemble de ces nuances prouve à quel point il est nécessaire d’aborder le concept via ses diverses facettes et de mettre en place des remédiations différenciées.

Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 7 avril 2022 !

Obsolescence : un phénomène de société ? – Sources et risques industriels, économiques, et sociétaux, remédiations possibles par Claude BARON, Marc ZOLGHADRI, Sid-Ali ADDOUCHE, Yann ARGOTTI, Kevin BOISSIE

Les thèses du mois : « Gestion des DEEE : l’avènement du réemploi »

Pour notre dossier de mars, « Gestion des DEEE : l’avènement du réemploi », voici les thèses sélectionnées par le REDOC SPI. Retrouvez le résumé de ces thèses ainsi que les thèses des mois précédents sur le site de notre partenaire.

 

Méthodes et outils pour la conception de produits/systèmes en tenant compte de l’obsolescence et la raréfaction
Amel Soltane
Thèse de doctorat en STIC, 10-12-2021
Laboratoire Quartz

 

Conception des systèmes complexes résiliente à l’obsolescence – Application à l’industrie aéronautique
Sophia karolina Salas cordero
Projet de thèse en Systèmes embarqués, depuis 2019
Laboratoire: Commande des Systèmes et Dynamique du Vol

 

Développement d’une approche méthodologique de gestion de l’obsolescence des composants pour la CEM
Saliha Chetouani
Projet de thèse en Génie électrique, depuis 2018
Laboratoire d’Analyse et d’Architecture des Systèmes

 

Contribution à la prédiction de l’obsolescence : approches basées sur les techniques d’apprentissage automatique et les statistiques
Imen Trabelsi
Projet de thèses en STIC, depuis 2018
Laboratoire Quartz

 

Méthodes et outils pour la maîtrise de risques en ingénierie de l’obsolescence dans un contexte incertain : application à un équipementier automobile
Kevin Boissie
Thèse de doctorat en Sciences et technologies industrielles, 18-12-2019
Laboratoire Quartz

 

Obsolescences : philosophie des techniques et histoire économique à l’épreuve de la réduction de la durée de vie des objets
Jeanne Guien
Thèse de doctorat en Philosophie, 04-04-2019
Centre d’étude des techniques, des connaissances et des pratiques

 

Aspects graphiques de la persuasion technologique : étude des messages persuasifs sur internet pour le recyclage des déchets électroniques
Dimitri Naczaj
Thèse de doctorat en Psychologie, 20-12-2018
Laboratoire de Psychologie Sociale

 

Mécanismes de vieillissement liés à la pénétration d’humidité dans les matériaux diélectriques à faible permittivité des interconnexions
Matthias Vidal-Dho
Thèse de doctorat en Nanoélectronique et nanotechnologie, 03-12-2020
Laboratoire des technologies de la microélectronique

 

Étude de la fiabilité et des mécanismes de dégradation dans les composants numériques de dernière génération
Julien Coutet
Thèse de doctorat en Electronique, 07-10-2020
Laboratoire de l’Intégration du Matériau au Système

 

Mines Urbaines et échantillonnages de déchets d’équipements électriques et électroniques (D3E)
Alexis Barthet
Projet de thèse en Géosciences et géoingénierie, depuis 2020
Centre de géosciences

Le best of presse : au fil de l’actu sci-tech #10

Ici vous trouverez notre récap’ de l’actualité scientifique et technologique qui a bercé ou chamboulé le mois de mars. Et comme à l’accoutumée dans nos « best of presse », vous trouverez, en bas de cet article, une info bonus ! Et exceptionnellement : une deuxième info bonus… Quelle chance !

Quand la tech s’en mêle 

Alors que l’offensive russe se poursuit en Ukraine, et que le bilan de cette guerre s’alourdit de jour en jour, plusieurs initiatives technologiques se sont rapidement déployées pour venir en aide au peuple ukrainien. Commençons par l’accès à Internet. En effet, comme le rapportait ici Le Monde, les cyberattaques russes ont entravé l’accès à Internet en Ukraine. Le 26 février 2022, sur Twitter, le vice-premier ministre ukrainien Mykhailo Fedorov a demandé de l’aide à Elon Musk, le PDG de SpaceX. Ce dernier a alors annoncé le jour-même, toujours via Twitter, la mise en service des services Internet, par la constellation de satellites Starlink, au-dessus de l’Ukraine. Mais l’accès à Internet seul ne fait pas tout ! L’Ukraine a mis sur pied une cyber-armée, quoique improvisée, composée de milliers de volontaires, experts en cybersécurité, peut-on lire dans Wired. Ce sont une centaine de milliers de personnes (ils étaient déjà plus de 175 000, au 27 février, selon Wired) qui se sont inscrites à une chaîne Telegram créée spécialement à cet effet. L’une de leurs premières opérations a été de lancer des attaques par déni de service distribuées (DDoS attack, en anglais, pour Distributed Denial of Service attack, ayant pour but d’empêcher l’accès à des services en ligne) contre une vingtaine de sites web russes (dont ceux du géant gazier Gazprom et du Ministère de la Défense russe), avant de s’attaquer à des sites biélorusses. Et bien au-delà des frontières ukrainiennes, des cyber-militants s’activent à l’échelle individuelle, dans l’espoir de joindre leurs forces au combat collectif. Ainsi, depuis la Floride, Jack Sweeney, étudiant américain de 19 ans, piste les avions du Président Vladimir Poutine, ainsi que ceux des oligarques russes, et publie sur leurs déplacements via les comptes Twitter @PutinJet et @RUOligarchJets. C’est ce que nous apprend Courrier International, qui s’appuie sur cet article du Wall Street Journal. Avant de s’intéresser au conflit russo-ukrainien, Jack Sweeney traquait l’avion privé de nul autre que… Elon Musk lui-même

Une bactérie bien potelée serait le maillon manquant !

Elle est bien curieuse, cette bactérie géante découverte dans les mangroves des Caraïbes. Sa cellule, qui ressemble à un filament, peut atteindre jusqu’à deux centimètres de long, la rendant visible à l’œil nu. Selon Science, il s’agit même là d’un record : baptisée Thiomargarita magnifica, elle est la plus grande bactérie découverte à ce jour ! Mais ce n’est pas sa seule particularité. Le génome (le matériel génétique) de cette bactérie est encapsulé dans une membrane : “une innovation, écrit Science, caractéristique de cellules beaucoup plus complexes que les cellules bactériennes, comme les cellules du corps humain”. Dans les autres bactéries, en effet, le génome “flotte” librement dans la cellule ; alors que dans les cellules animales, comme c’est le cas des cellules humaines, les chromosomes sont préservés dans un noyau. La membrane protectrice du génome de Thiomargarita magnifica rappelle donc cette configuration pourtant propre aux cellules animales, et non aux cellules bactériennes ! Une hypothèse possible est que Thiomargarita magnifica ne serait autre que le maillon manquant pouvant expliquer l’évolution des cellules en des entités de plus en plus complexes. 

Bonus 1 : L’ancienne pieuvre avait dix tentacules

Alors que la pieuvre est bien connue pour ses huit tentacules, son ancêtre vieux de 330 millions d’années en avait dix. C’est toujours Science qui nous en parle. Dénommée Syllipsimopodi bideni, en hommage au Président américain Joe Biden (au moment de la soumission de l’étude, le Président venait tout juste de célébrer son investiture), cette espèce ne faisait que 12 centimètres de long. L’étude, dans laquelle est détaillée cette découverte, a été publiée dans Nature Communications.  

Bonus 2 : La pomme de terre qui trompa le monde

En août 2021, dans le jardin derrière leur maison en Nouvelle-Zélande, Colin et Donna Craig-Brown pensaient avoir déterré la plus grosse pomme de terre au monde. Le couple lui a même donné un nom : Doug. Doug pèse 7,9 kilogrammes. Toutefois, après avoir déposé la candidature de Doug pour une apparition au livre Guinness des records, tomba comme la foudre un funeste verdict… Un test ADN avait révélé que Doug était un imposteur ! Cette pomme de terre n’en était pas une. Doug est “le tubercule d’une espèce de gourde”. C’est là une histoire palpitante que raconte le New York Times. Malgré la déception, M. Craig-Brown confie au quotidien américain que Doug reste “heureux” et “imperturbable” dans sa chambre de stockage cryogénique.

Crédit image de une : Intissar El Hajj Mohamed // Techniques de l’Ingénieur

Emmaüs Connect : Reconditionner des appareils informatiques pour lutter contre l’exclusion numérique

Les entreprises, les administrations et les organisations en tout genre disposent de stocks d’ordinateurs qui ne sont pas ou plus utilisés. De plus de plus de structures d’insertion se mettent en place pour collecter et valoriser ces appareils, soit en les réparant en les reconditionnant et le cas échéant en les recyclant pour les valoriser sous forme de matière.

Emmaüs Connect œuvre depuis plus de dix ans pour sortir des personnes de l’exclusion numérique. Depuis un an et demi, l’association développe via Lacollecte.tech, une véritable filière de collecte, de reconditionnement et d’accompagnement, pour mettre en adéquation le gisement que constituent les appareils numériques non utilisés par les organisations précédemment citées, et la nécessité d’équiper un public dans l’incapacité financière d’accéder à ces produits eux-mêmes.

Techniques de l’Ingénieur : Présentez-nous Emmaüs Connect.

Camille Bardou : Face aux inégalités croissantes engendrées par la société du tout numérique, Emmaüs Connect est une association du mouvement Emmaüs, fondée il y a dix ans, pour lutter contre la précarité numérique. Pour relever ce défi, nous avons mis en place une stratégie s’appuyant sur le triptyque suivant : équiper, connecter et accompagner. C’est autour de ces trois axes que nous développons, dans nos treize points d’accueil et via la mobilisation de structures de l’action sociale, les compétences pour accompagner les personnes qui sont orientées vers nous par des travailleurs de l’action sociale. Nous aidons aussi les travailleurs de l’action sociale à favoriser leur montée en compétences, sur les trois volets de notre action.

Comment déployez-vous ces trois volets sur le terrain ?

Il nous faut absolument développer en même temps trois actions – équipement, connexion, accompagnement – pour obtenir des résultats concrets et pertinents sur le long terme, et réellement sortir les personnes de la précarité numérique.

Camille Bardou, cheffe de projet Emmaüs Connect

Sur le volet connexion, nous travaillons avec SFR, qui nous vend des forfaits, des recharges, et des datas à tarif solidaire.
Ensuite, nous accompagnons les personnes en les recevant dans nos points d’accueil, pour les aider au cas par cas et résoudre leurs difficultés liées à l’utilisation d’outils numériques adaptés à leurs besoins. Il faut bien comprendre que les problématiques qui touchent ces populations sont très variées, un accompagnement personnel est donc parfois  nécessaire.

Enfin, le sujet de l’équipement, qui constitue le cœur de la lutte contre la précarité numérique. Le prix actuel des équipements numériques coupe de facto certaines personnes totalement du numérique, nous l’avons constaté lors des différents épisodes de confinement.

C’est la raison pour laquelle nous avons créé, il y a un an et demi, Lacollecte.tech. Aujourd’hui, huit millions de Français n’ont pas d’appareils numériques. A côté de cela, plus de deux millions d’entreprises déclarent disposer dans leurs stocks d’équipements en état, rangés, dont ils ne savent pas quoi faire. Notre volonté est donc de faire coïncider ce gisement avec les besoins existants.

A quelle échelle voulez-vous mettre en place ce réseau de collecte et de reconditionnement ?

Notre volonté est de mettre en place, sur tout le territoire, une filière de collecte, de reconditionnement et de vente d’équipements numériques à tarifs solidaires (150 euros maximum pour un ordinateur portable). La clé de voûte de ce système est aujourd’hui le reconditionneur. Nous mettons en place, dans chaque région, des collectifs s’appuyant sur l’expertise de structures d’insertion locales qui vont collecter et reconditionner du matériel numérique. A l’heure actuelle, le projet est développé dans cinq régions. Depuis un an et demi, nous avons récolté 20 000 appareils dans nos centres de reconditionnement et déjà équipé 10 000 personnes.

Quelle est votre stratégie pour convaincre des organisations de vous faire don de leurs appareils numériques surnuméraires ?

Le but est de réellement simplifier les démarches pour le donateur et lui permettre d’avoir une traçabilité fine de son don. Nous allons collecter le matériel sur place, nous fournissons reçus fiscaux, certificats d’effacement de données, bilan social, économique et environnemental du don, bref: on s’occupe de tout ! Mais il faut savoir que nous faisons face à une concurrence importante pour l’accès à ces gisements, certaines entreprises paient pour récupérer les surplus informatiques dont les entreprises veulent se débarrasser, sans forcément leur offrir une vision sur ce que deviennent les équipements. Pour pouvoir récupérer ces matériels gratuitement, nous faisons en sorte de limiter au maximum les contraintes pour le donateur et de mettre en avant le réel impact social du don.

Comment faites-vous pour constituer un stock de pièces détachées pour le reconditionnement des appareils ?

Nous employons une technique plus connue sous le nom de cannibalisation. Certains appareils ne peuvent pas être reconditionnés, tout en contenant certains composants en bon état. Cela donne la possibilité à nos reconditionneurs de constituer des stocks de composants, qui leur permettent d’augmenter leur capacité à reconditionner de plus en plus d’appareils à partir de pièces détachées de seconde main.

Cela dit, il faut préciser que nous sommes aujourd’hui toujours tributaires du marché chinois pour l’approvisionnement en batteries et en cartes mères par exemple. Ces composants sont à l’heure actuelle très rarement reconditionnés.

Quoi qu’il en soit, nous sommes fiers de pouvoir compter sur l’expertise de reconditionneurs solidaires pour nous permettre d’accroître notre capacité à reconditionner un grand nombre d’appareils. Bien évidemment, il est important pour nous de collecter, quand cela est possible, des appareils similaires. Cela facilite grandement le travail des reconditionneurs et la constitution de stocks pertinents.

D’ailleurs, depuis peu, la loi permet aux collectivités de céder leur matériel à des organisations d’intérêt général, ce qui nous aide à élargir le spectre de notre activité.

Quelle est la priorité à l’heure actuelle pour poursuivre le développement de Lacollecte.tech ?

Notre priorité absolue à l’heure actuelle, c’est d’être en capacité de fournir au public concerné par la précarité numérique du matériel de seconde main et de qualité, avec un retour en SAV aussi rare que possible. Pour cela, il nous faut homogénéiser autant que possible le matériel collecté, de même que les process de reconditionnement, encore une fois pour avoir un taux de SAV le plus faible possible. Les constructeurs ont un rôle non négligeable à jouer puisqu’ils peuvent travailler sur la modularité et la réparabilité de leurs équipements.

Dans notre Manifeste pour le réemploi solidaire des équipements numériques, nous proposons 10 mesures pour faire bouger les lignes, parmi celles-ci, la mise en place d’un chèque-équipements à destination des ménages précaires.

Propos recueillis par Pierre Thouverez


Crédit image de une : Emmaüs Connect

Des composites à base de cuir et de textiles recyclés pour l’industrie du luxe

API’UP est une entreprise solidaire créée en 2012 qui s’occupe de la gestion globale des déchets d’entreprises, depuis la collecte jusqu’à une valorisation écoresponsable. Elle applique le principe d’upcycling industriel au développement de nouveaux matériaux composites à partir de rebuts de production, de bois, de textiles et de cuir.

Techniques de l’Ingénieur : API’UP est spécialisé dans l’upcycling. Quand avez-vous commencé à travailler avec le cuir ?

Valérie Fernani est directrice d’API’UP. (Crédit : API’UP)

Valérie Fernani : À l’origine, notre process d’upcycling industriel était essentiellement mis en œuvre sur le bois. Nous traitons les chutes industrielles de cuir et de textiles depuis 2016. En 2018, nous avons démarré un projet d’innovation appelé MATERIA 4.0, avec comme objectif d’étendre le savoir-faire sur l’upcycling industriel des bois vers de nouveaux savoir-faire appliqués à de nouvelles matières composites écologiques(1).

Cela s’est donc traduit par la valorisation de gisements locaux de déchets industriels de textiles et de cuir et par le lancement d’un premier produit appelé GRANISPHER. Cette matière est produite par thermocompression, à partir de chutes de cuir que nous collectons. Celles-ci sont préalablement mélangées, de la manière la plus homogène possible, puis moulées, compressées et séchées.

Fin 2021, nous avons lancé OSPHER, une marque de mobilier écoresponsable, avec une première collection qui intègre du GRANISPHER.

Comment les déchets industriels de cuir sont-ils habituellement valorisés ?

Il faut distinguer 2 types de rebuts de cuir. Il y a d’un côté les déchets de tannerie avec par exemple les déchets au stade du wet blue(2). Ce sont des produits gorgés d’eau, dont certains sont valorisés, par exemple pour la fabrication d’engrais, mais qui n’ont pas d’intérêt esthétique direct.

Les déchets qui nous intéressent sont les chutes de cuir issues de la fabrication, car les pistes de valorisation sont multiples et leur valorisation est encore actuellement très faible. Ainsi, selon leur dimension et leur qualité, ces chutes sont acheminées vers différentes filières. Les chutes d’une taille supérieure à A4 sont habituellement réutilisées par des porteurs de projet, des entreprises ou des artisans, par exemple pour créer des produits de maroquinerie.

Mais en dessous de cette taille, la valorisation s’avère compliquée, faute de filière et de débouchés.

Quels types de chutes de cuir valorisez-vous ?

Le process que nous avons développé et breveté nous permet d’utiliser des chutes issues de l’industrie, de taille A5, voire plus petites, mais nous avons une condition : que le tri par couleurs soit possible.

En effet, comme ce procédé implique un broyage de la matière, les chutes de cuir multicolores ont tendance à produire des matériaux grisâtres, peu esthétiques. Comme nous sommes sur le secteur de l’upcycling haut de gamme, nous avons donc mis en place un suivi couleur rigoureux.

La première étape est la collecte, toutes les chutes de cuir étant acceptées. Un tri est effectué afin de séparer les matières qui seront upcyclées de celles qui partiront en réemploi (le réemploi étant toujours privilégié en économie circulaire).

Les critères de tri sont assez stricts : les matières destinées au réemploi doivent être qualitatives et dimensionnées. Si le gisement destiné à l’upcycling n’a pas besoin d’être dimensionné, il doit pouvoir être triable par matière et par couleur. Le tri par matière ne présente pas de difficulté, car il est fait en partie à la source, par l’origine du cuir. En revanche le tri par couleur a nécessité que nous mettions en place un protocole de groupement des couleurs et de suivi des teintures utilisées par les fabricants, afin de ne pas être impactés par les changements de collection.

Enfin, nous cherchons toujours à optimiser le tri, qui est fait manuellement, c’est pourquoi nous travaillons actuellement au référencement des couleurs en nous appuyant sur des équipements de mesure optique.

Quels sont les autres projets d’upcycling sur lesquels vous travaillez ?

Nous avons plusieurs autres applications en cours de développement, notamment la fabrication pour l’industrie du luxe de composites rigides à partir de cuir, qui se rapprochent des panneaux de fibre de bois(3).

Si aujourd’hui c’est le cuir qui est à l’honneur, nous présenterons également de nouveaux composites à base de textile dans le courant de l’année 2022. Ces matières seront conçues à partir de textiles d’ameublement synthétique (PE et PP) recyclés. Le choix de ces deux matériaux, PE et PP, n’est pas anodin, ces 2 matières étant facilement recyclables dans notre process en fin de vie, l’idée pour nous étant toujours de rester en accord avec nos valeurs de développement durable en recherchant des process qui soient vertueux.


(1) Projet cofinancé par le Fonds social européen dans le cadre du programme opérationnel national « emploi et inclusion » 2014-2020.

(2) Terme anglais utilisé en tannerie pour désigner le cuir en bleu, immédiatement obtenu après le tannage et avant les opérations de teinture et de nourriture.

(3) Panneaux basse densité (LDF), densité moyenne (MDF) et haute densité (HDF).

« Le but est de ne plus enfouir de déchets valorisables »

Alors que l’Etat a par étapes, depuis 2005, contraint les entreprises et les administrations à s’impliquer dans la collecte et la valorisation de nombreuses catégories de produits qu’elles fabriquent ou utilisent, le traitement des DEEE (déchets d’équipements électriques et électroniques) a très largement évolué, de même que les habitudes des consommateurs. Ainsi, alors que les DEEE étaient en majorité détruits et enfouis avant 2005, différentes voies de valorisation se sont développées depuis. C’est par exemple le cas du réemploi, qui permet de proposer des produits uniquement constitués de pièces originales, à un prix extrêmement compétitif. Une solution qui séduit de plus en plus les consommateurs, soucieux de leur empreinte écologique, et désirant acheter des produits informatiques à un prix intéressant.

Techniques de l’Ingénieur : Qu’est ce qui vous a poussé à lancer Loxy, en 2005 ?

Marc Ruzafa : Comme vous le savez, un décret a été adopté par la France, en juillet 2005, interdisant aux entreprises et aux administrations de jeter leurs matériels électriques et électroniques, et les obligeant à recycler leur parc. C’est à ce moment-là que mon associé et moi avons quitté nos emplois respectifs d’alors, pour monter la structure de collecte et de valorisation de DEEE qu’est aujourd’hui Loxy.

Quel était alors le niveau de collecte de DEEE en France ?

A l’époque, la collecte était balbutiante et le niveau de connaissance des entreprises sur leurs obligations relativement limité. Ainsi, nous avons commencé en 2005 par collecter 600 kg de matériel par mois, voué à la destruction puis à l’enfouissement, alors qu’aujourd’hui nous récoltons en moyenne 10 tonnes de DEEE par jour ! Cette croissance importante des volumes récoltés est en majeure partie due au fait qu’aujourd’hui les entreprises ont totalement intégré cette évolution. Elles sont aujourd’hui partie prenante dans le développement de l’activité de collecte et de valorisation. 

Depuis 2005, les voies de valorisation de DEEE ont considérablement évolué, n’est-ce pas ?

Oui, effectivement. Quand nous avons lancé Loxy en 2005, on ne parlait pas encore de réemploi. C’est quelque chose qui est apparu à partir de 2010, et sur lequel les administrations et les entreprises se sont penchées très sérieusement. Il s’agit d’un virage important, qui a vu l’activité de Loxy se diversifier : nous avons alors développé des process pour pouvoir réparer ou réutiliser des sous-ensembles et des composants informatiques et électroniques, alors que jusque-là nous détruisions systématiquement ces déchets. Cela s’est révélé intéressant pour nous, puisque le réemploi se valorise mieux que la vente de matière brute. Mais il s’agissait aussi et surtout d’une demande de marché. Plus tard, l’Etat s’est également investi concrètement via les éco-organismes que sont Ecologic et Ecosystem, entre autres. Ce qui a donné un élan supplémentaire au réemploi.

Le réemploi est-il une solution en ce qui concerne certains matériels que nous ne produisons pas en France, comme les semi-conducteurs ?

Sur un sujet comme les semi-conducteurs, il est évident que la période que nous vivons depuis plus de deux ans nous a permis de constater que notre dépendance à l’Asie pour la fourniture de ce type de composants posait des problèmes. Le réemploi ne résout pas entièrement ces problèmes, mais peut constituer une partie de la solution. L’Etat, en imposant aux entreprises une part de 20% de matériel informatique issu du réemploi au sein de son parc informatique, a également contribué grandement à pérenniser cette évolution. Enfin, les éco-organismes agréés par l’Etat, au premier rang desquels Ecologic, ont également poussé pour développer la pratique du réemploi et la généraliser.

Quelles relations entretenez-vous avec les éco-organismes agréés pour la gestion des DEEE ?

Nous avons un double contrat avec l’éco-organisme Ecologic. Nous traitons les matériels de leurs clients, qui doivent rendre compte à l’Etat des quantités de matériels produits et collectés. Le volume de ces collectes avoisine aujourd’hui les 800 tonnes par an. Aussi, nous fournissons à Ecologic des bilans de matières : ces données permettent de développer de nouvelles méthodes pour améliorer, autant que possible, la revalorisation des DEEE.

L’évolution de votre activité vers le réemploi change-t-elle la typologie des métiers chez Loxy ?

Oui. Nous avons aujourd’hui 35 techniciens qui travaillent spécifiquement sur le réemploi, ce qui représente environ 50% de nos effectifs, et illustre bien l’évolution en cours. Nous proposons aujourd’hui des PC et téléphones (fixes et portables), des serveurs, du gaming… et les éco-organismes étendent également le spectre des matériels à valoriser. Tout cela valide le réemploi comme une solution qui est amenée à devenir incontournable, et nous permet de fixer l’objectif, à terme, de ne plus enfouir de déchets s’ils sont valorisables. C’est ce qui nous guide.

Quelles sont les étapes pour évaluer la capacité d’un DEEE à être réparé et réutilisé ?

La première problématique concerne les données. C’est la première phase : quand nous recevons des machines, elles sont envoyées dans un atelier sécurisé où toutes les données contenues dans les appareils sont effacées. Ensuite, ces produits sont audités et réparés au besoin. Nous remplaçons les pièces défectueuses par d’autres pièces d’origine, prélevées sur d’autres ordinateurs collectés. Du coup, nous proposons des produits constitués uniquement de pièces d’origine, et c’est ce qui fait notre force. Le corollaire, c’est que nous ne proposons pas en réemploi les produits les plus récents du marché. Ceci dit, le marché pour ces produits reconditionnés est extrêmement actif, puisque les produits que nous mettons sur le marché sont généralement vendus en moins de 48 heures.

Qu’est ce qui limite l’activité de Loxy aujourd’hui ?

Aujourd’hui, la problématique que nous avons est principalement celle de la collecte. Nous récoltons 80% de notre volume de DEEE en Île-de-France. Nous avons ouvert récemment des centres de collecte en région, mais aussi en Italie et en Ukraine. La raison de ces choix vient d’un constat, qui est celui de la baisse de qualité des produits mis sur le marché. Il y a dix ans, on pouvait extraire 120 grammes d’or pour une tonne de déchets informatiques traités. Aujourd’hui ce chiffre se situe plus autour de 80 grammes par tonne. Pour résumer, les matériels informatiques et électroniques sont moins fiables, mais ils sont plus nombreux. En Ukraine, les produits informatiques sont en majorité vieillissants, donc ils constituent pour nous un gisement intéressant à collecter et valoriser. 

A l’inverse, on voit aujourd’hui que le plastique est en augmentation dans la composition de tous les appareils informatiques et électroniques. Il est évident que la collecte et la valorisation de ces matières plastiques va devenir un enjeu de plus en plus important, très rapidement. Nous voyons beaucoup de projets de valorisation très innovants émerger autour des plastiques en ce moment, c’est un sujet que nous suivons de près.

Loxy est une entreprise adaptée. Quelles sont les raisons de ce choix ?

Loxy est depuis 2009 une entreprise adaptée. Nous proposons des emplois adaptés à leurs capacités à des personnes en situation de handicap. La diversité des emplois qu’on trouve au sein de Loxy se trouve être une opportunité pour intégrer des personnes handicapées plus aisément, et c’est quelque chose qui fait aujourd’hui partie de l’ADN de l’entreprise. Nous travaillons d’ailleurs sur des projets de collaboration avec d’autres entreprises adaptées, pour développer à la fois notre modèle économique et l’aspect social de notre activité.
Une entreprise adaptée, cela veut dire l’adaptation des postes de travail aux handicaps de nos salariés, c’est une organisation totalement spécifique. Bien sûr, cela veut dire  aussi que nos rendements ne sont pas ce qu’ils pourraient être, mais l’impact social véhiculé via notre activité d’entreprise adaptée fait pour nous partie de la valeur de l’entreprise à part entière. 

Propos recueillis par Pierre Thouverez

Les voitures connectées : prochaines cibles des pirates ?

Il y a quelques semaines, l’ADAC a publié une enquête qui donne froid dans le dos. Sur 501 modèles de voitures avec une clé « keyless » analysés depuis 2016, seuls 23 disposent d’un bon niveau de sécurité. En clair, soit moins de 5 % donnent du fil à retordre à des voleurs de voitures placés à proximité.

Parmi les marques françaises, aucun modèle référencé par ADAC ne dispose d’un système de clés « keyless » sécurisé. Parmi les bons élèves, citons Jaguar, Land Rover, Audi, Seat, Skoda, Volkswagen, BMW et Mercedes.

Une faille connue depuis 2011

Un dispositif « keyless » permet en effet de déverrouiller et de démarrer un véhicule sans aucun contact, grâce à un signal de présence qu’elles émettent. Il suffit qu’un malfrat intercepte le signal pour obtenir un « double » de cette clé ! Selon ADAC, cette technique revient à environ 100 euros en matériel et logiciels.

Il existe différentes solutions permettant de « colmater » cette faille connue depuis 2011 et qui a été également exploitée pour pirater des cartes de contact et des cartes bancaires. La plus connue repose sur l’usage de pulsations à ultra large bande (UWB). Elles empêchent les attaques par relais, car elles établissent la communication sur une bande très large, ce qui complexifie la détection.

Cette technique radio permet à la voiture de détecter avec précision la distance à laquelle se trouve la clé. Si cette distance est de plusieurs mètres, la voiture ne se déverrouille pas ou ne démarre pas, même si le signal radio est prolongé. Cette technologie est également utilisée pour les AirTags d’Apple afin qu’ils puissent être localisés avec précision par les smartphones.

Malheureusement, cette technologie est encore trop rarement implémentée par les marques. Pour limiter les risques il est donc recommandé d’utiliser une petite canne qui bloque le volant ou d’installer un boîtier traceur GPS, et de ranger la clé dans un étui spécialisé anti-onde (de type cage de Faraday).

Cette affaire ne laisse rien présager de bon à l’avenir. « La sécurité des véhicules connectés est un sujet très important, car ils intègrent de plus en plus de canaux de communication avec le monde extérieur (liaison télécom avec d’autres véhicules ou avec le cloud pour des services multimédias) et à l’intérieur du véhicule (USB, Bluetooth, wifi…) », indique Guillaume Duc qui codirige la chaire Connected Cars and CyberSecurity à Telecom Paris.

Payer une rançon pour utiliser sa voiture

Ces véhicules sont aussi de plus en plus intelligents, car ils embarquent des fonctionnalités d’aide à la conduite ou de multimédias. Il y a donc de plus en plus de logiciels et de matériels embarqués. Cette intégration poussée entraine de facto une multiplication des risques de vulnérabilités et de portes d’entrée pour que des personnes malveillantes intègrent le réseau interne au véhicule.

Les équipementiers et les marques ont déjà pris un certain nombre de mesures de sécurité, mais aucun système n’est invulnérable pour une personne déterminée qui a beaucoup de temps et de moyens. « Il n’y a eu que des démonstrations d’attaques, comme en 2015 (avec une Jeep).  Mais très peu sont réellement mises en pratique dans la vie de tous les jours. On peut néanmoins craindre à l’avenir des attaques reposant sur des ransomwares : un pirate cryptera le système embarqué, ce qui empêchera le propriétaire du véhicule de l’utiliser. Ce dernier devra payer une rançon pour en reprendre le contrôle », avance Guillaume Duc.

Selon le GIEC, il y a urgence à planifier l’adaptation des zones côtières

« Les conséquences du changement climatique pour l’homme et les écosystèmes sont déjà perceptibles en Europe, assure Gonéri Le Cozannet, chercheur au BRGM, co-auteur du deuxième volet du rapport du GIEC paru fin février 2022. On voit que les températures, les précipitations et l’élévation du niveau de la mer augmentent, que ce soit en termes de moyennes ou d’extrêmes. On voit que cela a des conséquences négatives pour les personnes, les écosystèmes, la production alimentaire, les infrastructures, l’énergie, les ressources en eau, la santé publique et l’économie. »

Sur une planète réchauffée en moyenne d’environ +1,1°C depuis l’ère préindustrielle, le monde souffre déjà des effets du changement climatique. Désormais, plus les pays tarderont à atténuer leurs émissions de gaz à effet de serre, plus les impacts seront importants. « Si on dépasse les 1,5°C, le risque d’impacts irréversibles et de dépassement de points de bascule augmente », prévient Gonéri Le Cozannet. Que l’on parle des extrêmes de chaleur, de précipitations extrêmes ou de sécheresses, « il y a un vrai écart entre +1,5 et +3°C », avertit-il.

Planifier l’adaptation dès maintenant

Face à ces impacts et menaces, l’Europe s’adapte trop peu. « L’adaptation progresse en Europe, mais demeure insuffisante face à la rapidité des changements », s’alarme l’expert du BRGM. En particulier, l’Europe prend insuffisamment en compte l’élévation du niveau de la mer. Or, sa capacité à gérer les conséquences de cette élévation dépend de ses actions immédiates, prévient le GIEC.

Atténuer le changement climatique est capital pour stabiliser l’élévation du niveau de la mer autour de 4 mm par an. « Au-delà de 2°C, on ne peut plus éviter l’accélération de l’élévation du niveau de la mer, prévient Gonéri Le Cozannet. Le taux d’élévation du niveau de la mer s’élèverait alors entre 6 mm et 1 cm par an dans les années 2050-2060. » Dans cette perspective, l’élévation du niveau des mers est le point le plus difficile, mais le plus capital, à anticiper. Et il convient de planifier l’adaptation à cet horizon dès maintenant.

Et pour cause : « L’adaptation côtière prend énormément de temps », rappelle Gonéri Le Cozannet. Par exemple, pour relocaliser la plupart des infrastructures, le GIEC estime qu’il faut compter entre trente et quarante ans. « Et pour certaines infrastructures industrielles, portuaires, énergétiques près de la côte, qui ont des durées de vie extrêmement longues et qui sont très difficiles à déplacer, il faut réfléchir près de 100 ans à l’avance », met-il en garde.

En fonction de la hausse des émissions de gaz à effet de serre, la planification de cette adaptation peut être particulièrement compliquée. Gonéri Le Cozannet explique : « Le niveau de la mer réagit très lentement au changement climatique alors que l’augmentation des précipitations extrêmes est immédiate. À chaque hausse de 1°C de changement climatique, on stocke 7 % d’eau en plus dans l’atmosphère qui retombe principalement sous forme de précipitations extrêmes. Si vous atteignez +2°C en 2050, vous ne serez qu’à 20 cm d’élévation du niveau de la mer, mais 200 ans après, vous aurez une hausse entre 0,5 et 4 mètres. »

Accélérer le mouvement

« Aujourd’hui on devrait être en train de planifier l’adaptation aux submersions à marée haute que l’on va voir de manière de plus en plus fréquente entre les années 2030 et 2050, recommande Gonéri Le Cozannet. À marée haute, par simple superposition de l’élévation du niveau de la mer et de la marée, vous aurez des submersions dans les ports. »

En fin de compte, ne faudrait-il tout simplement pas interdire dès maintenant toute artificialisation supplémentaire des littoraux ? « Si on veut limiter les risques liés au changement climatique dans les littoraux, effectivement la chose la plus intelligente à faire déjà c’est d’éviter d’aggraver la situation en construisant dans les zones basses », conclut Gonéri Le Cozannet.

Le réemploi, une solution d’avenir pour valoriser les DEEE

En 2017, la firme américaine Apple fait les gros titres des journaux, après avoir reconnu qu’elle limitait volontairement les performances des anciens iphones, pour que ces derniers supportent mieux les mises à jour. Suite au scandale que cette révélation entraîne, Apple baisse le coût de ses batteries, pour que les utilisateurs puissent échapper à l’obsolescence de leurs appareils à moindre coût. Depuis, les prix des batteries d’iphone ont retrouvé leur prix d’origine.

Apple s’est également défendu en arguant du fait que les développements opérés sur les dernières générations d’iphones sont optimisées pour ces dernières, et qu’il est donc naturel que les « anciens » modèles finissent par devenir obsolètes. D’un autre côté, les associations de consommateurs ont dénoncé un exemple flagrant d’obsolescence programmée. Au final, peu importe. L’obsolescence programmée, ou non programmée, oblige souvent le consommateur à racheter un produit neuf. En effet, la réparation d’un produit par le constructeur coûte en général très cher.

Depuis 2005, la directive européenne DEEE oblige les constructeurs à s’impliquer dans la gestion des DEEE dont ils ont la responsabilité de l’émission, de par leur ventes. Depuis d’autres lois, comme la loi anti-gaspillage entrée en vigueur en 2020 et complétée en 2022, obligent les producteurs d’appareils électriques et électroniques à informer le consommateur sur le degré de réparabilité et de recyclabilité des produits qu’ils vendent. Aussi, les producteurs et les constructeurs doivent laisser disponibles sur le marché les pièces détachées des produits qu’ils commercialisent, jusqu’à cinq ans après le retrait d’un produit de la vente.

Ces décisions politiques ont donné un élan sans précédent au marché de la réparation et du réemploi. Marché sur lequel la demande est importante, beaucoup de consommateurs désirant pouvoir réparer (ou faire réparer) leurs produits au lieu de les jeter, à un prix abordable. Aussi, les consommateurs se tournent de plus en plus vers des solutions de réparation ou de réemploi car cela leur permet d’acquérir du matériel qui n’est pas de dernière génération, mais dont le prix d’acquisition est hyper compétitif. Notamment au vu des prix pratiqués en ce qui concerne la téléphonie et l’informatique sur les produits de dernière génération mis chaque année sur le marché. 

Quelles voies de valorisation autour du réemploi ?

Le réemploi est une tendance forte, comme nous venons de l’évoquer. Depuis 2005, de nombreuses entreprises se sont lancées dans la réparation d’équipements électriques et électroniques, souvent avec beaucoup de difficultés. En cause, l’exigence des consommateurs, qui ne voulaient pas investir dans du matériel remis en état, doutant fortement de leurs performances et de leur fiabilité. Ce n’est plus le cas aujourd’hui. La qualité générale des appareils ayant baissé, et le prix du neuf étant trop souvent dissuasif, un créneau s’est ouvert pour la remise en état d’appareils usagés, les consommateurs ayant aujourd’hui une image très positive du réemploi.

Le réemploi consiste pour un propriétaire à vendre (ou donner) un produit à un tiers, qui lui donnera une seconde vie. Ainsi, au sens strict, les produits entrant dans la catégorie du réemploi ne passent jamais par la case déchet

A côté du réemploi, on parle beaucoup de réparation et de réutilisation, qui sont en fait des composantes du réemploi. La seule différence est que le produit en question passe par la case déchet. Il entre donc dans la filière de gestion des DEEE. Ainsi, la réutilisation est une opération en plusieurs étapes qui démarre lorsque le propriétaire d’un bien usagé s’en défait, sans le remettre directement à une structure dont l’objet est le réemploi. Il va ensuite subir une « préparation en vue de la réutilisation », qui lui permet de retrouver son statut de produit. Enfin, la réparation consiste à remettre un produit en fonctionnement, avec une spécificité : le propriétaire s’est défait du bien, ce qui n’est pas le cas pour une réparation courante.

Les chiffres sur le taux de réemploi des équipements électriques et électroniques sont aujourd’hui difficiles à interpréter, notamment car ils recouvrent souvent des catégories de produits très diverses. Le site internet d’Ecosystem, un des éco-organismes agréé par l’Etat, fait état pour 2020 d’un total de 600 000 produits de gros et petits équipements électriques réemployés, pour un total de 139 millions d’unités collectées. 

Aujourd’hui, les produits non remis en état de marche sont valorisés essentiellement sous forme de matière première secondaire. C’est moins rémunérateur que la réparation, mais c’est un processus aujourd’hui mieux maîtrisé. A n’en pas douter, la législation et la demande des consommateurs préparent pour le réemploi un avenir plein de promesses.

Techniques de l’Ingénieur partenaire du WAICF 2022 !

L’écosystème de l’intelligence artificielle est particulièrement dynamique et évolue rapidement. Cela implique de rester bien informé pour garder une longueur d’avance sur les futures innovations technologiques. 

WAICF est donc l’événement international majeur de l’année sur l’intelligence artificielle à ne pas manquer. Y participer, c’est comprendre comment l’IA façonnera l’avenir, découvrir l’évolution de nos usages et mieux appréhender la transformation numérique.

Venez à la rencontre de plus de 120 acteurs clés du marché, des conférenciers internationaux et de nombreuses entreprises innovantes qui présenteront leurs innovations et apporteront des éclairages sur l’impact et l’intérêt de l’IA tant au niveau professionnel que sociétal. Ce lieu d’exposition accueillera près de 10 000 professionnels et personnalités du domaine. Les deux premières journées (14 et 15 avril) sont dédiées aux professionnels tandis que la journée du 16 avril est ouverte au grand public pour pousser à la découverte et encourager la réflexion sur les multiples applications de l’IA.

Au programme

Un village startup est prévu pour permettre aux futures pépites de l’IA de pitcher leur produit et de le présenter dans une véritable bulle d’innovation.

Des zones d’expériences thématiques et d’applications seront aménagées pour favoriser le contact et l’échange entre les entreprises exposantes et les visiteurs. Chaque expérience sera l’occasion pour les visiteurs de s’immerger dans le monde de l’intelligence artificielle pour mieux en comprendre les fondements et les applications concrètes.

Par ailleurs, ce salon proposera des conférences à cinq volets pour répondre aux besoins des entreprises et aider le public à comprendre les effets de l’IA au quotidien, sur le monde d’aujourd’hui et de demain.

Vous y trouverez également des conférences, des ateliers, des keynotes d’intervenants de renommée internationale et des tables rondes. 

Si vous souhaitez en savoir plus sur cet événement et connaître le programme complet, rendez-vous directement sur le site https://worldaicannes.com/

Vibiscus : la fine fleur de la réduction de bruit

Faire circuler l’air tout en bloquant le bruit. C’est le tour de force réalisé par Vibiscus, entreprise née de travaux de recherche menés à l’Institut Femto-ST, basé à Besançon. Contrairement à des systèmes conventionnels d’annulation de bruit, la solution développée par l’entreprise parvient à absorber un bruit en modifiant l’impédance acoustique de l’air au plus près de la source de nuisance. Assemblable à l’envie, une brique de base de 5x5x3 centimètres permet de donner naissance à un matériau absorbant programmable, capable de réduire drastiquement un bruit spécifique – le ronronnement d’un système de ventilation par exemple – mais également une plage de fréquences plus large. Alors que l’équipe de la jeune entreprise commence à s’étoffer, et que des démonstrateurs ont déjà fait leurs preuves, Vibiscus vise un début de commercialisation de sa solution dans les trois prochaines années, comme nous le dévoile son président et co-fondateur Gaël Matten.

Techniques de l’Ingénieur : Quelles ont été les grandes étapes qui vous ont mené à la création de Vibiscus ? Comment la technologie que vous mettez en œuvre fonctionne-t-elle ?

Gaël Matten (crédit photo : FEMTO-ST – S.Quarroz)

Gaël Matten : La technologie est issue de la recherche publique. Elle est née à l’Institut Femto-ST, basé à Besançon, une unité mixte de recherche du CNRS, de l’Université de Franche-Comté et de l’École nationale supérieure de mécanique et des microtechniques (ENSMM). C’est un laboratoire dans lequel j’ai passé presque huit ans : j’y ai fait ma thèse et des post-doctorats successifs. J’y ai également travaillé avec deux des co-fondateurs de la société : Manuel Collet, qui est directeur de recherche CNRS et Morvan Ouisse, professeur des universités à l’ENSMM.

L’Institut Femto-ST a plusieurs départements, dont un dédié à la mécanique appliquée, et plus précisément en ce qui nous concerne, à l’étude des ondes dans les solides (les vibrations), et des ondes dans l’air (l’acoustique).

L’institut avait à l’origine un axe de recherche assez novateur et unique qui consistait à chercher à modifier le comportement des matériaux, et à contrôler les vibrations et l’acoustique par le biais d’une myriade de petits systèmes, que l’on appelle les systèmes distribués. Le but était d’obtenir des comportements de structure qui n’existent pas naturellement. C’est cela qui a donné naissance à des systèmes acoustiques basés sur des matériaux programmables. Ces matériaux sont constitués d’éléments appelés cellules dont les propriétés, les capacités acoustiques, sont programmables électroniquement. L’idée est de faire des structures composées d’éléments comparables aux pixels d’une image. Au niveau acoustique, on peut ainsi obtenir des matériaux absorbants, qui diffèrent des dispositifs antibruit conventionnels qui envoient un contre-bruit pour masquer le son. Grâce aux procédés que nous avons développés, nous modifions le comportement du média dans lequel se propage l’onde. Pour l’acoustique, on modifie donc localement le comportement de l’air, au lieu d’envoyer un contre-bruit. Ce sont les propriétés d’absorption de l’air qui sont modifiées. Cela est intéressant car, même quand un bruit très complexe arrive, il peut être absorbé par le matériau. Ce matériau est assez fin, et peut absorber des ondes basses fréquences qui nécessitent normalement de fortes épaisseurs de mousse, comme ce qui se fait dans les chambres sourdes ou certains studios d’enregistrement. Or, dans la vie de tous les jours, on n’a pas toujours le luxe de pouvoir installer de la mousse partout, qui est relativement chère, et qui pose des problèmes d’encombrement.

La start-up est donc née de ces recherches menées au laboratoire. Sa création s’est faite dans le but de poursuivre ces travaux. De la science-fiction, nous sommes passés à la science tout court ! Sa naissance administrative a eu lieu en septembre 2021, mais le moment où nous nous sommes dit que l’on pourrait lancer une start-up remonte à 2017. Nous avons alors suivi différentes phases : de pré-maturation, de formation à l’entreprenariat, d’incubation… Nous sommes aujourd’hui installés au sein d’une pépinière d’entreprises, et nous avons recruté deux salariés. L’idée, désormais, est de diffuser cela sous la forme d’un produit et de services qui permettent à la population d’en bénéficier.

Pourquoi ce nom de « Vibiscus » ?

Il s’agit de la contraction de « vibration », pour des raisons directement liées à la thématique sur laquelle nous travaillons, un clin d’œil aux origines du projet (l’étude des vibrations) ; et de « hibiscus », qui est une plante que j’aime particulièrement. C’est aussi un clin d’œil à mon enfance… Le nom Vibiscus avait l’avantage d’être spécifique au niveau de sa prononciation et de refléter l’esprit et l’histoire du projet.

Pouvez-vous nous décrire, sur le plan technique, le dispositif que vous avez développé ? Quelles sont ses caractéristiques et comment fonctionne-t-il ?

Comme je l’évoquais précédemment, son principe de fonctionnement ne repose pas sur l’envoi d’un contre-bruit, qui ne fait que masquer le son indésirable. Pour nous, même si les ingrédients technologiques sont les mêmes, la philosophie est différente. On change ce que l’on appelle l’impédance acoustique, une propriété qui caractérise le comportement du milieu dans lequel le bruit se propage. Pour cela, nous utilisons des membranes, qui modifient la vitesse de l’air et des capteurs qui mesurent la pression de l’air. C’est ce rapport entre la pression et sa vitesse que l’on appelle l’impédance et que notre procédé permet de modifier. Cette technologie est évidemment brevetée et permet d’obtenir des surfaces qui vont absorber le bruit localement. L’idée n’est pas de tapisser des mètres carrés de mur avec ce dispositif, mais de l’utiliser localement pour absorber le bruit, par exemple, d’une bouche de ventilation. Les modules sont indépendants et peuvent être assemblés comme des Lego. On a un même élément de base que l’on peut produire en série, et combiner d’une manière différente en fonction de chaque besoin. L’installation est très souple.

Au niveau électrique, on dépense un peu d’énergie pour faire fonctionner l’électronique, mais assez peu finalement, environ dix fois moins qu’un contrôle actif, car on ne cherche pas à égaler un niveau sonore que l’on annulerait avec une contre-onde.

Nous avons développé une interface qui nous permet de programmer le dispositif, d’interagir avec lui, même s’il reste autonome. On peut avoir un réglage intelligent qui analyse le bruit et le traite en conséquence, mais le dispositif a aussi la capacité d’absorber dans de larges bandes de fréquence : on ne cible dans ce cas pas un bruit spécifique, mais une gamme de fréquences dans laquelle le matériau sera capable d’absorber.

Constitué d’un module de base de quelques centimètres de côté, le matériau peut être adapté à chaque situation par assemblage de ces « Lego » antibruit. © Vibiscus

Quels sont les principaux avantages de ce système ?

Le dispositif a notamment deux effets intéressants. Tout d’abord, en installant ces systèmes assez fins dans des fentes et des ouvertures, on peut, par exemple, avoir des bouches d’aération qui laissent passer l’air mais qui arrêtent le bruit. C’est très intéressant : ces systèmes sont en général assez bruyants, mais sont aussi nécessaires d’un point de vue sanitaire. Si je devais résumer en une phrase ce que l’on sait faire : faire circuler l’air tout en arrêtant le bruit.

Le deuxième effet appréciable est lié à l’aspect programmable du dispositif : on peut avoir des propriétés qui changent au fil du temps et des usages. Nous développons notamment des panneaux ajourés, destinés aux espaces de bureaux et plus largement à tous les milieux ouverts. Dans ces lieux, l’idée étant d’avoir de l’échange et de l’ouverture, on ne peut évidemment pas fermer l’environnement. L’objectif pour nous est donc de créer des bulles de silence, plus ouvertes que des cabines complètement fermées. Comme le système est programmable, on peut l’activer et le désactiver à volonté, mais on peut aussi, et surtout, avoir des niveaux d’absorption différents en fonction de l’usage. On peut donc regrouper en un même espace plusieurs usages qui, sinon, nécessiteraient d’avoir plusieurs pièces différentes. Il y a donc un intérêt en matière d’usage des bâtiments et des locaux : on peut multiplier les usages dans des locaux plus petits. Cela signifie donc moins de besoins de construction, moins de dépenses énergétiques en chauffage, en électricité… Pour les télétravailleurs, cela peut également leur permettre de s’isoler du reste de leur foyer.

On commence par ailleurs à prendre conscience de l’impact sanitaire du bruit. Cela cause du stress, perturbe le sommeil, peut contribuer au développement de pathologies… Les bruits basse fréquence notamment sont très fatigants, d’autant plus que l’on a un effet d’accoutumance : on finit par ne plus entendre un bruit car on le filtre mentalement, mais c’est quand il s’arrête que l’on ressent malgré tout un soulagement. On constate malheureusement trop tard que l’on a été soumis à un bruit néfaste.

Quel niveau de réduction de bruit le dispositif peut-il permettre d’obtenir ?

Nous avons mesuré des réductions de bruit allant jusqu’à 40 dB. Pour comparaison, un double vitrage permet une réduction d’environ 30 dB. Au-delà des chiffres, qui ne sont pas forcément parlants, nous avons un démonstrateur dans lequel on génère du bruit avec un haut-parleur et qui permet de faire vivre aux gens, en réalité, la réduction de bruit obtenue. Plus on met de modules, plus la réduction de bruit est importante. Il faut toutefois veiller au rapport coût/performances. L’idée n’est pas de mettre des modules partout, en grande quantité, mais plutôt de les placer de façon intelligente pour que le dispositif soit non invasif et efficace.

Avez-vous évalué le coût de ce système ? Quel type de clientèle visez-vous ?

Il est difficile de comparer son coût avec celui d’autres solutions. L’idée, par exemple, d’une isolation phonique traditionnelle, est de remplir complètement un mur, ce qui n’est pas notre philosophie. En revanche, nous sommes compétitifs par rapport au fait de louer un bureau supplémentaire qui serait nécessaire pour s’isoler du bruit d’un open-space… Nous sommes, de plus, en phase d’industrialisation, avec l’objectif d’une fabrication en série et donc une diminution des coûts. Nous ne nous adressons pas pour l’instant aux particuliers ; peut-être le ferons-nous un jour, mais pas à court terme. Nous visons d’abord les entreprises.

Quelles seront les prochaines étapes à franchir avant d’aboutir à la commercialisation du dispositif ?

Nous avons pour l’instant des démonstrateurs qui fonctionnent bien. La prochaine étape, désormais, consiste à aller sur le terrain installer des prototypes qui feront la démonstration in-situ du bon fonctionnement du système. Cela permettra de convaincre et mesurer la satisfaction des clients. C’est là-dessus que nous travaillons cette année. La commercialisation est prévue dans les trois ans qui viennent. L’équipe se renforce petit à petit, nous recrutons actuellement une troisième personne. Ensuite, par une levée de fonds ou l’appui d’un partenaire, nous visons le passage à dix voire quinze personnes, pour ainsi lancer l’industrialisation massive. C’est le programme des cinq prochaines années…

Nous poursuivons par ailleurs un gros travail de R&D sur l’élément de base du système, afin d’en améliorer les performances, d’en réduire le coût, de le simplifier, de le rendre plus compact, moins énergivore. C’est un programme de fond, qui comprend également une amélioration continue des programmes informatiques qui permettent le fonctionnement du système. L’avantage est que nous pourrons proposer des mises à jour qui vont faire avancer le système déjà existant : le matériau est programmable mais aussi évolutif. Il ne sera pas nécessaire de le jeter pour en installer un nouveau plus tard.

La collecte, première étape de la gestion des DEEE

La collecte hexagonale de DEEE est ainsi passée de 20 à 622 milliers de tonnes, entre 2006 et 2015.

L’ADEME, qui publie chaque année un rapport sur la collecte des DEEE, fait état pour l’année 2020 d’un volume de collecte qui continue de croître, pour atteindre 850 milliers de tonnes

Une collecte qui ne cesse donc de voir son activité augmenter, de façon cohérente avec le volume d’équipements EE mis sur le marché. En 2020, ce sont près de 2,2 millions de tonnes d’équipements électriques ou électroniques qui ont été mis sur le marché (chiffres de l’ADEME), un chiffre en augmentation de 1,5 %, bien que le nombre d’équipements mis en vente soit lui en légère baisse. 

Le taux de collecte global sur 2020 est donc de 44,3 %, loin de l’objectif affiché de 65 %.

Un élargissements des catégories de DEEE

Il existe aujourd’hui 14 catégories de DEEE, de l’ordinateur au panneau photovoltaïque en passant par les smartphones, les appareils connectés, les caméras… Quatre organismes ont été agréés par l’Etat pour accompagner la mise en place d’une filière de collecte et de transformation efficaces : Ecologic, Ecosystem, Soren et Srelec.

La valorisation des DEEE va se faire de différentes façons. Selon le niveau d’usure du produit, l’avenir de ce dernier va osciller entre :

Si la filière française continue à se développer, deux problématiques se posent aujourd’hui. D’abord, la multiplication du nombre d’appareils mobiles connectés, souvent de petite taille, qui risque de faire fortement augmenter le volume de DEEE produit par personne, même si ces derniers sont en général légers et influent peu sur le tonnage total des DEEE. Ensuite, il y a la nécessité de pouvoir réparer des équipements électriques et électroniques pour réutiliser au maximum ces équipements avant de les éliminer. De plus en plus d’entreprises proposent, à destination des entreprises et des particuliers, des prestations de gestion – réparation, maintenance, collecte, recyclage – de parcs informatiques. L’objectif est de limiter la production de DEEE, en optimisant le suivi du parc existant.

L’enjeu de la collecte

Si le taux de collecte atteint par la filière française est en deçà des objectifs affichés, ses représentants contestent les modes de calculs, arguant qu’un tiers environ des DEEE échappent à la collecte car ils sont trop difficiles d’accès. Une quantité non négligeable de DEEE sont gérés par des ferrailleurs sans contrat avec les éco-organismes concernés. Aussi, les erreurs de tri parmi les équipements et DEEE exportés échappent également à la collecte.

Quoi qu’il en soit, l’arsenal législatif mis en place a élargi la responsabilité de la collecte et de la valorisation des DEEE. Cela contraint désormais les utilisateurs ainsi que les producteurs à s’impliquer dans la collecte et la valorisation de ces déchets très spécifiques. 

L’élargissement récent des catégories de déchets intégrés aux DEEE donne également une nouvelle dimension aux défis qui attendent la filière DEEE dans les années qui viennent.

Enfin, la loi anti-gaspi, votée en février 2020 et élargie en février 2022, oblige désormais la mise en place d’un indice de réparabilité des appareils informatiques. De plus, les constructeurs d’ordinateurs et de smartphones sont tenus de proposer au détail la vente de pièces détachées, jusqu’à une période de cinq ans après le retrait d’un produit du marché. Ce sont des exemples concrets du changement de paradigme en cours, qui voit les acteurs du secteur des équipements électroniques et électriques limiter la production de DEEE en amont, mais aussi améliorer la collecte des DEEE produits en aval.

La télé-échographie : un système innovant issu de la recherche spatiale

Les fortes contraintes en termes de taille et de poids poussent les chercheurs et ingénieurs du CNES à concevoir des appareils de mesures médicales miniaturisés et autonomes, qui sont par la suite développés sur Terre, au bénéfice des citoyens européens. La société AdEchoTech, partenaire du CNES depuis de nombreuses années, exploite, par transfert de technologie, ce système d’imagerie à distance connu sous le nom de « Melody ».

La commercialisation réussie d’un projet de médecine spatiale, menée par le CNES

Les astronautes ont de multiples compétences et leurs profils diversifiés couvrent bon nombre de domaines scientifiques et techniques. Ils ne sont cependant pas forcément spécialisés dans l’imagerie médicale, en particulier l’échographie. Or, ce type d’imagerie permet un suivi quotidien efficace de leur état de santé. Un projet de télé-échographie a donc été mis en œuvre par le CNES et testé in situ par les astronautes à bord de l’ISS depuis plusieurs années, ainsi que par Thomas Pesquet en 2021.

La société AdEchoTech a perfectionné ce système et le commercialise sous la forme d’un robot baptisé « Melody » qui a été implanté maintenant dans environ vingt centres médicaux, dont la moitié à l’international et en particulier en Amérique du Nord et en Europe.

L’impact socio-économique du robot Melody

Ce robot permet à un médecin spécialisé en échographie d’effectuer l’examen sur un patient éloigné. Un système de visioconférence et deux sondes jumelles, l’une mise en place par une infirmière sur le patient et maintenue par un support dédié, et l’autre manipulée par le médecin échographe, autorise les deux personnes à communiquer comme si elles étaient ensemble dans la même pièce.

Expérience Echo (échographe téléopérée depuis la Terre) de la mission Proxima au Cadmos. Crédit image : CNES

Cet appareil améliore la prise en charge médicale des patients localisés dans des zones rurales ou montagneuses isolées et dépourvues de médecins, qualifiées de déserts médicaux, ou encore en zones de conflits. Il permet également d’économiser de l’argent et du temps en transport ainsi que de la fatigue, en particulier pour les personnes souffrantes. Son impact socio-économique est évident.

Le principe de fonctionnement du robot Melody

Le système comporte trois parties* : la station expert placée du côté du médecin échographe, la station patient du côté patient et le système de communication entre les deux stations.

La station expert est dotée d’une console qui gère les informations entrantes (en provenance de la station patient, telles que les images) et sortantes (telles que la reproduction des mouvements de la sonde haptique manipulée par le médecin, analogue aux sondes utilisées en réalité virtuelle et capables de restituer des sensations tactiles.

La station patient est dotée d’une console qui gère également les mêmes types d’informations (images et capture de la résistance de la sonde sur le corps du patient/retour de force).

Le système de communication fait circuler les images produites par l’appareil d’imagerie, les ordres de la sonde du médecin vers celle du patient ainsi que le retour de force de la sonde du patient vers le médecin. Il s’occupe également d’établir une communication en visioconférence entre eux.

Melody remplit son rôle d’imagerie médicale en abolissant les distances entre médecins et patients, et par conséquent les inégalités d’accès aux soins liées à la géographie. Il permet également une continuité de service en période de pandémie en limitant les contacts physiques.

______________________________________________

* Ces informations sont détaillées dans cette thèse soutenue en 2013 à l’Université de Rennes, et portant sur la « Commande d’un robot de télé-échographie par asservissement visuel ».

Retour sur le Plan de Transition Sectoriel de l’industrie cimentière

Les Plans de Transition Sectoriels (PTS) sont des projets pilotés par l’ADEME en étroite collaboration avec les acteurs clés des 9 filières industrielles identifiées comme les principales émettrices de gaz à effet de serre en France.

Ces plans permettent de co-construire des trajectoires de décarbonation sectorielles visant l’atteinte des objectifs de la Stratégie Nationale Bas Carbone (SNBC) pour l’industrie (81 % d’émissions de GES en 2050). Ils s’intègrent dans le projet Finance ClimAct qui a bénéficié d’un financement du programme européen LIFE.

Le PTS ciment est le premier rapport¹ publié. Il est disponible sur le site de l’ADEME, de même qu’une synthèse de 40 pages.

Les 9 secteurs de l’industrie qui font l’objet d’un PTS sur la période 2021-2025 (crédit : ADEME)

Techniques de l’ingénieur : 9 secteurs ont été identifiés pour ces PTS. Pourquoi avoir commencé par l’industrie cimentière ?

Elliot MARI est Ingénieur Décarbonation Industrielle au service industrie de l’ADEME. (Crédit : ADEME)

Elliot Mari : Les Plans de Transition Sectoriels sont une initiative de l’ADEME. Nous avons choisi de commencer par le secteur du ciment parce qu’il semblait plus simple à aborder. En effet, ce secteur a l’avantage de comprendre un nombre d’entreprises limité à 4 gros acteurs – LAFARGEHOLCIM, EQIOM, CIMENTS CALCIA, VICAT. Il était donc plus facile d’établir un dialogue assez étroit avec les représentants de ces quatre entreprises et leur fédération (SFIC), afin de construire ensemble ce plan qui est le fruit de deux années de travail.

La deuxième raison concerne bien entendu le fait que les secteurs du ciment et de l’acier sont les plus gros émetteurs industriels de gaz à effet de serre à l’échelle mondiale. Ils font donc partie de nos priorités.

Quelle est la démarche permettant l’élaboration des PTS ?

Pour les PTS, nous appliquons un fonctionnement par étapes. La première consiste à se mettre d’accord avec les acteurs de la filière sur l’état actuel et les évolutions récentes de leur secteur, aussi bien concernant les émissions de CO2 ou la consommation énergétique que les évolutions du marché et des emplois. C’est donc une photographie de l’ensemble des enjeux actuels.

La seconde étape est la construction de trajectoires technologiques réalistes. Les hypothèses émises sont alors débattues à travers une série de réunions avec les industriels.

Puis nous ajoutons à ces travaux une couche d’analyse des évolutions de marché sur les principaux secteurs de la demande (pour le ciment, les secteurs du Bâtiment et des Travaux Publics).

La mise en commun de ces deux approches nous permet ensuite de construire des scénarii de décarbonation en volume global de CO2 et d’évaluer leurs impacts en termes de besoins d’investissements et d’évolution du coût de production. Pour le ciment, ce sont ainsi de l’ordre de 4,4 Mds€ d’investissements qui seraient nécessaires pour diviser par deux le contenu carbone du ciment actuellement produit en France.

Avez-vous rencontré des difficultés au cours de ces travaux ?

Une modélisation poussée a été réalisée sur les leviers de décarbonation technologiques de l’appareil de production (les cimenteries) et ses effets sur les émissions de CO2.

Néanmoins les actions à mettre en œuvre pour rendre possible cette décarbonation engagent non seulement les cimentiers, mais aussi l’ensemble de la chaîne de valeur (industries du béton, acteurs de la construction, mais aussi de la déconstruction, du recyclage…). Ce sont donc des points que nous avons abordés dans le PTS de façon plus qualitative en consultant les acteurs de la filière aval, ce qui nous a permis d’identifier des pistes d’actions très diverses : optimisation de l’efficacité matière en phase de conception des bâtiments, rôle de la commande publique pour stimuler l’émergence des marchés en matériaux bas carbone, etc.

Pour l’ADEME, quels sont les objectifs des PTS ?

À travers les trajectoires de décarbonation des PTS, ce que nous voulons c’est mettre en lumière les enjeux et directions possibles, ainsi que leurs conditions de réalisation. Le but n’est donc pas de se substituer à des stratégies nationales ou à des stratégies de groupe industriel, mais de proposer des pistes pertinentes pour le secteur et l’ensemble de la chaîne de valeur.

D’après les retours qui nous ont été faits, ces travaux sont l’occasion pour les industriels d’avoir un regard d’ensemble sur les enjeux à l’échelle de la filière, d’entrevoir les possibilités d’évolutions technologiques réalistes et d’alimenter des travaux prospectifs. En effet, la force de cette démarche réside dans le process de co-construction qui crée un lien de confiance avec les industriels. Ils reviennent ensuite vers l’ADEME pour concrétiser leurs projets, ce qui contribue à renforcer la dynamique industrielle française.

Quels sont les prochains rapports prévus ?

Nos travaux sur le PTS ciment sont désormais terminés, mais nous continuerons à effectuer un suivi. Pour ma part, je suis également référent sur les secteurs aluminium et acier. Les travaux sont bien avancés et les résultats devraient être publiés en 2022.

D’autres collègues du service industrie de l’ADEME travaillent actuellement sur le PTS concernant les 3 secteurs de la chimie « Chlore, éthylène, ammoniac », dont la publication est prévue avant la fin de l’année 2022.


(1) ADEME. E. Mari, S. Sourisseau, A. Bouxin, C. Borde, S. Padilla, T. Gourdon 2021. Plan de Transition Sectoriel de l’industrie cimentière en France : Rapport final. 187 pages.

Agnès Pannier-Runacher : « Nos deux priorités sont la réindustrialisation et la décarbonation »

Aux commandes depuis cinq ans, le Gouvernement d’Emmanuel Macron a mis un accent particulier sur l’industrie. La ministre en charge de ce dossier, Agnès Pannier-Runacher, revient sur la stratégie engagée dans une optique de long terme pour réindustrialiser la France tout en décarbonant l’ensemble des activités économiques.

Techniques de l’Ingénieur : Quelle a été la priorité de votre mandat ministériel ?

Agnès Pannier-Runacher, Photo : ministère de l’Économie, des Finances et de la Relance

Agnès Pannier-Runacher : Depuis cinq ans, nos deux priorités sont la réindustrialisation et la décarbonation des activités pour pallier les aléas climatiques dont les dégâts touchent des vies humaines et coûtent de plus en plus cher. Depuis 2017, nous travaillons ainsi à la décarbonation de tous les secteurs comme le logement, l’agriculture, l’industrie, etc. sous deux aspects : l’offre et la demande.

Du côté de l’offre, il s’agit de trouver une politique industrielle qui rompe avec le passé où l’innovation a été soutenue sans penser à l’industrialisation. Or, un pays sans usines, qui ne compte que sur les « ateliers du monde » pour fabriquer, ça ne marche pas. La France a ainsi perdu 1 million d’emplois nets entre 2000 et 2016, tout en augmentant son empreinte carbone de 17 % à cause de ses importations. Nous avons donc décidé d’accompagner la R&D et l’innovation tout en aidant le développement industriel. Par exemple, pour les véhicules, cela va des nouvelles motorisations hydrogène et électrique aux biocarburants. Du côté de la demande, nous accompagnons les particuliers pour aider à financer des motorisations décarbonées, avec un million de primes à la conversion pour changer de véhicule.

Sur quoi repose la réindustrialisation ? Quelles en sont les limites ?

La réindustrialisation est un pari gagnant, en particulier avec le mix électrique déjà très décarboné de la France. Car les activités émettent moins de gaz à effet de serre chez nous que si elles sont réalisées dans d’autres pays. Une relocalisation n’est pas qu’un déplacement d’activités. Elle se fait souvent à l’occasion du développement d’un nouveau produit, de l’extension d’une ligne de production ou de la réintégration d’un élément de la chaîne de valeur. Via nos appels à projets, nous avons soutenu 782 projets de (re)localisation.

On doit être attentif à deux aspects. Tout d’abord, la réindustrialisation induit une dégradation de notre balance commerciale à court terme, car il faut s’équiper en machines, en équipements achetés dans d’autres pays pour créer les usines. Il faudra renforcer nos filières en la matière, car maîtriser ses machines de production, c’est aussi un enjeu de compétitivité. Ensuite, il est nécessaire de continuer à baisser l’empreinte énergétique de notre industrie, notamment en trouvant des alternatives aux énergies fossiles encore utilisées. Heureusement, ces consommations sont très concentrées, 15 sites regroupant à eux seuls 50 % des émissions de gaz à effet de serre de l’industrie. Nous avons ainsi lancé avec les filières industrielles des feuilles de route sectorielles pour identifier les actions possibles et planifier leur décarbonation.

Jusqu’où vont se porter les efforts de décarbonation ?

Avec France 2030, nous avons déjà injecté 1,2 milliard d’euros pour aider des projets. Nous avons atteint une économie de 2,8 MtCO2eq/an fin 2021 et notre objectif est de 3,6 MtCO2eq à mi-2022. Certains projets se réalisent plus rapidement comme les sécheurs dans l’agroalimentaire et vont apporter, dès 2023, un réel bénéfice aux industriels concernés vu l’augmentation des prix du gaz. Avec 5 milliards d’euros supplémentaires apportés dans le cadre de France 2030, je souhaite aller un cran plus loin pour financer la décarbonation profonde de l’industrie. Nous regardons toutes les technologies, y compris le captage/stockage de carbone, car il faut rester ouvert à toutes les solutions possibles pour diminuer notre empreinte carbone.

L’évolution du mix énergétique va-t-elle soutenir vos objectifs ?

La politique énergétique du Gouvernement est en phase avec l’objectif d’une société décarbonée. Comme le Président Emmanuel Macron l’a dit à Belfort, il faut simultanément diminuer la consommation d’énergie de 40 % comme le prévoit la Loi de 2015, augmenter massivement la production d’énergies renouvelables et conforter la production nucléaire d’électricité. Sur les énergies renouvelables, l’objectif est notamment de décupler la puissance installée en solaire photovoltaïque et de doubler celle en éolien terrestre. Pour l’éolien en mer, notre objectif est de 40 GW installés en 2050, en incluant les projets déjà en cours. Sur le nucléaire, la sûreté doit prévaloir dans le prolongement des centrales existantes qui sera fait au cas par cas. Nous devons aussi prévoir la construction de nouveaux réacteurs pour les remplacer. C’est pourquoi nous avons demandé à EDF d’étudier un projet de 6 nouveaux EPR, avec une option pour 8 réacteurs supplémentaires. Il faut aussi innover dans les SMR (petits réacteurs modulaires) pour rester une des nations les plus avancées dans le nucléaire. Ce sont des actions de long terme puisque les premiers nouveaux EPR ne seraient pas en fonctionnement avant 2035. À cet effet, l’État actionnaire d’EDF doit la soutenir financièrement et travailler en mode projet avec elle. De notre point de vue, la performance opérationnelle d’EDF est prioritaire !

L’actualité en Ukraine se répercute sur nos accès à l’énergie importée de Russie. Que faire à court terme ?

La France est en effet en partie dépendante aux importations d’énergies fossiles de Russie, par exemple à hauteur de 17 % pour nos importations de gaz naturel. Heureusement on a des stocks stratégiques nous permettant de faire face. Pour forcer la Russie à arrêter cette guerre en Ukraine, les sanctions contre les entreprises russes doivent être violentes. Mais il y aura des répercussions sur l’activité économique française : pour l’aider à résister, nous comptons cibler des mesures dédiées à la protection des ménages et des entreprises. J’ai d’ailleurs réuni tous les secteurs les plus concernés le 1er mars dernier et mis en place des points de contact à Bercy pour que les entreprises puissent parer aux premières conséquences qu’elles subissent (le 16 mars 2022, le Gouvernement a lancé un plan de soutien aux ménages et aux entreprises à cause de la hausse des coûts, NDLR).

Propos recueillis par Stéphane Signoret lors d’une rencontre organisée par l’Association des journalistes de l’énergie

Optimiser le recyclage des batteries de véhicules électriques

Les procédés de recyclage des batteries Li-ion usagées sont constitués d’étapes successives permettant de séparer les matériaux récupérables des impuretés. La méthode qui suscite actuellement beaucoup d’intérêt est une combinaison d’une étape de prétraitement thermique avec un processus d’hydrométallurgie. Bien que plusieurs entreprises soient en train de développer cette méthode au niveau industriel, celle-ci demeure encore largement optimisable.

Prétraitement par pyrolyse ou incinération ?

L’étape de prétraitement thermique a pour objectif d’éliminer les composés organiques ainsi que le carbone susceptible d’interférer avec les autres étapes de récupération.

Ce prétraitement thermique peut être réalisé de deux façons : par incinération (en présence d’oxygène) ou par pyrolyse (pas d’oxygène). Néanmoins, si cette étape est nécessaire, elle peut aussi conduire à une perte importante de métaux si les paramètres ne sont pas maîtrisés, ce qui réduit l’intérêt économique du recyclage.

Par ailleurs, la plupart des industriels du recyclage utilisent toujours l’incinération à la place de la pyrolyse et les études qui comparent ces deux techniques sont rares. La pyrolyse semble pourtant être une approche prometteuse, d’après les résultats obtenus par les chercheurs de Chalmers.

Des résultats qui peuvent faciliter fortement le recyclage des batteries

L’étude publiée dans le journal Waste Management avait pour objectif principal de comparer les effets des procédés de pyrolyse et d’incinération sur la récupération des métaux par hydrométallurgie.

Elle a permis de mettre en avant plusieurs points clés :

  • L’incinération rend plus difficile la réduction carbothermique des oxydes de Co, Mn et Ni en des formes solubles.
  • La pyrolyse, au contraire, permet de contrôler et d’améliorer la réduction, ce qui favorise la lixiviation(1).
  • Augmenter la température de la pyrolyse améliore clairement le rendement de la lixiviation, ce qui n’est pas le cas avec l’incinération.
  • Une température de pyrolyse de 700°C permet de mettre en solution la totalité de Li, Mn, Co et Ni.
  • À 700°C, l’augmentation de la durée de pyrolyse au-delà d’un certain seuil réduit le rendement de lixiviation, dans le cas de Co et Ni(2). La cinétique semble également diminuer.

Réaliser une pyrolyse à 700°C pendant 30 min semble donc être l’idéal. Dans l’étude, les chercheurs indiquent également que dans ces conditions favorables, « la récupération complète par lixiviation à l’acide sulfurique à température ambiante est atteinte après 2 min pour le Li, 5 min pour le Mn et 10 min pour le Co et le Ni. »

L’hydrométallurgie : un procédé utilisable à température ambiante

C’est aussi l’une des principales conclusions de cette étude : le processus hydrométallurgique peut très bien être réalisé à température ambiante. Selon les chercheurs, c’est un phénomène qui n’a jamais été testé auparavant, mais qui a des avantages majeurs du point de vue de la réduction de l’impact environnemental et du coût de recyclage des batteries.

Dans un communiqué de presse, Burçak Ebin (3), l’un des principaux auteurs de l’article, est enthousiaste :

« Nos recherches peuvent faire une énorme différence pour les développeurs dans ce domaine. Dans certains cas, il s’agit de réduire la température de 60 à 80 degrés Celsius à la température ambiante, et de passer de plusieurs heures à seulement 30 minutes ».


1. Processus qui consiste à mettre en solution des métaux, généralement en milieu acide.

2. Le rendement de la lixiviation passe de 100 % à 30 et 60 min, à 70 % en 90 min.

3. Chercheur au Department for Chemistry and Chemical Engineering de Chalmers.

Guerre en Ukraine : faut-il désinstaller les logiciels russes ?

Dans une note intitulée « Rapport Menaces et Incidents du CERT-FR » datée du 2 mars, l’ANSSI (Agence nationale de sécurité des systèmes d’information) manie le chaud et le froid.

Côté chaud, elle indique sans équivoque : « L’utilisation d’outils tels que ceux de la société Kaspersky peut être questionnée du fait de son lien avec la Russie ».

Et dans la phrase suivante, elle tempère ses propos : « À ce stade, aucun élément objectif ne justifie de faire évoluer l’évaluation du niveau de qualité des produits et services fournis ». L’agence officielle française n’est pas la seule à s’inquiéter. Le 15 mars, en Allemagne, l’Office fédéral de la sécurité des technologies de l’information (Bundesamt für Sicherheit in der Informationstechnik ou BSI) met « en garde contre l’utilisation des logiciels antivirus de l’éditeur russe Kaspersky. Le BSI recommande de remplacer les applications du portefeuille de logiciels antivirus de l’entreprise Kaspersky par des produits alternatifs ».

L’éditeur de l’antivirus a précisé dans un communiqué qu’il est « une entreprise privée internationale », que son infrastructure de serveurs est répartie partout dans le monde et que les données des utilisateurs européens sont traitées uniquement sur des serveurs basés en Europe.

Ce n’est pas la première fois qu’il est pointé du doigt. En 2017, les services de renseignement américains le soupçonnaient de profiter de ses accès aux ordinateurs américains pour communiquer des informations au renseignement russe.

Pourquoi l’ANSSI pointe-t-elle du doigt Kaspersky et pas d’autres éditeurs russes utilisés par des entreprises françaises et des particuliers, et même son concurrent direct, DrWeb ? Peut-être à cause du profil du fondateur de Kaspersky, Eugène Kaspersky, un ancien du KGB !

« La polémique autour de Kaspersky est bien naturelle étant donné les circonstances. Le problème est bien sûr loin de la sécurité informatique ; c’est dans l’intérêt de ceux qui voudraient prendre la place de Kaspersky sur des ordinateurs. Soupçonner est devenu l’arme des batailles économiques actuelles », nous a précisé en exclusivité Boris Sharov, le PDG de DrWeb.

Pour cet expert reconnu en matière de cybersécurité, le principe à suivre est clair et unique : « S’il y a une raison ou des raisons d’accuser Kaspersky d’espionnage, montrez les preuves ou demandez-lui des explications. Parlons-en publiquement ».

Cette polémique ne se limite pas à la France. Dès les premiers jours du conflit, l’éditeur DrWeb a reçu un email d’un de ses partenaires allemands qui lui demandait de préciser sa position sur la guerre en Ukraine.

« Sans précision de notre part, il ne pourrait pas contrer les soupçons de ses clients vis-à-vis d’un produit russe. Nous lui avons répondu qu’il confondait la politique et notre profession qui est l’équivalent d’un médecin : nous ne demandons pas à un blessé de quel côté il a combattu. Notre métier est de sécuriser les ordinateurs », insiste Boris Sharov.

Enfin, le PDG de DrWeb rappelle « « les programmes américains Blue Lantern, Carnivore et Magic Lantern ». Pendant les années 1990, les États-Unis ont en effet multiplié les systèmes de surveillance et d’infiltration. Le projet Carnivore par exemple a été initié par le FBI en 1997 et était capable d’intercepter tout le trafic des fournisseurs d’accès à l’internet.

Présentant des défauts, le programme Carnivore a été remplacé par « Magic Lantern » en 2001. Ce ver était capable d’intercepter tout ce qui était tapé sur un clavier ! Or, en 2001, le Washington Post rapportait que McAfee avait coopéré avec le FBI afin de s’assurer que son antivirus ne détecterait pas « Magic Lantern », et ainsi n’alerterait pas l’utilisateur ; cette information a cependant été démentie par l’éditeur d’antivirus dans un article du site d’information allemand Heise, et n’a pas pu être vérifiée par le média scientifique londonien New Scientist à qui Symantec (ancien nom de l’éditeur NortonLifeLock) a confirmé de son côté qu’il est en effet possible aux éditeurs de désactiver, en des circonstances exceptionnelles (quand un mandat est présenté par exemple), certaines mesures de sécurité de l’antivirus.

Surveiller la qualité des eaux à l’aide de mollusques connectés

Depuis 2006, la station marine d’Arcachon, un laboratoire de recherche du CNRS et de l’Université de Bordeaux, a développé une technologie innovante de valvométrie permettant d’enregistrer le comportement de bivalves (huîtres, moules, pétoncles, coquilles Saint-Jacques…). Ce procédé permet de surveiller de manière indirecte la qualité de l’eau, car lorsque celle-ci est polluée, le bien-être de ces animaux se trouve automatiquement affecté. Directeur de recherche émérite au CNRS, Jean-Charles Massabuau est à l’initiative de cette technique de biomonitoring qu’il a fait évoluer. Afin de la diffuser largement à travers le monde, il est sur le point de créer une start-up. Entretien avec le futur CEO de molluSCAN-eye®.

Techniques de l’Ingénieur : Comment fonctionne votre technologie ?

Jean-Charles Massabuau, directeur de recherche émérite au CNRS et futur CEO de molluSCAN-eye®. Crédit : molluSCAN-eye®

Jean-Charles Massabuau : Nous avons développé une technologie de valvométrie Haute Fréquence Non Invasive (HFNI) qui consiste à coller deux micros-électroaimants sur chacune des valves des bivalves.

Ces électrodes sont ensuite reliées à un boîtier étanche, contenant une carte électronique, et situé dans une cage dans laquelle sont protégés les animaux.

Ce boîtier est ensuite relié à l’aide d’un « cordon ombilical » (un câble électronique, NDLR) à un second boîtier situé à la surface de l’eau et connecté à internet. Tous les jours, il transmet les mesures recueillies à une station de traitement des données. Étant donné que nous sommes en cours de dépôt de brevet, je ne peux pas vous donner plus de détails sur notre technologie.

Un groupe de palourdes asiatiques sur lesquelles sont collées les électrodes. Crédit : molluSCAN-eye®

Que mesurent ces électrodes ?

Elles permettent de mesurer une dizaine de paramètres physiologiques afin d’évaluer le bien-être des bivalves, parmi lesquels la distance entre les deux valves pour connaître leur degré d’écartement, mais aussi la distance parcourue pour évaluer leur niveau d’agitation. Nous mesurons également très précisément la croissance en épaisseur des animaux en posant les capteurs uniquement sur de jeunes mollusques. Chez les huîtres par exemple, la coquille est sécrétée par l’intérieur de la valve et cette croissance, qui se produit à chaque marée, provoque une augmentation de la distance entre les deux électrodes. Nous mesurons aussi les pontes qui se caractérisent, chez la femelle huître, par une série de contractions des valves qui durent en moyenne une demi-heure et sont un signe fort de bonne santé.

Une huître connectée sous l’eau. Crédit : molluSCAN-eye®

Comment sont analysées les données ?

Elles sont traitées à l’aide d’algorithmes d’intelligence artificielle. Nous utilisons toujours un groupe de 16 animaux pour avoir un panel suffisamment représentatif. Par exemple, si un mollusque se ferme brusquement, on peut considérer qu’il a un problème « personnel », mais si 50 % du groupe se comporte de la même manière, cela signifie qu’il y a un paramètre extérieur, dans l’eau, qui est venu le perturber. Au niveau de la croissance, nous réalisons l’équivalent du suivi d’une courbe de poids chez un enfant. Si la courbe est régulière, tout va bien, mais si un arrêt de croissance est observé pendant un moment sur plusieurs animaux, c’est un signe fort qu’il y a quelque chose qui ne va pas dans l’eau. Nous analysons également les tendances et grâce à la conservation des données, nous sommes capables de remonter à l’origine d’une dérive. Dans le cas par exemple d’une utilisation de notre procédé à la sortie d’une usine, on peut alors avertir l’industriel pour voir s’il a changé son process à une date donnée. Puis, procéder à des analyses chimiques pour déterminer le polluant en cause.

La cage dans laquelle sont protégés les bivalves connectés. Crédit : molluSCAN-eye®

Pouvez-vous nous donner des exemples d’applications ?

Notre technologie peut par exemple être utilisée pour surveiller la qualité des eaux en sortie de stations d’épuration, à proximité de stations pétrolières en mer, ou d’usines de raffinement de pétrole situées près des côtes. Elle présente aussi un intérêt pour surveiller les eaux des ports, surtout ceux construits à l’ancienne, où il y a peu de renouvellement des eaux. Régulièrement, des opérations de dragage sont effectuées avec le risque que la vase déplacée contienne des polluants. Autre exemple, nous sommes actuellement en contact avec une entreprise qui souhaite implanter des champs d’éoliennes en mer. Notre procédé permettrait de connaître l’effet de la pollution sonore des pales sur les bivalves, qui font partie de la base de la chaîne alimentaire.

Quels sont les atouts de votre technologie ?

Elle se révèle très pertinente pour observer les pollutions silencieuses, celles qu’on ne voit pas. En Europe, il existe environ 100 000 produits chimiques commercialisés, mais seulement 500 peuvent être dosés de manière pratique et sont suffisamment caractérisés pour en déterminer les risques. 10 000 sont plus ou moins bien caractérisés, et 20 000 insuffisamment caractérisés. Il reste donc environ 70 000 produits chimiques qui ne sont pas détectés et dont on ne connaît pas les effets. Et encore, je ne parle pas des effets cocktails, c’est-à-dire des interactions entre plusieurs produits chimiques. L’avantage de notre technique de biomonitoring est qu’elle est capable de détecter les substances toxiques signifiantes à court et moyen termes pour l’animal. Elle recueille également des informations sur la qualité de l’eau 24h sur 24 et 7 jours sur 7. Elle est insensible aux variations de la turbidité de l’eau, de la salinité et au fouling (accumulation de micro-organismes, NDLR). Elle est aussi très précise avec une mesure de la distance entre les deux électrodes de l’ordre de 2 à 3 micromètres, voire moins. Elle peut être déployée en mer, sans maintenance, pendant plus de trois ans et demi. Enfin, cette technique est non invasive avec des électrodes qui pèsent moins de 1 gramme.

Quelles sont les perspectives de votre procédé ?

Nous sommes en incubation à la SATT (Société d’accélération du transfert de technologies) Aquitaine avec l’objectif de créer une start-up au cours du deuxième semestre 2022. Nous pensons que c’est en commercialisant notre technologie que nous pourrons la diffuser largement et qu’elle aura le plus d’impact pour améliorer la surveillance de la qualité des eaux. Notre technologie est déjà très mature, car nous l’avons déployée dès 2009 au Spitzberg en Norvège, à 1 300 km du pôle nord, et nous travaillons avec Total depuis 2012. Nous pensons que les techniques de biomonitoring ont de l’avenir, car elles sont plébiscitées par l’Europe qui pousse à la recherche de produits toxiques à partir de leurs effets sur les animaux. Aujourd’hui, la question dans un premier temps n’est plus de savoir ce que contient l’eau, mais est-ce qu’elle contient des substances toxiques ? Ce n’est qu’ensuite qu’on veut lancer les analyses chimiques ciblées. Et face à cette interrogation, les animaux sont les mieux placés pour y répondre.

Un solvant plus sélectif pour la séparation des terres rares

Les 17 éléments chimiques constituant la famille des terres rares (lanthanides, yttrium, scandium) sont essentiels au développement des technologies vertes et des nouvelles technologies en général. Ils entrent dans la fabrication d’aimants permanents (samarium-cobalt, néodyme-fer-bore), de batteries d’accumulateurs pour véhicules hybrides, de catalyseurs pour le raffinage du pétrole, et servent aussi dans de nombreuses applications optoélectroniques.

Devant la forte croissance de la demande en terres rares et face à une situation de monopole de la Chine, de nombreux projets concernant l’extraction, la séparation et le recyclage de ces ressources stratégiques sont ainsi en train de voir le jour.

La séparation liquide-liquide

À l’état naturel, les terres rares sont regroupées ensemble dans différents minerais – inégalement répartis à travers le globe – et sont présentes à des concentrations faibles, ce qui les rend difficilement exploitables. De plus, pour qu’elles soient utilisables industriellement, ces terres rares doivent aussi être séparées, par des processus de séparation complexes, en raison des propriétés physico-chimiques extrêmement proches. Par ailleurs, cette séparation s’avère coûteuse et génère beaucoup de déchets.

Le processus de séparation classique, en phase liquide-liquide, consiste à utiliser des molécules organiques (des ligands) pour fixer les ions de terres rares de façon sélective :

  1. Un solvant huileux contenant les ligands est vigoureusement mélangé avec la solution aqueuse riche en terres rares ;
  2. Les ions de terres rares réagissent avec les ligands de la partie organique pour former des complexes ;
  3. La non-miscibilité entre la partie huileuse et la partie aqueuse permet la séparation.

Un agent d’extraction plus sélectif

Dans un communiqué de presse, Santa Jansone-Popova, co-autrice de l’étude publiée dans le journal ACS Inorganic Chemistry, donne les raisons qui motivent la recherche de nouveaux ligands d’extraction :

« Le composé largement utilisé dans l’industrie est un agent d’extraction à base de phosphore, appelé PC88A. Comme sa sélectivité est relativement faible, de nombreuses étapes de séparation sont nécessaires, ce qui génère beaucoup de déchets supplémentaires tout au long du processus. »

La sélectivité est définie par un facteur qui caractérise la préférence d’un solvant vis-à-vis d’un métal, par rapport à un autre. Dans le cas de la séparation du néodyme et du praséodyme, par exemple, le facteur de séparation n’excède pas 1,2 avec un agent d’extraction du type PC88A.

Ce chiffre très faible a une conséquence directe sur le procédé : de nombreuses étapes d’extraction sont ainsi nécessaires pour obtenir une séparation complète.

La solution proposée par les chercheurs consiste à utiliser un nouveau type d’agent d’extraction basé sur des ligands diglycolamide (DGA), dont la sélectivité s’échelonne de 2,5 à 3,1.

Un facteur de séparation encore améliorable

Bruce Moyer, responsable des projets pour la diversification de l’approvisionnement des terres rares et ressources critiques au  Critical Materials Institute (CMI), est enthousiaste :

« La plupart des agents d’extraction des éléments de terres rares ont un facteur de séparation d’environ 1,5 pour les lanthanides adjacents – si nous arrivons à 2, c’est bien. Si nous arrivons à 2,5, nous commençons vraiment à économiser de l’argent. Si nous arrivons à 3, nous sommes vraiment heureux. Nous avons atteint un facteur de 6,7 en utilisant l’un des ligands de Santa [Jansone-Popova]. »

Si ces travaux, réalisés en collaboration avec Marshallton Research Laboratories, doivent être poursuivis, ils ont bien une vocation industrielle. Selon Mac Foster, copropriétaire de l’entreprise à qui la technologie a été cédée sous licence :

« Chez Marshallton, notre objectif est de devenir un fournisseur national – pour les USA – stratégiquement fiable d’agents d’extraction DGA pour les éléments de terres rares. Nous prévoyons de desservir des usines pilotes et des opérations commerciales dans le traitement du minerai, la récupération des résidus miniers et le recyclage ».

Annie-Pierre Jonville-Béra : « Jamais un vaccin n’a été surveillé de manière aussi intense que ceux contre la Covid-19 »

Annie-Pierre Jonville-Béra dirige le service régional de pharmacovigilance Centre-Val de Loire situé au CHRU de Tours. Après un doctorat en médecine et un master en pharmacologie clinique et en épidémiologie clinique, cette spécialiste des effets indésirables a été nommée en 2011 responsable du Centre Régional de Pharmacovigilance situé à Tours. Depuis 2016, elle est également présidente du Réseau Français des Centres Régionaux de Pharmacovigilance.

Techniques de l’Ingénieur : Le nombre de déclarations d’effets indésirables reçues par votre Centre de pharmacovigilance a explosé en 2021 avec 6 854 déclarations pour la région Centre-Val de Loire. Comment expliquez-vous cette augmentation ?

(copyright DR)

Annie-Pierre Jonville-Béra : Ce nombre très élevé est dû aux vaccins contre la Covid-19. Pour deux raisons principales. La première est la communication importante qui a été faite sur le suivi de pharmacovigilance et qui a incité les professionnels et les patients à tout déclarer. Deuxièmement, de nombreux centres de vaccination n’ont pas informé correctement les personnes sur le fait qu’elles risquaient d’avoir, dans les 24 à 48 heures après l’injection, ce qu’on appelle les effets « réactogènes » (comme de la fièvre). Il faut préciser qu’à la différence des médicaments dont la notice précise les effets connus, les vaccins multidoses ne comportent pas de notice.

En quoi consiste votre travail ?

La mission de la pharmacovigilance, c’est de détecter des effets nouveaux ou graves, qui pourraient amener à changer l’utilisation du médicament, à modifier le rapport bénéfice/risque dans une partie de la population. Il s’agit de documenter les cas graves pour affiner le lien entre le vaccin et le médicament. Lorsque des effets indésirables graves nous sont signalés par un médecin, nous récupérons le compte-rendu d’hospitalisation, les examens, les prises de sang et les radios. Il s’agit pour nous de constituer un dossier complet afin d’évaluer le lien entre la pathologie et le médicament ou le vaccin. Après analyse, toutes les déclarations sont transmises, par moyen informatique, à l’Agence nationale de sécurité du médicament et des produits de santé (ANSM) puis dans une base mondiale. Notre travail consiste aussi à repérer les cas graves, pas encore connus qui pourraient nécessiter de prendre des mesures de sécurité sanitaire.

Nous procédons par élimination. Quand une personne présente des signes cliniques après un médicament ou un vaccin, nous regardons si cela s’explique par une autre cause ou une autre maladie, si un mécanisme d’action du médicament peut être en cause et enfin s’il y a déjà eu des cas rapportés et déjà publiés. Par exemple, si vous faites une hépatite une semaine après l’injection d’un vaccin, nous devons nous assurer qu’il ne s’agit pas d’une hépatite virale, d’un calcul dans la vésicule biliaire. Si tous les tests sont négatifs, la cause pourrait être le vaccin.

Mais globalement, l’évaluation du rapport bénéfice/risque des vaccins est plus compliquée que pour d’autres médicaments. C’est subtil, car il faut prendre en compte le bénéfice individuel et collectif.

Les essais cliniques ne peuvent pas détecter ces effets indésirables ?

Non, car le nombre de personnes participant à ces essais n’est pas assez important pour dépister des effets très rares. C’est la raison pour laquelle nous avons repéré avec ces vaccins des effets qui n’avaient pas été identifiés auparavant. Par exemple, nous avons constaté que le vaccin AstraZeneca était réactogène. Chez les jeunes, c’est presque un sur deux qui fait une réaction majeure, avec de la fièvre… Deuxièmement, il a été mis en évidence un nouvel effet (diminution des plaquettes et thromboses) uniquement chez les sujets jeunes, c’est la raison pour laquelle ce vaccin avait été réservé aux plus de 55 ans.

Les vaccins à ARN messager (Pfizer et Moderna), ainsi que les autres types de vaccins, ont donc été particulièrement surveillés ?

Je ne sais pas si tous les pays ont effectué une surveillance aussi rapprochée que la nôtre, mais en tous les cas c’est le cas en Europe. Nous avons atteint un niveau de surveillance très élevé. Avant la pandémie, nous avions quelque 1 300 déclarations par an. Avec les campagnes de vaccination, nous avons fait l’équivalent de six années de travail en une ! On a fait plus de 100 millions de doses en un an. Jamais un vaccin n’a été surveillé de manière si intense, sur un temps si court et avec un panel si important. Cela nous a permis de mettre en place de nouvelles modalités de fonctionnement qui seront utiles s’il y a une nouvelle pandémie ou une nouvelle crise sanitaire.

Comme d’autres services de santé, vous manquez de personnel et vous avez du mal à recruter. La pharmacosurveillance n’attire pas les foules ?

La pandémie va peut-être susciter des vocations, mais nous manquons de budget pour recruter. Nous ne sommes pas un service de soins prenant en charge les patients. Pour les établissements de santé, nous sommes un peu comme la cerise sur le gâteau ! Par ailleurs, il n’y a pas un cursus médical spécifique (comme la cardiologie par exemple) et peu d’étudiants connaissent notre activité. Ce sont plutôt des étudiants qui découvrent notre travail, à l’occasion d’un stage dans nos services pendant leurs études, qui s’y intéressent et se spécialisent ensuite en pharmacologie.

Pénurie de semi-conducteurs : l’Europe ambitionne d’être moins dépendante

La pandémie de Covid-19 a fait flamber la demande de semi-conducteurs. La sortie mondiale de deux nouvelles consoles de jeux (PlayStation 5 et XBox X) et le début du déploiement des infrastructures des réseaux 5G ont été impactés. Cette pénurie mondiale a aussi touché des secteurs industriels comme l’automobile.

Et la guerre en Ukraine n’arrange rien. Résultat, cette situation devrait perdurer cette année, car la capacité de production des fondeurs de semi-conducteurs est insuffisante par rapport aux besoins. Or, ce marché est aux mains de deux fondeurs, le Taiwanais TSMC (Taiwan Semiconductor Manufacturing Company) et le Sud-Coréen Samsung.

Impossible pour un concurrent de casser cette position de duopole, même par le géant américain Intel qui a multiplié les erreurs et ne maîtrise pas les dernières technologies. Le nouveau patron du géant américain du secteur, Pat Gelsinger, a beau annoncer des investissements initiaux de 20 milliards de dollars pour ces nouveaux sites en Arizona, le retard est impossible à combler. Les deux poids lourds asiatiques investissent des dizaines de milliards de dollars par an depuis dix-quinze ans !

L’Europe met 43 milliards sur la table

Dans ce contexte, de nombreux pays, y compris les États-Unis et la Russie, tentent d’être moins dépendants. Dès le début de l’invasion en Ukraine, différents fondeurs (les Américains Intel et AMD mais aussi TSMC) ont annoncé qu’ils arrêtaient les livraisons de composants électroniques à la Russie. Une épine de plus dans le pied de Poutine ! Même si la Russie a développé ses propres circuits électroniques, sous la marque Baïkal, ces derniers sont fabriqués par… TSMC.

Pour le vieux continent, il y a urgence à renforcer le plus vite possible ses capacités de production de microprocesseurs sur son sol. L’Europe a pris conscience que les microprocesseurs sont partout. Le Chips Act est un signal fort. Pour multiplier par deux la part de marché de l’Europe – actuellement 10 % – dans les semi-conducteurs d’ici 2030, la Commission a annoncé une enveloppe budgétaire de 43 milliards d’euros.

L’Europe a des atouts pour les prochaines années sur la chaîne complète de fabrication des microprocesseurs. À commencer par ASML. Inconnu du grand public, ce groupe néerlandais est le leader mondial de la fabrication de machines de photolithographie pour l’industrie des semi-conducteurs.

« Peut-elle accoucher d’un TSMC ? Non, selon moi, car nous n’avons plus le temps. Il faudrait des dizaines de milliards d’investissements et de la compétence. La bonne démarche, et qui a déjà démarré, c’est “bienvenue aux fondeurs asiatiques” ! Si ces deux fondeurs disposent d’usines sur le vieux continent, nous serons à l’abri, géographiquement parlant, d’une guerre ou d’un conflit entre la Chine et Taïwan. Il ne faut pas tarder, car ces projets mettent 4 à 5 ans pour être concrétisés, surtout en Europe avec les lourdeurs administratives et la guéguerre entre les pays pour savoir où seront installées ces usines », prévient Louis Naugès, spécialiste des technologies numériques.

Conserver ARM, un acteur clé pour l’Europe

Le vieux continent pourrait ainsi s’assurer une forte résilience et se mettre à l’abri des chocs éventuels qui pourraient se produire dans les autres continents. Sa stratégie s’inspire d’ailleurs de celle adoptée par les États-Unis. Des usines des deux leaders asiatiques sont en cours de déploiement. Pour l’Europe et les États-Unis, la principale crainte réside dans l’invasion de Taiwan par la Chine. La mainmise de la Chine continentale sur les activités de TSMC aurait un impact très fort sur l’industrie mondiale du numérique.

« Une fermeture éventuelle du robinet “microprocesseurs” TSMC (Taiwan Semiconductor Manufacturing Company) par la Chine continentale aurait plus d’impacts sur l’économie mondiale que la crise pétrolière de 1973 », considère Louis Naugès.

L’Europe doit aussi protéger ses cartes maîtresses comme ASML qui est en forte croissance. Pour Louis Naugès, il est également important d’investir dans « ARM, car c’est un concepteur clé pour tous les microprocesseurs intégrés dans les smartphones. »

Le rachat d’ARM par l’américain NVIDIA a été définitivement bloqué en 2022, suite au blocage des Européens et des Américains. Softbank, son actionnaire japonais actuel, prévoit donc de faire rentrer en bourse ARM et a choisi New York.

« Ce serait une excellente opportunité pour l’Europe de faire en sorte que des industriels européens du secteur prennent une participation forte dans ARM, suffisante pour leur donner le contrôle de la société. Avec ARM, ASML, Soitec, STMicroelectronics, Infineon et quelques autres entreprises importantes, l’Europe dispose d’une industrie qui peut continuer à jouer un rôle actif dans cette industrie des microprocesseurs », estime Louis Naugès.

Un nouveau réacteur à lit dynamique pour transformer le CO2 gazeux en liquide

Face au réchauffement climatique, il devient urgent de limiter drastiquement les émissions de CO2 dans l’atmosphère. Depuis plusieurs d’années, des travaux portent également sur la conversion de ce gaz en une source de carbone utile. Dans le cadre d’un projet nommé DYNABIOCAT et cofinancé par les instituts Carnot Ingénierie@Lyon et MICA (Materials institute Carnot Alsace), le laboratoire CP2M (Catalyse Polymérisation Procédés & Matériaux) a développé un nouveau type de réacteur capable de transformer le CO2 gazeux en liquide avec un faible coût énergétique. Il s’agit d’une première étape indispensable avant de pouvoir produire des sels d’intérêts, comme des précipités de carbonate de magnésium ou de carbonate de calcium. Ce dernier composé est par exemple utilisé par les cimentiers pour fabriquer des bétons.

L’innovation repose sur la conception d’un réacteur, constitué d’une colonne remplie d’eau, à l’intérieur de laquelle sont placées deux mousses élastomères qui ont la particularité d’être soumises à des cycles de compression et détente. Comme le montre la vidéo ci-dessous, ce lit dynamique a pour effet de créer des forces de cisaillement des bulles de CO2 et ainsi favoriser le transfert matière du gaz au liquide. « C’est la première fois que la morphologie d’un garnissage est modifiée à l’intérieur même d’une colonne, déclare David Edouard, Maître de conférences à l’Université Claude-Bernard Lyon 1 et chercheur au CP2M. En le comprimant, le garnissage mousse n’a pas la même porosité, et la tortuosité des fluides gaz ou liquide qui s’écoulent à travers est aussi modifiée ; deux paramètres qui sont normalement constants dans des procédés conventionnels. Malgré cette déformation in situ, le volume global du garnissage mousse reste constant puisque lorsque l’une est comprimée, l’autre se détend. Ces cycles ont pour effet de fractionner les bulles de gaz, de les rendre plus petites et ainsi favoriser le transfert gaz-liquide. »

Le réacteur à lit dynamique développé par le laboratoire CP2M. Crédit : Institut Carnot Ingénierie@Lyon

En moyenne, les procédés conventionnels avec un garnissage de deux mousses fixes parviennent à dissoudre environ 500 à 600 mg de C02 par litre d’eau. Grâce à ce réacteur dynamique, la dissolution peut atteindre 1 800 à 1 900 mg/l, soit 3 à 4 fois plus. Et ceci, avec les mêmes conditions de débit de gaz et de liquide, de température et de pression. Cette performance présente l’intérêt de permettre la conception de réacteurs très compacts. La colonne ne mesure en effet que 16 cm, alors qu’avec un lit fixe conventionnel, elle devrait mesurer environ 80 cm, afin d’y accueillir plus de mousse, et ainsi atteindre le même niveau de dissolution du CO2. « En plus de leurs coûts plus élevés, les industriels n’aiment pas les colonnes de grandes dimensions, car elles posent des problèmes de distribution du gaz et du liquide, et des phénomènes de courts-circuits ou de volume mort, analyse le chercheur. Ici, l’intérêt est d’avoir un procédé miniature et peu encombrant permettant une intensification du transfert gaz-liquide et donc une bonne maîtrise de la réaction. »

La consommation électrique ne dépasse pas 35 watts

Au final, le transfert de matière gaz-liquide, mesuré par le coefficient kla (s-1), se trouve grandement amélioré. Il s’élève en effet à environ 10-2 s-1, contre environ 10-3 s-1 pour les systèmes conventionnels à garnissage mousse fixe, soit une multiplication par 10. En contrepartie, la consommation d’énergie pour mettre en œuvre ce procédé est faible. « Pour actionner les cycles de compression et de détente in situ, nous avons conçu un système basé sur un vilebrequin à l’aide d’une roue qui tourne et un axe positionné à sa périphérie, qui monte et qui descend, précise David Edouard. Le système fonctionne à l’aide d’un petit moteur électrique dont la consommation électrique maximale ne dépasse pas 35 watts, soit moins qu’une ampoule. »

La seconde partie de ce projet de recherche, développée en collaboration avec l’ICS (Institut Charles Sadron), est en cours de finalisation. Elle a pour but de transformer le CO2 liquide en bicarbonate (HCO3-) puis en carbonate (CO32-). Cette dernière étape permet ensuite de déclencher les réactions de précipitation, pour produire par exemple des précipités de magnésium, baryum ou de calcium (carbonatation). Les scientifiques développent en ce moment un procédé pour encapsuler l’anhydrase carbonique. Il s’agit d’une enzyme naturellement présente dans le corps humain et capable de transformer de manière très efficace et très rapide le CO2 liquide en bicarbonate et carbonate. En raison de son coût, elle n’est pas employée à l’échelle industrielle. L’encapsulation de l’anhydrase carbonique à l’aide d’un hydrogel supramoléculaire présente l’intérêt de prolonger sa durée de vie. De plus, le caractère aqueux du gel associé au flux d’eau du réacteur doit permettre d’éviter l’accumulation de sels de carbonate et ainsi rendre le procédé plus performant dans le temps. Lorsque ce procédé sera au point, l’enjeu sera alors d’appliquer ces enzymes encapsulées sur les deux mousses élastomères du réacteur afin de les fonctionnaliser. Ainsi, immédiatement après le passage du CO2 sous sa forme liquide, il sera transformé en bicarbonate puis en carbonate et pourra réagir avec des ions Ca2+ ou Mg2+ pour réaliser des précipités d’intérêts.

Les modifications physiologiques de l’absence de pesanteur évaluées par l’expérience d’immersion sèche 100 % féminine du CNES

Guillemette Gauquelin-Koch a été chercheuse en médecine, en particulier dans le domaine cardiovasculaire et de l’hypertension artérielle. Elle a publié en tant que co-auteure et co-éditrice en 2020 un livre, L’humain & l’espace, qui explique de manière très claire et pédagogique les problèmes humains liés aux vols et séjours de longue durée dans l’espace, en apesanteur. Sa précieuse et longue expérience dans ce domaine, acquise depuis 1982 au contact de tous les astronautes français ayant séjourné dans l’espace, nous est partiellement restituée au cours de cet interview.

Techniques de l’Ingénieur : Qu’est-ce qu’une expérience d’immersion sèche ?

Guillemette Gauquelin-Koch : Cette expérience consiste à immerger jusqu’au cou une personne dans une baignoire dédiée et de grandes dimensions, remplie d’eau tiède (entre 32°C et 34,5°C). Elle est isolée de l’humidité par une grande toile imperméable et extensible en polystyrène, et est recouverte d’un drap en coton pour des questions de confort et d’hygiène. Elle reste allongée pendant toute la durée de l’expérience, soit pendant cinq jours lors la dernière expérience menée en décembre 2021. L’expérience a eu lieu au MEDES à Toulouse (Institut de Médecine et de physiologie spatiales).

Cette expérience est conçue pour observer et mesurer les effets de l’absence de pesanteur sur l’organisme humain à très court terme, lors des séjours dans l’espace, notamment à bord de l’ISS mais également en prévision des vols à destination de la Lune et de Mars.

Pourquoi est-ce utile de mener cette expérience sur Terre ?

Il est indéniable que les séjours dans l’espace, en impesanteur, modifient la physiologie des astronautes, dans le sens d’une « dégradation ». Il est donc nécessaire de faire l’inventaire de ces modifications et trouver des contre-mesures afin de maintenir les astronautes en bonne santé. Malheureusement, le caractère exigu des habitacles spatiaux empêchant l’installation du matériel médical complet, l’échantillon constitué d’un faible nombre d’astronautes ainsi que leurs emplois du temps contraints ne permettent pas une étude approfondie dans l’espace.

Campagne d’immersion sèche Vivaldi de l’ESA, réalisée au Medes sur des sujets exclusivement féminins. Les volontaires sont placées pendant 5 jours dans des bassins semblables à des baignoires et recouverts d’un tissu imperméable pour les garder au sec et avec une pression de l’eau qui s’exerce de façon uniforme sur toute la surface corporelle. En conséquence, l’organisme humain l’interprète comme une « absence complète d’appui » à une situation semblable à ce que vivent les astronautes dans la Station Spatiale Internationale. © CNES/DE PRADA Thierry, 2021

Le seul moyen d’effectuer des expériences significatives et de bonne qualité est d’imaginer et de mettre en œuvre des protocoles au sol.

Pourriez-vous nous donner des exemples de modifications physiologiques survenant en l’absence prolongée de pesanteur ?

Un premier exemple de modification se situe au niveau de la répartition des fluides dans le corps. Un grand volume de sang, environ 1,5 litre, passe de la partie inférieure du corps à la partie supérieure. C’est ce qui explique le gonflement du visage des astronautes lorsque la fusée atteint l’altitude de 100 kilomètres, distance à laquelle on peut considérer que la pesanteur devient négligeable. Cette répartition persiste durant toute la durée du séjour, ce qui modifie le fonctionnement du système cardiovasculaire. L’immersion sèche reproduit en quelques jours ces effets et permet de réfléchir à des contre-mesures.

Un deuxième exemple de modification se situe au niveau des muscles et du squelette qui ne sont plus sollicités aussi fortement que sur Terre. L’alitement prolongé durant l’expérience d’immersion sèche reproduit ces effets et met en évidence des désordres métabolique, musculaire, hormonal, rénal et osseux.

Pourquoi avez-vous choisi uniquement des sujets féminins dans cette expérience d’immersion sèche ?

L’immersion sèche a été initialement mise en œuvre en 1966 par des chercheurs russes. J’ai importé ce concept en France ainsi que deux baignoires dédiées. J’ai peaufiné et impulsé sa mise en place dès 2015, puis en 2016 et 2019 au MEDES et ces expériences sont uniques en Europe, en excluant la Russie. Les sujets étaient jusqu’à présent des hommes car le nombre d’astronautes féminins était marginal. Ce n’est plus le cas maintenant puisqu’il y a une tendance à la féminisation des équipages, et c’est la raison pour laquelle une expérience 100 % féminine a été mise en place en 2021.

Quels sont les résultats de cette dernière expérience ?

L’expérience s’est achevée il y a deux mois et les résultats ne sont pas encore disponibles. Les données vont être exploitées par une dizaine de laboratoires répartis sur tout le territoire français pendant deux années.

Quelles sont les retombées sociétales d’une telle expérience dédiée à la recherche spatiale ?

Une première application envisageable de l’immersion sèche sur une très courte durée, soit quelques heures au maximum, serait d’ordre thérapeutique. En effet, on pourrait imaginer soigner l’hypertension en cardiologie ou les œdèmes en néphrologie, ou encore soulager les maux de dos pour les femmes enceintes.

On pourrait également prévoir les effets physiologiques liés à une sédentarité sévère, transposable à des personnes hospitalisées et alitées durant de long mois, ou encore à des personnes sans aucune activité physique, assise toute la journée devant la télévision ou un écran de tablette ou smartphone. L’un des effets de cette « privation de gravité » est le dysfonctionnement d’organes, tels que le foie, qui se mettent à stocker de la graisse et provoque des maladies inattendues. Ce constat permet de réfléchir à l’élaboration de contre-mesures dans le domaine de la santé publique.

Ainsi, le coût des expériences d’immersion sèche sert d’investissement non seulement dans le domaine spatial mais aussi dans le domaine de la santé publique.

Un matériau 100% biosourcé aux propriétés mécaniques similaires au cuir

Après une thèse sur la fabrication de bioplastiques à base de farine de maïs au laboratoire IMP (Ingénierie des matériaux polymères) à Saint-Étienne, Fanny Deleage exerce son premier emploi dans l’industrie agroalimentaire. Elle a pour mission de concevoir de la « fausse viande » à partir de protéines végétales. À la suite de ses deux expériences, elle a l’idée de combiner ses deux savoir-faire pour reconstituer la structure moléculaire du cuir à l’aide de produits 100 % biosourcés. Elle retourne dans son laboratoire d’origine et convainc son ancien directeur de thèse, Yvan Chalamet, de développer son idée avec elle. Tous les deux parviennent à la preuve de concept d’un nouveau matériau et créent, en août 2020, une start-up. Rencontre avec Fanny Deleage, la cofondatrice de La tannerie végétale.

Techniques de l’Ingénieur : Comment avez-vous réussi à reconstituer la texture du cuir à partir de matières biosourcées ?

Fanny Deleage, cofondatrice de La tannerie végétale. Crédit : La tannerie végétale

Fanny Deleage : L’idée de départ est de reprendre le même procédé que celui utilisé pour fabriquer des cuirs, qui consiste à associer des protéines animales à des tannins minéraux, métalliques ou végétaux, en les remplaçant par des protéines végétales et des tannins uniquement végétaux. Au final, cela donne un matériau thermoplastique malléable, aux propriétés mécaniques similaires au cuir, et que l’on peut mettre en forme comme du plastique. Cette idée n’avait jamais été utilisée pour concevoir un nouveau matériau.

Notre travail de recherche a consisté à trouver le bon procédé de mélange pour fusionner les protéines végétales et les tannins ainsi que les bons additifs afin que la rhéologie (étude de la déformation et de l’écoulement, NDLR) du matériau soit correcte et qu’il soit capable de se mettre en forme sans défaut. Le produit fini obtenu ressemble à une feuille, que l’on assemble en rouleau.

Quels protéines végétales et tannins utilisez-vous ?

Notre technologie peut s’adapter à toutes les protéines végétales, mais pour l’instant, nous avons choisi d’utiliser le gluten de blé. Il est en effet très abondant, car il est boudé en alimentation humaine et principalement valorisé en alimentation animale. C’est aussi une démarche éthique de notre part de le valoriser autrement. Il présente aussi l’avantage d’être bien documenté dans la littérature scientifique. Quant aux tannins, comme toutes les tanneries, nous devons garder notre savoir-faire secret.

Quels sont les avantages de ce nouveau matériau ?

Contrairement aux cuirs et aux similis, qui consomment beaucoup de produits chimiques et toxiques, notre matériau en est totalement dépourvu. Dans notre formulation, nous sélectionnons toujours, lorsque cela est possible, des produits biosourcés et utilisons le moins possible de produits issus du pétrole. Ensuite, notre procédé de mélange ne fait pas appel à de la chimie et ne consomme pas d’eau, à l’opposé des tanneries qui s’installent presque toutes à proximité de rivières. Notre matériau est donc entièrement biodégradable et recyclable. Nous avons réalisé une première estimation de son bilan carbone et son impact est inférieur à 4 kg de CO2 équivalent par m², alors que les similis sont autour de 12 à 15 et les cuirs jusqu’à 40.

Son aspect et sa texture sont-ils identiques aux cuirs et aux similis ?

Le matériau 100% biosourcé aux propriétés mécaniques similaires au cuir conçu par la start-up. Crédit : La tannerie végétale

Une personne n’ayant pas d’expertise du cuir ne verra pas la différence. Un œil affiné s’apercevra qu’en dessous, il ne possède pas la texture fibreuse sur le côté chair du cuir, mais c’est un aspect que l’on cherche à développer.

Quant au dessus, le cuir est souvent retravaillé par les industriels qui ne laissent pas sa texture naturelle. Une autre texture est ajoutée par-dessus, grâce à la technique d’embossage, qui consiste à créer des formes en relief à la surface. Nous pouvons procéder à la même technique à l’aide d’un gros laminoir, ce qui permet à notre matériau d’avoir un aspect et une texture similaire au cuir sur cette face.

À quel stade de développement se trouve votre projet ?

Nous sommes financés par la SATT (Société d’Accélération du Transfert de Technologies) Pulsalys, qui nous a permis de faire maturer notre technologie pendant un an. Nous poursuivons ce travail pendant quelques mois pour atteindre 100 % du cahier des charges des cuirs et des similis traditionnels, afin que nos clients, les entreprises de la maroquinerie, n’aient aucun compromis à faire sur la technique, en ayant un produit aussi résistant, mais écoresponsable.

Pour l’instant, nous fabriquons des feuilles de 15 cm de large, mais cette taille est limitante pour fabriquer par exemple un sac à main. Grâce à un financement de Bpifrance obtenu via le concours d’innovation i-Lab, nous allons nous équiper d’une machine capable de fabriquer des feuilles de 50 cm de large. À la fin de l’année, notre objectif est de nous installer dans notre atelier pour produire de grandes quantités et assumer nos commandes.

En parallèle, nous évaluons la « travaillabilité », c’est-à-dire la manière dont notre matériau se comporte avec les machines à coudre, les fils, et tout le processus de fabrication d’un objet. Notre entreprise va produire et vendre ce nouveau matériau sous la forme de rouleaux aux acteurs de la maroquinerie tout en les accompagnant dans ce changement.

Changement climatique : s’adapter avec les écosystèmes

Le nouveau rapport du GIEC publié fin février 2022 a vu son écho étouffé par la guerre en Ukraine. Pourtant, les informations patiemment compilées par les scientifiques, sous l’égide de l’ONU, méritent qu’on s’y attarde. L’heure n’est bien sûr plus à la tergiversation, car ce rapport ne fait que renforcer le constat des précédents : les sociétés humaines, les écosystèmes et le climat sont interdépendants ; l’activité des premières dégrade les seconds et bouleverse gravement le troisième. Les effets multiples et néfastes du réchauffement climatique s’accélèrent et obligent à œuvrer simultanément à l’atténuation des émissions de gaz à effet de serre et à l’adaptation de notre cadre de vie aux nouvelles conditions environnementales.

L’interdépendance des sociétés humaines avec le climat et les écosystèmes est illustrée par ce schéma. Pour être plus résilient face au changement climatique, les interactions positives (flèches bleues et vertes) doivent devenir plus fortes que les impacts négatifs (en rouge). Source : IPCC WGII Sixth Assesssment Report

Le GIEC a déjà averti qu’il reste seulement dix ans pour réorienter drastiquement les activités humaines : si un réchauffement moyen global de +1,5°C est dépassé, la trajectoire sera désastreuse et certains effets irréversibles ne pourront plus être contenus, à l’instar de la fonte des glaciers.

Ce nouveau rapport se concentre sur les besoins rapides d’adaptation, par exemple pour les zones côtières qui sont à risque. L’analyse des différentes régions du monde montre que les capacités adaptatives sont très inégalement réparties, certains pays ou groupes de population ne disposant pas des moyens d’agir. Il est aussi nécessaire d’éviter des solutions qui peuvent créer d’autres problèmes : cette « mal-adaptation » correspond par exemple à un excès de climatisation en ville qui renforcerait le phénomène d’îlots de chaleur ou la création de digues en bord de villes côtières qui pourraient dégrader l’environnement corallien.

S’appuyer sur les écosystèmes : l’exemple de l’agriculture

Des approches écosystémiques sont nécessaires pour que les adaptations soient réussies. Cela se traduit par la prise en compte de la biodiversité animale et végétale et de toutes les interactions entre l’environnement naturel et les activités humaines, avec l’idée que l’écosystème est aussi une partie de la solution. Cela est flagrant dans l’agriculture, les forêts et l’aquaculture. « Le changement climatique va continuer à induire une baisse de productivité des activités agricoles : récoltes affectées, qualité des pâturages dégradée, mortalité plus élevée des arbres, pertes des pollinisateurs, bétail affaibli par les chaleurs extrêmes, etc. Cela pourrait mettre en danger la sécurité alimentaire et augmenter les risques de malnutrition » explique Delphine Deryng, une des auteures principales du chapitre 5 du nouveau rapport du GIEC.

Selon la chercheuse, invitée à l’Université de Humboldt à Berlin, il y a néanmoins des options d’adaptation qui permettraient de préserver les ressources naturelles tout en s’appuyant sur elles pour limiter les effets climatiques. Certaines sont « autonomes », c’est-à-dire applicables tout de suite sans investissement, comme le décalage des dates de semences. D’autres, très efficaces, reposent sur la diversification des productions, la restauration des terres, l’agroécologie et l’agroforesterie. Ces approches supposent d’allier une part d’innovation et de technologies avec des savoir-faire locaux, indigènes, de privilégier des exploitations de taille moyenne et d’impliquer les jeunes et les femmes. Avec ces nouvelles formes de production agricole, forestière et aquatique, un plus grand stockage « naturel » de carbone serait ainsi possible. De plus, l’atteinte de certains Objectifs de développement durable serait facilitée, notamment ceux visant à éliminer la pauvreté et la faim, à garantir l’accès à une eau de qualité, à fournir un travail décent pour tous, et à établir des modes de consommation et de production durables.

La gestion durable des ressources permettra ainsi de préserver les espèces terrestres et aquatiques, de renforcer la qualité des sols et d’améliorer la qualité des eaux, tout en améliorant la qualité de vie des populations et en aidant à lutter contre le réchauffement climatique. Mais les efforts d’adaptations recommandés par le GIEC sont encore grands et doivent mobiliser de forts investissements publics, tout en étant guidés, en amont, par un changement des modes alimentaires des citoyens.

Un nouvel atlas pour mieux connaître les glaciers terrestres

Connaître l’épaisseur des glaciers est capital pour évaluer leur évolution face au changement climatique. Et comme les glaciers s’écoulent sous l’effet de leur poids, leur écoulement est intimement lié au volume et plus spécifiquement à la distribution spatiale de la glace. En étudiant plus de 800 000 paires d’images satellites, des chercheurs du CNRS, de l’Université Grenoble Alpes et de Dartmouth College (États-Unis) établissent la première carte globale des vitesses d’écoulement de 98 % des glaciers terrestres. Romain Millan, premier auteur de cette étude publiée le 7 février 2022 dans Nature Geoscience, réalisée lorsqu’il était post-doctorant à l’Institut des Géosciences de l’Environnement (IGE), nous explique ces résultats.

Techniques de l’Ingénieur : Votre étude a permis de faire une nouvelle estimation des volumes stockés dans les glaciers terrestres. Quels sont vos résultats par rapport aux évaluations précédentes ?

Romain Millan. © CNRS/IGE

Romain Millan : Tout d’abord, il faut savoir que la cryosphère comprend des glaciers de montagne et les grandes calottes polaires comme le Groenland et l’Antarctique. Notre étude estime les volumes de glace stockés dans 98 % des glaciers de montagne, et n’évalue pas les volumes des calottes polaires du Groenland et de l’Antarctique. Nous avons pu faire une nouvelle estimation des volumes de glaces des glaciers de montagne grâce à des mesures satellitaires et des analyses de terrain. Cela représente plus de 200 000 glaciers. Les glaciers manquants sont souvent situés dans des endroits difficilement observables depuis l’espace, par exemple à cause de couvertures nuageuses permanentes.

Notre étude estime ainsi que, entre les années 2017 et 2018, les glaciers de montagne renferment plus de 140 000 km³ de glace. La méthode ne permet pas de reconstituer l’évolution des volumes de manière saisonnière, c’est une estimation pour une période spécifique. À titre de comparaison, l’Antarctique en renferme plus de 28 millions de km³ et le Groenland 3 millions de km³, ce qui est difficilement appréciable pour la plupart des gens.

Le volume des glaciers de montagne est environ 11 % plus faible que les estimations précédentes. Mais cela cache d’importantes disparités à des échelles locales et régionales. Par exemple, dans les zones tropicales des Andes, où les habitants dépendent beaucoup des ressources en eau stockées dans les glaciers, l’étude estime des ressources jusqu’à 26 % plus faibles que les estimations précédentes. À l’opposé, dans l’Himalaya, dans les bassins de l’Indus et du Chenab, nous trouvons des volumes supérieurs d’un tiers par rapport aux estimations précédentes.

Comment avez-vous procédé pour mesurer ces volumes ?

On considère souvent les glaciers comme des masses de glace immobiles, mais en réalité ils bougent sous l’effet de leur propre poids. Naturellement, un glacier s’écoule un peu comme un fluide visqueux tel que le miel. Il ne faut cependant pas confondre cet écoulement avec une vitesse de fonte. Un glacier est séparé en deux parties : la zone d’accumulation où il y a des chutes de neige qui vont se transformer en glace avec le temps, et la zone d’ablation. La glace s’écoule de la zone d’accumulation vers la zone d’ablation où le glacier va fondre. Si l’on connaît la vitesse à laquelle il s’écoule, on peut alors remonter à la quantité de glace. Pour déterminer cette vitesse d’écoulement, il faut au minimum deux images satellites afin de pouvoir comparer le déplacement des crevasses à la surface du glacier.

Ce qu’il faut également savoir, c’est que la glace ne s’écoule pas exactement de la même manière en surface et au fond du glacier.  Évaluer ces différences est également très important pour reconstruire de manière juste l’épaisseur d’un glacier. C’est pour cela que les mesures faites directement sur le terrain sont aussi importantes pour connaître la manière dont les glaciers se déforment.

À quel point les vitesses d’écoulement varient-elles suivant les glaciers ?

Ce nouvel atlas de la vitesse d’écoulement glaciaire permet de voir qu’elle est très variée suivant les régions du monde et les types de glaciers. Il y a des glaciers par exemple dans les Alpes, comme le glacier du Miage qui s’écoule à quelques mètres par an. Mais on peut aussi avoir des glaciers en Patagonie qui s’écoulent à plusieurs dizaines de kilomètres par an. Par exemple, le glacier Penguin s’écoule à plus de 12 km par an.

Vitesses d’écoulement de la glace pour des glaciers des Andes. © Romain Millan, Jean-Baptiste Barré / CNRS / IGE – données cartographiques : Mapbox / OpenStreetMap / Maxar

Quel est l’impact du changement climatique sur les volumes d’eau dans les glaciers ?

Il y a un équilibre entre la glace qui s’accumule en altitude et celle qui fond en basse altitude. Si l’équilibre est maintenu, alors le glacier ne perdra pas de masse. Avec le changement climatique, les températures augmentent, et nous avons de moins en moins de glace qui s’accumule et de plus en plus de glace qui va fondre dans les basses altitudes. Donc l’équilibre est perturbé et les glaciers reculent.

L’IA permettrait de repérer les stades précoces de maladies rares

Chaque année, environ un demi-million d’enfants dans le monde naissent avec une maladie héréditaire rare. Les maladies génétiques s’accompagnent très souvent de mutations héréditaires qui s’expriment notamment par des formes particulières au niveau du visage (sourcils, base du nez, joues…).

C’est le cas notamment avec le syndrome Kabuki, dans lequel les traits du visage rappellent le maquillage d’une forme traditionnelle de théâtre japonais. Les sourcils sont arqués, l’écart entre les yeux est important et les espaces entre les paupières sont longs.

Pour des chercheurs de l’Institut de statistique génomique et de bio-informatique (IGSB – Institute for Genomic Statistics and Bioinformatics) de l’hôpital universitaire de Bonn (Allemagne), l’analyse faciale permettrait de repérer le stade précoce d’une maladie.

Pour repérer 1 115 maladies rares, les Allemands ont utilisé 17 560 photos de patients, dont la plupart provenaient aussi de l’équipe de recherche de l’Institut de génétique humaine de l’université de Bonn, ainsi que par neuf autres sites universitaires en Allemagne et à l’étranger. Les résultats ont été publiés le 10 février 2022 dans la revue Nature.

Le machine learning serait capable de repérer des similitudes et de les relier automatiquement aux symptômes cliniques et aux données génétiques de malades. Il serait ainsi possible de mettre en place une thérapie appropriée le plus tôt possible.

En Allemagne, les médecins peuvent utiliser leur smartphone pour photographier un patient et utiliser l’IA pour établir des diagnostics.

Deux patients suffisent pour détecter une maladie rare

En 2019, cette même équipe allemande utilisait un réseau neuronal baptisé DeepGestalt et développé par l’entreprise américaine de santé numérique FDNA. Deux ans plus tard, les scientifiques allemands ont présenté une version améliorée : le GestaltMatcher, qui est beaucoup plus performant.

Alors que la première solution nécessitait l’analyse d’une dizaine de personnes atteintes, sans lien de parenté, comme référence pour l’entraînement, son successeur se contente de quelques patients pour la correspondance des caractéristiques. Deux malades peuvent suffire pour établir une base de référence selon les scientifiques. Un atout majeur pour la détection de maladies très rares et ne concernant que quelques cas dans le monde. GestaltMatcher « reconnaît » aussi des maladies qui lui étaient auparavant inconnues et suggère des diagnostics sur cette base.

« Cela signifie que nous pouvons désormais classer des maladies jusqu’alors inconnues, rechercher d’autres cas et fournir des indices quant à leur base moléculaire », explique dans un communiqué le professeur Peter Krawitz, qui a dirigé cette étude.

WaltR : une technologie spatiale au service de la qualité de l’air

Stations fixes et mobiles, campagnes de tubages passifs, ou encore déploiement de microcapteurs : les approches pour mesurer la qualité de l’air extérieur ne manquent pas. Aussi diverses et complémentaires soient-elles, ces stratégies pèchent toutefois par un aspect : outre leurs résolutions spatiale ou temporelle limitées, elles ne permettent de mesurer que des concentrations – et non directement des émissions – rendant ainsi complexe voire impossible l’identification des sources des problèmes de qualité de l’air. Comme le note en effet le Centre interprofessionnel technique d’études de la pollution atmosphérique (Citepa) : « Les émissions correspondent aux quantités de polluants directement rejetées dans l’atmosphère par les activités humaines ou par des sources naturelles. Même si la qualité de l’air dépend des émissions […] il n’y a pas de corrélations simples entre les quantités de polluants émises et les niveaux de concentration de ces polluants dans l’air ambiant ». En cause, les interactions complexes entre les polluants émis et de multiples phénomènes physico-chimiques ou météorologiques : dispersion, remise en suspension, transport ou encore formation photochimique de l’ozone et de particules secondaires à partir de précurseurs gazeux. Pour parvenir à quantifier les émissions, une autre approche est toutefois possible : la mesure par satellite.

Les limites de la télédétection par satellite

« Les données satellites permettent d’avoir une vision globale, macroscopique, des principales sources d’émissions dans le monde. On arrive par exemple à avoir accès aux émissions moyennes d’une ville, ou encore à celles d’un site industriel relativement isolé. On voit les sources intenses », décrit Éric Péquignot, ex-responsable au Centre national d’études spatiales (CNES), où il a exercé pendant douze ans des fonctions de management et de développement de projets spatiaux sur les thématiques de la météorologie, de la chimie de l’atmosphère et du climat. Ayant le mérite de rendre possible la mesure d’émissions, cette approche par télédétection spatiale se révèle donc toutefois, elle aussi, limitée dans sa résolution spatiale, mais également temporelle, comme le souligne Éric Péquignot : « Les satellites, au mieux, proposent des revisites à la journée. Si on lançait de grosses constellations très chères, on pourrait peut-être arriver à une demi-journée… ». Même à l’heure de la démocratisation de l’accès à l’espace, mesurer finement – tant sur le plan spatial que temporel – les émissions polluantes semble donc toujours représenter un défi ; sauf à transposer directement sur terre les technologies de mesure mises en œuvre en orbite… C’est justement ce que le spécialiste du CNES Éric Péquignot a entrepris en 2018 en fondant la start-up WaltR.

Une technologie issue des travaux du CNES

« Vers 2016, le CNES a mené une grande réflexion autour de la valorisation des technologies issues du spatial et les données provenant de ce même secteur », se remémore Éric Péquignot. Bénéficiant de cette volonté d’essaimage de son employeur d’alors, l’ex-salarié du CNES s’est ainsi lancé dans l’aventure de l’entrepreneuriat. « WaltR est née en 2018, avec une mission : contribuer efficacement à la réduction des émissions polluantes », retrace l’actuel CEO de l’entreprise. Pour y parvenir, la start-up a ainsi développé une solution basée sur l’utilisation de moyens satellites déjà existants, mais également une nouvelle technologie de « tomographie spectroscopique », déployée quant à elle directement sur Terre. « Cette technologie qui fait l’objet d’un brevet CNES est comparable à la tomographie médicale, appliquée à l’échelle d’une ville entière. C’est un peu comme un scanner : on dispose quelques imageurs autour de la zone à couvrir et on triangule l’information acquise par ces caméras multispectrales placées sur différents points hauts à quelques kilomètres de distance. Aujourd’hui au nombre de 11, les différentes bandes spectrales couvertes par ces caméras sont fixées pour correspondre à différents types de polluants, que ce soit les particules fines, ou les gaz », résume Éric Péquignot.

Les caméras multispectrales de WaltR balayent la zone à couvrir
Placées sur une tourelle, les caméras multispectrales de WaltR balayent verticalement et horizontalement la zone à couvrir. © WaltR

En plus de la vision globale, macroscopique offerte par la télédétection spatiale, l’entreprise est ainsi capable de proposer un « zoom » d’un niveau de détail inédit sur les sources d’émissions polluantes. « Nous fournissons de la haute résolution : des cartographies de l’air en 3D mises à jour toutes les heures – voire demain tous les quarts d’heure – qui fournissent des données sur une zone étendue (toute une ville ou tout un site industriel) à quelques dizaines de mètres de résolution », fait valoir le CEO de WaltR. Trois caméras idéalement réparties permettent ainsi l’acquisition de mesures tous les dix à cent mètres, soit une dizaine de milliers de points répartis sur une ville de 100 km² comme Paris. « Ce qui est bien sûr beaucoup plus efficace d’un point de vue opérationnel que l’installation de microcapteurs ou de stations de mesure », souligne Éric Péquignot.

Quelques caméras placées sur des points hauts suffisent à l’acquisition de milliers de points de mesure répartis sur le territoire d’une ville ou d’un site industriel

Un service d’accompagnement

En exploitant ces cartes tridimensionnelles évolutives dans le temps, WaltR parvient ainsi à remonter aux sources d’émissions polluantes et peut donc proposer à ses clients – collectivités, industriels… – de les accompagner pour diminuer ces émissions. « Trouver la source des problèmes et la quantifier est ce qui permet de mettre en œuvre les leviers d’action, explique Éric Péquignot. Nous accompagnons nos clients par du conseil ou des services additionnels sur la façon de réduire leurs émissions. La réalité socio-économique fait que l’on ne peut pas atteindre le “zéro émission”, mais il est en revanche tout à fait possible de compenser les émissions résiduelles. »

WaltR propose ainsi un service clé en main, dont l’un des aboutissements est une plate-forme web permettant d’accéder aux données, après souscription d’un abonnement. « Le coût global du service va varier en fonction du nombre de polluants analysés, de la résolution souhaitée, du matériel déployé », précise Arnaud Dedieu, responsable développement de WaltR. Si elle reste plus chère qu’un service basé uniquement sur l’imagerie satellite, la solution proposée par la start-up se révèle d’ores et déjà compétitive par rapport au déploiement de multiples microcapteurs. « L’objectif, avec notre fabricant, est bien sûr de passer du stade de prototype à celui de l’industrialisation. Cela va permettre de réduire les coûts de moitié, voire plus », prévoit Arnaud Dedieu, qui glisse également que le développement d’une solution mobile d’imagerie n’est pas exclu… Une perspective qui pourrait permettre la réalisation de campagnes de mesures ponctuelles, dans le cas d’accidents industriels par exemple.

Plusieurs projets en cours

Avant d’en arriver là, la jeune entreprise s’est lancée dans un projet d’envergure, mené à Angers en partenariat avec deux autres entreprises : l’opérateur Alsatis et le groupe Lacroix, fournisseur de solutions connectées à destination notamment de la voirie intelligente. « Le projet vient juste de démarrer et devrait durer 36 mois. Il va consister à réaliser une expérimentation sur le lien entre la pollution en temps réel et la macro ou microrégulation du trafic routier. En complément, notre objectif est d’utiliser les données de pollution et de trafic en temps réel pour travailler sur la stimulation des changements de comportement ; l’objectif étant bien entendu de réduire les émissions et la pollution », décrit Arnaud Dedieu, en charge du projet.

WaltR va ainsi déployer un dispositif de mesure de la pollution angevine basé sur son système de caméras multispectrales, auquel s’ajoutera l’installation de matériel de régulation du trafic par le groupe Lacroix et la mise à disposition d’une plate-forme de stockage de données souveraine par l’opérateur Alsatis, alimentée via la 5G. « Nos caméras génèrent énormément de données en temps réel, tout comme les capteurs installés par le groupe Lacroix. Ce projet représente donc un cas d’usage intéressant de la 5G, qui va permettre de mettre en valeur ses intérêts », souligne finalement Éric Péquignot. Et outre cette expérimentation lancée récemment, WaltR mène également différents projets en France : à l’aéroport Roissy-Charles-de-Gaulle, sur le port de Nice ainsi qu’un projet à Toulouse, en cours de déploiement. « Nous avons d’autres projets dans les tuyaux, pas seulement en France… L’objectif pour nous est bien sûr de conquérir le marché européen, puis le monde, d’ici quelques années », conclut le Responsable développement de WaltR Arnaud Dedieu. Reste toutefois un dernier frein, celui de la réglementation : si la précision atteinte par la solution de WaltR la rend compatible avec la réglementation européenne, elle ne peut, pour l’heure, être certifiée.

Techniques de l’Ingénieur partenaire du Forum National des Eco-entreprises 2022

La cleantech bénéficie d’investissements croissants pour répondre aux besoins actuels des populations tout en étant dans une démarche de transition énergétique et écologique. Objectif : vivre mieux tout en respectant la planète. Tel est l’enjeu de cette nouvelle filière toute particulière. 

Afin d’en savoir davantage sur les nouvelles technologies mises en place par des start-up de prestige dans le domaine, le Forum National des Eco-entreprises se tiendra à Paris et en ligne pour sa 13ème édition. L’occasion de venir à la rencontre de PME, de start-up, de donneurs d’ordre publics et privés, d’investisseurs ou encore d’instituts de recherche pour développer votre entreprise aux couleurs de l’écologie. 

Au programme 

Rendez-vous d’affaires

C’est plus de 1 500 rendez-vous qualifiés en BtoB avec des experts du milieu. L’occasion parfaite pour vous de trouver de nouvelles solutions d’innovation pour votre activité ou développer de nouveaux partenariats. 

Vitrines de l’innovation

Profitez des vitrines de l’innovation pour présenter vos services ou produits les plus innovants à des grands comptes.

A l’issue de cette journée, 10 PME de l’environnement et de la maîtrise de l’énergie, sélectionnées parmi les plus innovantes, présenteront leurs projets sous forme de pitchs. 

Cela représente une manière parfaite pour mettre en avant votre création et peut-être trouver des collaborateurs. 

Ateliers Spot

Réservés aux éco-entreprises, les ateliers spot sont des moments privilégiés pour le développement de leurs activités (innovation / financement / international / Compétences / RH ). Pour les accompagner, les réseaux d’éco-entreprises de PEXE seront présents ainsi que leurs partenaires CITEO, le Ministère chargé des sports, l’OFB (Office Français de la Biodiversité), l’ADEME, Business France, BPIFrance, Eiffage…

Si vous voulez en savoir plus, n’hésitez pas à aller sur le site de l’événement: https://ecoentreprises-france.fr/ 

Aider les industriels de la mécanique en France au passage à l’hydrogène

Électrolyseurs, pompes, tuyaux, compresseurs, détendeurs, réservoirs… de nombreux équipements sont concernés par la fabrication, le transport, le stockage et l’utilisation de l’hydrogène, dont les volumes sont amenés à fortement augmenter à la faveur de la transition énergétique pour décarboner l’économie. À la demande de la filière mécanicienne française, le Cetim (Centre technique des industries mécaniques) lance le projet HyMEET (Hydrogen Material and Equipement Engineering and Testing Center) afin d’accompagner les industriels de ce secteur à la maîtrise technologique des changements qu’impose l’utilisation de l’hydrogène.

« Le Cetim représente de très nombreux industriels mécaniciens, notamment ceux présents dans la motorisation automobile, explique Christophe Champenois, directeur du projet HyMEET. Dans ce secteur par exemple, le passage aux véhicules électriques est susceptible de faire disparaître des métiers. L’idée du projet est née des risques vécus et anticipés par la filière qui souhaite passer d’un risque à une opportunité et réinventer ses métiers. Un déclic s’est également produit et a favorisé le lancement de ce projet lorsque Airbus a annoncé vouloir mettre en service le premier avion commercial à hydrogène en 2035. Il s’agit là d’une véritable rupture technologique, dans un temps très court, qui demande de transférer une technologie utilisée dans le spatial vers un avion civil. »

Les objectifs du projet HyMEET sont d’aider à mieux comprendre et à caractériser la molécule d’hydrogène, ses usages, ses risques ainsi que les normes associées et les réglementations en vigueur en fonction des différentes applications de ce gaz. Deux formes principales d’utilisation de l’hydrogène sont envisagées, la première sous la forme gazeuse grâce à sa compression à environ 700 bar afin d’atteindre des capacités suffisantes d’emport. La deuxième, sous la forme cryogénique, à -253 degrés, pour obtenir une densité énergétique encore plus importante pour un volume donné.

Faire monter en compétences les équipes et acheter de nouveaux équipements

Une première enveloppe budgétaire de 11 millions d’euros a déjà été actée pour mettre en œuvre ce projet, et une deuxième tranche de 14 millions devrait être votée en avril. Dans un premier temps, ces montants doivent bénéficier à plusieurs laboratoires situés à Nantes et sa périphérie, notamment celui sur les essais mécaniques des matériaux métalliques et des surfaces, un autre sur les matériaux composites et polymères et un dernier spécialisé sur la fonction d’étanchéité. Il est par exemple prévu de faire monter en compétences les équipes en place, mais aussi d’acquérir de nouveaux équipements pour réaliser, entre autres, des essais de fatigue, de fluage(1) ainsi que des essais physico-chimiques de matériaux.

Le Cetim va également construire un centre d’ingénierie et d’essais capable d’appréhender les matériaux classiques, les alliages métalliques, les matériaux polymères, les composites, voire les céramiques si nécessaire. L’idée étant de parvenir à les caractériser lorsqu’ils sont utilisés dans des environnements complexes à base d’hydrogène gazeux ou cryogénique, et de créer des bases de données pour concevoir des produits compatibles en termes de performance et de durée de vie. Ce centre devrait être situé dans la périphérie de Nantes ou à La Roche-sur-Yon, sur un ancien site de Michelin.

« Notre ambition est qu’il devienne un véritable centre de référence européen, poursuit Christophe Champenois. Le Cetim a déjà une expérience de l’hydrogène, puisque nous avons déjà travaillé sur ce sujet avec l’industrie spatiale, notamment autour d’Ariane. Notre volonté à présent est d’apporter des solutions d’industrialisation et d’optimisation permettant à ce vecteur énergétique de répondre aux enjeux de la décarbonation de la mobilité et de l’industrie. »


(1) La déformation d’un matériau induite pendant le maintien constant de la température et de la contrainte