Élisabeth Borne demande des «plans de sobriété» aux entreprises

Pour faire face à la crise énergétique liée à la guerre en Ukraine, Élisabeth Borne appelle à la « responsabilité collective » en matière d’économies d’énergie. Face aux entrepreneurs du Medef ce lundi, la Première ministre a appelé chaque entreprise à établir son propre « plan de sobriété » dès septembre.

Afin de se préparer au « risque de pénurie de gaz cet hiver, atténuer le dérèglement climatique (…) nous devons agir plus vite et plus fort », a-t-elle prévenu. Ainsi, les entreprises devront établir dès septembre des « plans de sobriété » énergétiques pour réduire les consommations de 10 % d’ici 2024. Un premier bilan sera tiré « début octobre », assure-t-elle. Elle n’exclut pas à ce stade d’« imposer des baisses de consommation », autrement dit un « rationnement ».

Les entreprises mises à contribution en priorité

Pour réduire l’impact sur les entreprises d’un éventuel rationnement, le gouvernement réfléchit actuellement à un « marché d’échange de droits à consommer ». Alors que le débat fait rage sur l’encadrement de l’utilisation des jets privés, Élisabeth Borne assure que les entreprises seront les « premières touchées » par un tel rationnement qui ne devrait pas s’appliquer aux particuliers.

Mardi, dans l’émission Quotidien sur la chaîne TMC, la Première ministre a confirmé qu’en cas de pénurie de gaz, les éventuelles coupures ne concerneraient que les entreprises. « Tout ce qu’on peut faire pour baisser nos consommations, ça nous évitera d’arriver à des situations où on devrait avoir des coupures », a-t-elle dit.

Ces coupures pourraient survenir « si toutes les mauvaises hypothèses se conjuguent : si la Russie coupe ses approvisionnements, si jamais il y a des tensions sur le GNL (gaz naturel liquéfié) et que les commandes qu’on a passées ne sont pas honorées, s’il y a un hiver très froid », a-t-elle expliqué.

Des groupes de travail déjà à l’œuvre

Cette injonction à l’élaboration de plans de sobriété énergétique s’intègre dans le cadre du plan de sobriété énergétique annoncé par Élisabeth Borne et la ministre de la Transition énergétique, Agnès Pannier-Runacher, le 23 juin dernier. Il vise une réduction de 10 % de nos consommations d’énergie d’ici 2024, et de 40 % d’ici 2050.

Pour y parvenir, sept groupes de travail ont été lancés par le ministère de la Transition énergétique cet été : « État exemplaire », « Entreprises et organisation du travail », « Établissements recevant du public et grandes surfaces commerciales », « Logement », « Collectivités territoriales », « Numérique et télécommunications » et « Sport ». Ils proposeront leur plan d’action concerté d’ici fin septembre.

Des peaux électroniques artificielles obtenues par épitaxie à distance

Selon les chercheurs, les perspectives sont grandes et ces travaux ne sont que le début de l’aventure. En plus d’être capables de détecter le sodium, ces capteurs d’un nouveau genre seront un jour capables de détecter différents types de biomarqueurs vitaux tels que le glucose ou le taux de cortisol.

Les inconvénients des capteurs portables actuels

Dans le domaine de l’e-santé, les capteurs portables ont le vent en poupe. Ils permettent entre autres de mesurer le rythme respiratoire ou cardiaque, la température, le niveau de sudation, etc.

Ces dispositifs sans fil communiquent généralement en Bluetooth via des puces alimentées par des piles, ce qui les rend encombrants. Les études concernant la miniaturisation de ces capteurs se multiplient et les technologies les plus récentes permettent désormais de concevoir des capteurs ultrafins et autonomes.

Faire croître et décoller des films semi-conducteurs ultrafins grâce à l’épitaxie à distance

Il y a quelque temps, l’équipe de Jeehwan Kim (l’auteur correspondant de la présente étude) a mis au point une technique appelée épitaxie à distance. Cette technologie émergente¹ permet de produire des structures et couches minces monocristallines autonomes, c’est-à-dire sans support.

Grâce à cette technique, les chercheurs sont notamment capables de produire des semi-conducteurs ultrafins de haute qualité à partir de plaquettes recouvertes de graphène. Ceci leur a ainsi permis d’étudier différents types de films électroniques multifonctionnels et flexibles.

Des capteurs en nitrure de gallium

Le nitrure de gallium (GaN), lorsqu’il est pur et sans défaut, est un matériau piézoélectrique exceptionnel, car très sensible. Le GaN est aussi bien capable de vibrer en réponse à une impulsion électrique que de produire un signal électrique suite à une contrainte mécanique. Les chercheurs du MIT ont donc exploité les propriétés de ce matériau à la fois pour la détection et pour la communication sans fil.

Par ailleurs, afin d’améliorer la qualité des signaux électriques, les échantillons ont également été recouverts d’une couche d’or conductrice. Le tout forme ainsi un capteur ultrafin d’à peine 250 nm d’épaisseur (1/100e de cheveu !).

Des applications nombreuses

L’autre intérêt de ces capteurs c’est qu’ils ne sont pas gourmands en énergie. Ils peuvent ainsi être utilisés directement sur le corps, par exemple dans un bandage.

Dans un communiqué de presse, Yeongin Kim, premier auteur de l’étude et ancien postdoc du MIT, ajoute : « S’il y a un changement dans le pouls, ou des produits chimiques dans la sueur, ou même une exposition de la peau aux ultraviolets, toute cette activité peut changer le modèle des ondes acoustiques de surface sur le film de nitrure de gallium. »

Le dispositif détecte et transmet des signaux sans fil, sans puce, ni batterie encombrante. (Crédit : MIT)

En associant le dispositif à une membrane très fine capable de détecter les ions, les chercheurs ont ainsi pu détecter et transmettre les variations du taux de sodium dans la transpiration d’un volontaire.

Cela suppose qu’en utilisant d’autres types de membranes, il serait possible de détecter différents types de biomarqueurs, notamment le glucose ou le cortisol.

 


Image de Une, crédit : MIT

[1] Pour en savoir plus au sujet de cette technique nouvelle, vous pouvez aussi consulter cet autre article paru dans Nature.

Le meilleur de la tech #22 : lithophanie pour déficience visuelle et imagerie dentaire insectoïde

Une « vue » tactile pour les aveugles

Et si les aveugles pouvaient « voir » grâce aux lithophanies ? En effet, ce sont près de 40 millions de personnes à travers le monde qui n’ont pas accès aux données graphiques et aux images scientifiques du fait de leurs problèmes de vision. Résultat : une compréhension et des échanges limités avec les voyants. Pourtant, cette situation est loin d’être rédhibitoire ! Une équipe de recherche mené par des chimistes de l’Université Baylor, aux États-Unis, s’est ainsi penchée sur le cas des lithophanies. Il s’agit d’images en trois dimensions, dont le relief varie en fonction de l’intensité des zones sombres et lumineuses du visuel original. Il en existe cinq formes différentes : les électrophérogrammes, les micro-graphes, les illustrations de manuel, les spectres de masse et électroniques. Dans leur article paru le 17 août 2022 dans Science Advances, les chercheurs indiquent avoir testé toutes ces lithophanies sur 360 candidats, à l’aide du toucher ou de la vue. La précision qui en a résulté n’est jamais passée sous la barre des 79 % ! De quoi espérer un dialogue plus homogène à l’avenir entre scientifiques, peu importe la qualité de leur vision.

Une caméra bio-inspirée pour l’imagerie dentaire

Des yeux composés d’un insecte à une caméra pour l’imagerie dentaire. Voilà le tour de force auquel sont parvenus des chercheurs du Korea Advanced Institute of Science and Technology et du Korea Photonics Technology Institute, en Corée du Sud. Leur point de départ a été la structure du complexe visuel de Xenos peckii, un insecte parasite des guêpes. Sur un seul support à main se retrouvent associés une lentille convexe-concave, un éventail de microlentilles inversées, un module LED ainsi qu’un capteur d’image ! La lentille convexe-concave par exemple permet d’atteindre un champ de vue de 143°, quand les microlentilles inversées limitent les aberrations optiques. La caméra biomédicale présentée dans le Journal of Optical Microsystems le 18 août 2022 semble toute désignée pour le milieu dentaire, où les instruments actuels tels que miroirs et écarteurs de joues sont d’un usage malaisé. Les essais cliniques ont connu un véritable succès pour surveiller la dentition humaine en temps réel, que ce soit en zoom, en grand champ de vue, en 3D ou encore en imagerie par auto-fluorescence ! Mais l’invention sud-coréenne pourrait également faire de l’œil aux spécialistes des robots chirurgicaux, ou même dans le domaine de l’endoscopie.

Les cinq plus grosses cyberattaques

Le principal objectif des cybercriminels est sans ambiguïté : gagner de l’argent. Et la multiplication des données échangées et stockées en ligne, mais mal sécurisées, facilite leur tâche.

À mesure que les entreprises deviennent de plus en plus connectées, leur infrastructure à surveiller augmente tellement qu’il devient difficile, voire impossible, à maîtriser. Résultat, les fuites de données ne cessent d’augmenter. Retour sur les plus importantes attaques informatiques de tous les temps. Par négligence des entreprises…

1- RockYou2021 : un mégafichier (2021)

Le chiffre donne le tournis : 8,4 milliards de mots de passe récupérés par un pirate dont l’identité n’a pas été révélée. Il avait nommé ce gigantesque fichier « RockYou2021 », en référence à la violation des données de RockYou en 2009, au cours de laquelle les mots de passe de plus de 32 millions d’utilisateurs avaient été récupérés.

Cet énorme fichier de 100 Go est une compilation d’anciennes fuites de mots de passe, de mots de passe possibles et fréquemment utilisés et d’une liste de mots.

2- Yahoo! (2014) : une très chère fuite

L’ancien géant du web est un cachottier. En 2016, Yahoo Inc. avait révélé que des données personnelles liées à un milliard de comptes avaient été volées en… 2014. Mais en 2017, le groupe avait précisé que c’était l’ensemble de ses 3 milliards de comptes d’utilisateurs qui avait été touché !

Selon différents experts, cette cyberattaque a peut-être été menée pour le compte d’un État, en l’occurrence la Russie. Le nom du principal pirate est en effet Aleksey Belan, un cybercriminel letton engagé par des agents russes.

Cette base de données comprenait des adresses électroniques, des mots de passe, des numéros de téléphone, des dates de naissance et des noms. Yahoo! avait indiqué que les informations relatives aux paiements et aux comptes bancaires n’auraient pas été compromises.

Très souvent, le grand public pense que les cyberattaques n’ont pas – ou peu – de conséquences pour les entreprises victimes. Ce n’est pas le cas pour Yahoo! qui était à l’époque en discussion pour être racheté par Verizon Communications Inc. Yahoo! n’avait pas divulgué cette violation de données à son acquéreur. Résultat, le prix de vente de Yahoo! a été réduit de 350 millions de dollars.

Autres conséquences financières, Yahoo! a été condamné à 35 millions de dollars par la Securities and Exchange Commission (SEC) à titre de sanction pour avoir trompé le public et omis d’informer les clients de la violation. Yahoo! a dû payer 35 millions de dollars en frais d’avocat et a versé 11 millions de dollars supplémentaires au titre des frais de justice, des enquêtes menées par cinq agences fédérales et d’État et de 44 recours collectifs.

3- Hôtels Marriott : des pirates qui s’invitent pendant 4 ans (2014)

Noms, détails de passeport, informations de contact, données de cartes de crédit… Pendant 4 ans, c’était « open bar » dans les hôtels de ce groupe qui pouvaient exploiter les données de 339 millions de clients.

La première partie de la cyberattaque débute en 2014. Elle vise le groupe Starwood Hotels que Marriott rachète deux ans plus tard. Mais ce n’est qu’en 2018 que les équipes de sécurité du groupe découvrent que leur réseau informatique est infiltré.

Résultat, l’organisme britannique de surveillance de la confidentialité des données, l’Information Commissioners’ Office (ICO), avait infligé une amende de 18,4 millions de livres sterling à la chaîne d’hôtels. L’enquête de l’ICO avait démontré que Marriott n’avait pas mis en place les mesures techniques ou organisationnelles appropriées pour protéger les données personnelles de ses clients.

4- PlayStation Network de Sony : game over pour 77 millions de joueurs (2011)

En 2011, le géant japonais indique que les noms, adresses et autres données personnelles (dont 12 000 numéros de cartes de crédit) d’environ 77 millions d’utilisateurs de son service en ligne PlayStation Network (PSN) avaient été volés.

Mauvaise nouvelle pour les accros aux jeux vidéo : leurs comptes ont été bloqués et verrouillés sur le réseau pendant une semaine pour éviter d’autres violations de données.

Environ un mois après l’attaque, Sony avait déclaré que ce piratage lui avait coûté 171 millions de dollars.

5- Uber : 100 000 dollars en échange du silence des pirates (2016)

Comme Yahoo!, Uber a joué les cachottiers. En 2016, l’entreprise n’avait pas averti ses clients que son réseau informatique avait été infiltré. Cette attaque avait permis de mettre la main sur les données confidentielles de 57 millions de clients et de chauffeurs.

Le service VTC avait versé 100 000 dollars aux pirates pour qu’ils suppriment les informations et gardent la cyberattaque secrète… En septembre 2018, Uber avait payé 148 millions de dollars pour régler les réclamations de 50 États américains et de Washington DC.

L’intelligence artificielle faciliterait la détection des cancers du sein

Avec 33 % des cancers féminins, le cancer du sein est le plus fréquent chez les femmes. Il reste la première cause de décès par cancer chez les femmes en 2018. Dans la majorité des cas, le développement d’un cancer du sein prend plusieurs mois, voire plusieurs années.

Côté positif, le nombre de cas observés chaque année a tendance à diminuer depuis 2005. « S’il est dépisté à un stade précoce, la survie à 5 ans est de 99 % », insiste l’Institut national du cancer.

Prédire l’apparition 5 ans à l’avance

L’apport de l’intelligence artificielle apparaît de plus en plus essentiel dans la détection, mais également lors des opérations. Presque tous les cancers ont leur solution spécifique d’analyse d’imagerie médicale à base d’IA ou d’analyse plurifactorielle.

Le MIT a par exemple créé un modèle de deep learning qui peut prédire l’apparition d’un cancer du sein jusqu’à cinq années à l’avance. Il est entraîné avec les radios de 60 000 patientes, à équité entre personnes blanches et noires. Comme les femmes noires ont plus de risques de voir apparaître un tel cancer, cela supprime des biais de faux négatifs dans le système.

L’étude à grande échelle, publiée en juillet dernier dans The Lancet Digital Health, confirme à quel point l’IA est devenue un outil précieux pour les radiologues. C’est la première à comparer directement les performances d’une IA en solo dans le dépistage du cancer du sein avec ses performances lorsqu’elle est utilisée pour assister un expert humain.

IA moins performante que les radiologues

Jusqu’à présent, les tentatives de remplacement complet des radiologues par l’IA ont échoué. Une analyse réalisée en 2021 a révélé que dans 34 des 36 études, l’IA était moins performante qu’un seul radiologue pour le dépistage du cancer du sein à partir de mammographies. Les 36 études étaient toutes moins précises que le consensus de deux radiologues, que certains pays exigent.

Le logiciel testé provient de Vara, une start-up basée en Allemagne qui a également dirigé l’étude. L’IA de cette société est déjà utilisée dans plus d’un quart des centres de dépistage du cancer du sein en Allemagne et a été introduite au début de l’année dans un hôpital au Mexique et un autre en Grèce.

L’équipe de Vara, avec l’aide de radiologues de l’hôpital universitaire d’Essen en Allemagne et du Memorial Sloan Kettering Cancer Center de New York, a testé deux approches. Dans la première, l’IA travaille seule pour analyser les mammographies.

Dans l’autre, l’IA fait automatiquement la distinction entre les scans qui lui semblent normaux et ceux qui suscitent des inquiétudes. Elle renvoie ces derniers à un radiologue, qui les examine avant de prendre connaissance de l’évaluation de l’IA. L’IA émet alors un avertissement si elle a détecté un cancer alors que le médecin ne l’a pas fait.

Une amélioration globale de la précision

Pour entraîner le réseau neuronal, Vara a alimenté l’IA en données provenant de plus de 367 000 mammographies – y compris les notes des radiologues – pour apprendre à placer ces scans dans l’une des trois catégories suivantes : « normal confiant » (pas de signes d’un cancer), « non confiant » (dans lequel aucune prédiction n’est donnée), et « cancer confiant » (cancer détecté par un radiologue).

Les conclusions des deux approches ont ensuite été comparées aux décisions prises à l’origine par des radiologues sur 82 851 mammographies provenant de centres de dépistage qui n’avaient pas fourni les scans utilisés pour entraîner l’IA.

Dans le processus proposé, piloté par l’IA, près des trois quarts des examens de dépistage n’avaient pas besoin d’être revus par un radiologue, tout en améliorant globalement la précision.

La deuxième approche (médecin et IA travaillant ensemble) a permis de détecter le cancer du sein 2,6 % mieux qu’un médecin travaillant seul, et a donné lieu à moins de fausses alertes. Elle y est parvenue tout en mettant automatiquement de côté les examens qu’elle classait comme « normaux avec certitude », ce qui représentait 63 % de toutes les mammographies.

Comme dans d’autres domaines, l’IA ne remplacera pas (tout de suite ?) l’expérience humaine. Cette technologie ne remplacera donc pas les radiologues. Mais cette étude montre que près des trois quarts des dépistages n’ont pas eu besoin d’être examinés par un radiologue.

Une avancée majeure pour gagner du temps dans les diagnostics. Cette rationalisation intense favoriserait aussi l’accompagnement personnalisé des malades.

Urbasense : des capteurs connectés pour prendre le pouls des arbres

Après s’être lancée à ses débuts avec un service de suivi agronomique des plantations basé sur l’utilisation de sondes tensiométriques, Urbasense propose depuis un an et demi une solution complémentaire de suivi micro-dendrométrique des arbres. Une innovation sélectionnée parmi les « coups de cœur » du Concours Innovert, organisé dans le cadre du salon du végétal d’Angers¹. Connectés à une station sans-fil de transmission des données, la Minisense®, les capteurs micro-dendrométriques utilisés par Urbasense permettent d’effectuer des analyses en temps réel et de produire ainsi des indicateurs de stress ou de croissance de l’arbre. De quoi surveiller de près un patrimoine arboré ancien et fragile, ou encore des arbres situés dans le périmètre de travaux de voirie susceptibles d’endommager leurs racines. Comme nous l’explique Théo Chabre, Ingénieur d’Affaires chez Urbasense, l’entreprise met également à profit sa solution pour des travaux plus expérimentaux…

Techniques de l’Ingénieur : Pouvez-vous, en quelques mots, nous présenter Urbasense ?

Théo Chabre, Ingénieur d’affaires chez Urbasense

Théo Chabre : La société a été créée en 2015 par deux cofondateurs. Le premier s’appelle Thomas Bur. En tant que docteur en agronomie, il est le garant scientifique de l’entreprise. Le deuxième cofondateur s’appelle Michaël Fayaud. Il est quant à lui ingénieur ITIAPE².

L’entreprise a débuté en se concentrant sur un seul service : le suivi agronomique des plantations. Basé sur l’utilisation de sondes tensiométriques, ce premier service a pour but d’accompagner les villes, les métropoles, les entreprises et les aménageurs du territoire afin de mieux gérer la plantation d’arbres pendant la période de garantie, parachèvement et confortement. Ceci afin de réduire les consommations en eau, les tournées d’arrosage… mais aussi et surtout dans le but de permettre à l’arbre implanté en ville de vivre 30, 40 voire 50 ans, et non plus de mourir juste en fin de période de garantie, après seulement deux ans de vie.

Nous avons constaté que, là où il y a encore quelques années il était simplement demandé aux espaces verts d’être verts, on attend désormais d’eux qu’ils répondent à des enjeux techniques ; des enjeux d’infrastructures comparables à ceux des routes ou des réseaux. On parle donc désormais plutôt « d’infrastructures vertes » quand on confie à la nature une responsabilité technique pour mieux vivre en ville : structure des sols, pollinisation, biodiversité, atténuation des épisodes de canicule… Dès lors que l’on confie des enjeux techniques aux infrastructures vertes, on doit pouvoir faire en sorte de répondre à ces enjeux de façon sécurisée.

Urbasense a donc pris le parti d’élargir ses services pour mieux répondre à ces enjeux. Nous avons ainsi développé, à partir de fin 2020, l’utilisation des capteurs micro-dendrométriques ; en plus d’autres services tels que les études préalables de caractérisation agro-pédologique des sols, la gestion du patrimoine arboré…

Nous avons aujourd’hui entre trente et quarante dispositifs déployés sur le terrain ; nous sommes une vingtaine de salariés et comptons procéder à de nouvelles embauches à partir de septembre.

La station Minisense® permet de transmettre les données acquises sur le terrain à des serveurs distants, via un réseau radio.

Urbasense a donc pris le parti d’élargir ses services pour mieux répondre à ces enjeux. Nous avons ainsi développé, à partir de fin 2020, l’utilisation des capteurs micro-dendrométriques, en plus d’autres services tels que les études préalables de caractérisation agro-pédologique des sols, la gestion du patrimoine arboré…

Nous avons aujourd’hui entre trente et quarante dispositifs déployés sur le terrain ; nous sommes une vingtaine de salariés et comptons procéder à de nouvelles embauches à partir de septembre.

Que sont ces capteurs micro-dendrométriques que vous évoquez ? Comment ont-ils vu le jour et que permettent-ils de réaliser ?

Il s’agit de capteurs utilisés au départ – et depuis de nombreuses années – pour suivre la déformation des matériaux dans l’industrie. Ils permettent en effet de mesurer des micro-variations, c’est-à-dire des variations de taille de l’ordre du micron. Sur la base de ces capteurs, nous avons procédé à des tests et des essais pendant plusieurs années chez nos clients et avec l’appui de différents partenaires. À partir de là, nous avons pu procéder à l’industrialisation de ce qui n’était alors que de la recherche appliquée. Ceci afin de rendre ces capteurs utilisables, opérationnels, non plus simplement pour des besoins scientifiques, mais aussi pour les besoins de terrains d’arboristes, de paysagistes et de collectivités.

Placé sur un rameau, le capteur micro-dendrométrique mis en œuvre par Urbasense permet d’en mesurer les variations de diamètre, et ce à l’échelle du micron.

Concrètement, le capteur lui-même est connecté en filaire à un boîtier de télétransmission, la station Minisense®. C’est en fait notre data-logger³. On utilise ensuite un réseau radio pour pouvoir envoyer les données toutes les heures sur nos serveurs. Cela nous permet d’agréger de la donnée, comme nous le faisions déjà historiquement avec notre premier service de suivi tensiométrique. Fabriquée en France et garantie à vie, cette Minisense® peut être utilisée par les collectivités pour plusieurs usages, y compris en milieu urbain, par définition relativement hostile et rigoureux.

Le capteur micro-dendrométrique est quant à lui constitué d’une petite tige métallique posée sur un rameau, en surface. Rien ne pénètre à l’intérieur de l’arbre. Au moment de l’installation, un étalonnage est réalisé au pied à coulisse pour connaître le diamètre du rameau. À partir de là, on réalise des mesures toutes les heures, et ce 7 jours sur 7. On peut monitorer jusqu’à trois branches, que nous sélectionnons au préalable.

Une fois acquises, que deviennent ces données micro-dendrométriques ?

Les données sont transmises sur nos serveurs via le réseau radio. Cela permet de mettre à jour des graphiques et des indicateurs comme l’accroissement moyen. On observe l’équivalent du pouls de l’être humain. En fonction du jour et de la nuit et de l’ouverture des stomates, les cellules du rameau se gorgent en effet d’eau ou, au contraire, se vident. On obtient ainsi une cinétique. Cette variation micro-dendrométrique des rameaux nous permet d’effectuer des analyses en temps réel et de produire ainsi des indicateurs de stress ou de croissance de l’arbre. Cela permet, à la fin, de déclencher des expertises plus poussées d’arboristes et de dendrologues intervenant sur site. Ce qui rend cette solution complémentaire et utile aux expertises arboricoles, c’est la mise à disposition d’une mesure permanente de l’activité de l’arbre, alors que l’intervention de l’expert est souvent ponctuelle.

Dans quelles situations la mise en œuvre de ce dispositif peut-elle se révéler pertinente ?

En matière d’usages, il en existe aujourd’hui deux principaux, définis par nos utilisateurs eux-mêmes, notamment les villes qui nous avaient déjà fait confiance pour les suivis tensiométriques.

Le premier concerne le diagnostic du patrimoine arboré ancien. Typiquement : un vieux chêne un peu sénescent situé dans une cour d’école ou devant un bâtiment public, avec un risque de diminution de vigueur, de chute de branche voire de mortalité. Notre solution permet de surveiller et de faire un diagnostic de son état et de sa croissance. Nous avons par exemple suivi un hêtre à Bourges. Le genre Fagus⁴ a en effet un avenir assez sombre à cause du changement climatique. La ville cherchait à identifier des indicateurs précoces d’un éventuel dépérissement. Le projet a été lancé il y a un peu plus d’un an et est toujours en cours.

Nous avons aussi mis en œuvre notre solution pour un autre cas d’usage en lien avec le patrimoine arboré ancien, pour des arbres de quelques dizaines d’années : le suivi dans le cadre de travaux. Lorsque les arbres subissent des travaux proches de leur rhizosphère, la zone colonisée par leur système racinaire, il y a un risque de rupture d’une racine importante, ce qui pourrait endommager l’arbre. Dans un cas comme celui-ci, l’arbre va mourir, mais cela ne va se voir que 5 à 10 ans plus tard… Plus personne ne sera sur le chantier pour le constater. Notre outil est donc là pour permettre la mise en place d’actions correctives et compensatoires au moment des travaux. Cela permet aussi de prouver que l’arbre a subi un stress trop important et devra être abattu. Les capteurs micro-dendrométriques peuvent être installés six mois avant les travaux afin d’effectuer des mesures sur une saison végétative complète et obtenir des données de croissance de l’arbre. Ces données seront ensuite comparées à celles obtenues l’année suivante, au cours des travaux. On peut aussi équiper deux arbres différents, l’un subissant des travaux et l’autre servant de témoin.

Vous proposez un service d’interprétation. En quoi cela consiste-t-il ?

Nous fournissons un bulletin d’analyse mensuel, dans lequel nous reprenons sur la période analysée des courbes de température, la météo… que nous corrélons avec les variations micro-dendrométriques entre le jour et la nuit afin de définir si elles sont cohérentes avec la saison, ou au contraire insuffisantes. En plus du rapport mensuel, nous réalisons un bilan de fin d’année pour tous les sites suivis. L’objectif final est de pouvoir déclencher des visites de diagnostic sur site et d’agréger des conseils et expertises complémentaires.

À titre plus expérimental, nous avons aussi équipé de sondes tensiométriques différents platanes de la rue Garibaldi de Lyon : certains arrosés, d’autres non. Nous avons constaté qu’en période de canicule, les platanes non irrigués rafraîchissaient 50 % moins que leurs homologues irrigués. Le manque d’eau les pousse en effet à se mettre en repos, à fermer leurs stomates. Or, on attend désormais des arbres qu’ils soient des « climatiseurs urbains ».

En période de canicule, quand l’eau dans le sol était insuffisante, nous avons pu mesurer grâce aux sondes tensiométriques qu’un apport d’eau quelques jours avant l’épisode de forte chaleur permet à l’arbre de continuer à évapo-transpirer et donc de rafraîchir l’atmosphère de 0,4 à 0,6 degré mesuré, et même de 3 à 4 degrés ressentis. Même si cela reste expérimental, il y a ici un sujet à creuser… C’est un autre usage que nous pouvons développer.

Toujours avec la ville de Lyon, nous avons aussi mené une expérience sur des massifs situés aux pieds des arbres. Ces parterres étaient entourés de bordures. Une bordure sur deux a été retirée afin de permettre à l’eau pluviale de pénétrer la fosse de plantation. Nous avons monitoré deux arbres : l’un ayant bénéficié d’un retrait de bordures, permettant une continuité de l’apport en eau pluviale et l’autre resté tel quel, entièrement cerclé de bordures. Dès le démarrage, nous avons mesuré une différence de croissance entre ces deux sujets qui poussaient au départ exactement au même rythme. L’arbre, une fois reconnecté au réseau naturel d’eau pluviale, bénéficie d’une croissance plus importante.

Poursuivez-vous éventuellement d’autres travaux de R&D ?

Oui, absolument ! Je ne peux pas en dire plus pour l’instant, mais nous avons effectivement une équipe R&D basée à Lyon qui travaille sur l’utilisation des data-loggers Minisense® avec d’autres capteurs, toujours dans le but de monitorer les infrastructures vertes et d’accompagner ainsi au mieux les différents acteurs sur tous les enjeux auxquels ils sont confrontés en matière de gestion des arbres en milieu urbain.


[1] Salon du végétal organisé à Angers les 13, 14 et 15 septembre 2022

[2] ITIAPE : Institut des techniques de l’ingénieur en aménagement paysager de l’espace, formation aujourd’hui assurée par l’ISA (Junia) de Lille.

[3] Enregistreur de données autonome, relié à un ou plusieurs capteurs à un rythme régulier, en vue de les transmettre à un serveur.

[4] Genre auquel appartient notamment le Hêtre commun

Mesurer la stabilité oxydative des vins blancs grâce au test DPPH

Face au phénomène d’oxydation prématurée, la gestion de la tenue des vins blancs dans le temps est un enjeu important de la filière vitivinicole. Alors qu’un vin blanc jeune se caractérise par une couleur claire et limpide ainsi que des arômes fruités et floraux, la modification de son état oxydatif au cours de son vieillissement va changer ses qualités organoleptiques, et provoquer l’apparition d’une odeur lourde, évoquant la pomme blette, la cire d’abeille rance ou encore le miel éventé. Ce processus est plus ou moins long et dépend de paramètres externes comme la température de stockage des bouteilles ou le choix de l’obturateur, mais aussi endogènes aux vins, notamment la présence de composés antioxydants à l’intérieur.

Dans le cadre de travaux de recherche menés au sein du laboratoire PAM (Procédés Alimentaires et Microbiologiques) de l’université de Bourgogne, un test appelé DPPH a été développé par l’équipe PCAV (Physico-Chimie de l’Aliment et du Vin) pour mesurer la capacité antioxydante des vins blancs. Ce terme DPPH fait référence au nom du réactif utilisé – le 2,2-DiPhenyl-1-PicrylHydrazyl –, un composé déjà employé pour procéder à des analyses colorimétriques afin de déterminer la capacité antioxydante de matrices alimentaires.

Les chercheurs ont dû adapter cette méthode pour l’appliquer aux vins blancs, afin qu’elle prenne notamment en compte l’action antioxydante des composés soufrés (cystéine, sulfure d’hydrogène, glutathion, méthanethiol) susceptibles de participer à la stabilité oxydative. Dans le but de constituer une base de données, 500 vins issus de six millésimes différents et à différents stades d’élevage, allant de la fin de la fermentation alcoolique jusqu’au vieillissement en bouteille, ont été analysés. Un référentiel de résultat a ainsi pu être constitué en vue de l’analyse de nouveaux échantillons.

Grâce à ce travail, plusieurs paramètres influençant la stabilité oxydative ont pu être identifiés. « Le premier paramètre est le millésime, qui va moduler la diversité chimique des vins et donc leur stabilité, explique Rémy Romanet, Ingénieur à la SATT (Société d’Accélération du Transfert de Technologies) Sayens et au sein de la plateforme DiVVA (Développement Innovation Vigne Vin Aliments), au cours d’un webinaire. Il est important de savoir que ce n’est pas parce que la stabilité oxydative est à un certain niveau une année, qu’elle le sera l’année suivante. »

L’ajout de levure sèche inactivée semble être bénéfique sur la stabilité

Les scientifiques notent aussi l’importance de l’élevage. Ainsi, lors des étapes pré-fermentaires, ils ont comparé l’ajout d’une dose de sulfite (SO2) à l’ajout d’une demi-dose de ce même composé complété par l’apport de levure sèche inactivée (LSI). « On constate, lors de l’analyse à la fin de la fermentation alcoolique, que le vin sulfité a une meilleure capacité antioxydante que le vin ayant reçu une dose réduite complétée par l’ajout de LSI, précise Rémy Romanet. Par contre, lors de l’analyse quelques mois après la mise en bouteilles, on constate que la modalité correspondant à la demi-dose de sulfite avec la LSI a une stabilité oxydative plus importante que la modalité sulfitée. D’une part, cela nous montre qu’il est important d’avoir un suivi au cours de l’élevage, car le vin est en constante évolution, que ce soit au cours de la vinification, mais aussi lors du vieillissement en bouteille. D’autre part, on constate aussi que l’ajout de LSI semble avoir un effet bénéfique sur la stabilité oxydative en apportant des composés azoto-soufrés par exemple. »

D’autres opérations pré-fermentaires ont un impact sur la stabilité oxydative, comme c’est le cas de la mise en fût. Les scientifiques ont réalisé des essais sur deux types de fûts différents et ont analysé les vins 12 mois après y avoir été stockés. L’un des fûts a permis de préserver les composés antioxydants présents dans les vins en début de vinification et d’en apporter de nouveaux grâce à une meilleure extraction en éllagitannins, un composé antioxydant présent dans les parois du fût. « Même plusieurs années après une mise en bouteilles, on constate que les vins issus de l’un des fûts sont toujours plus stables que l’autre fût, ajoute Rémy Romanet. Donc cet impact est significatif au cours du vieillissement du vin. »

Ces travaux de recherche ont démontré la capacité du test à refléter la réactivité chimique des composés impliqués dans la stabilité oxydative, en particulier les composés soufrés. Il existe déjà des méthodes permettant de mesurer la stabilité oxydative des vins blancs, notamment celle appelée RPE (résonance paramagnétique électronique), mais sa technicité et le fait qu’elle soit onéreuse la rendent difficilement transposable au monde professionnel. L’avantage du test DPPH est qu’il est simple à mettre en œuvre, rapide et peu coûteux. Cette analyse est actuellement proposée par la SATT Sayens.

La mobilisation des citoyens pour la qualité de leur air

Un extrait de De la biosurveillance participative de la qualité de l’air par Lionel SCOTTO D’APOLLONIA, Davia DOSIAS-PERLA, Pierre CAMPS, Thierry POIDRAS

Une mobilisation citoyenne est intervenue suite au projet de déplacement et doublement de l’Autoroute A9 au niveau de la commune de Saint-Aunès, à l’Est de la Métropole Montpellier Méditerranée. La crainte des riverains : voir une dégradation de la qualité de l’air induite par l’augmentation du trafic. Ils ont ainsi vu une autoroute passer de 2×3 voies à 4×3 voies. Cette mobilisation a abouti à la création d’un site expérimental dont l’objectif est d’étudier l’impact des haies arborées sur la qualité de l’air. Ce site assez singulier est composé de trois merlons – les parties pleines d’un parapet – arborés, autour desquels 14 filtres passifs NO2 et 8 micro-capteurs de particules fines (PM 10 et PM 2.5) ont été implantés par l’agence de l’air Atmo Occitanie. En effet, l’indice européen de la qualité de l’air se base sur cinq sources de polluants : l’ozone (O3), le dioxyde de souffre (SO2), le dioxyde d’azote (NO2) et les particules fines en suspension (PM 2.5 et PM 10) néfastes pour la santé. De l’anglais « Particulate Matter », elles désignent les particules dont le diamètre aérodynamique est inférieur respectivement à 2,5 et 10 μm. Ce dispositif a été mis en place dans le cadre d’une étude de suivi de l’impact du doublement de l’autoroute, avec un engagement de traitement et de diffusion des résultats sur une période de 10 ans. Deux stations métrologiques sont également opérationnelles aux abords des merlons.

Un tunnel à vent à portée du public

De plus, un tunnel à vent est conçu de façon à reproduire des conditions atmosphériques similaires à celles présentes à l’air libre. Ce tunnel instrumenté d’une longueur de 6 m offre une section carrée de 0,75 m² suffisante pour placer les végétaux dans un flux d’air dont la vitesse sera régulée. Les composants sélectionnés ainsi que l’architecture du banc permettront de produire un vent dont la vitesse peut varier de 0,1 à 10 m/s (36 km/h maxi). L’accès à la zone d’exposition aux particules est assez grand pour faciliter l’entrée et éviter la « perte » des particules fixées sur les feuilles et les filtres témoins passifs. Un dispositif de comptage des particules est inséré dans le tunnel afin d’enregistrer l’évolution du nombre des particules en amont et en aval des échantillons. Ceci dans le but d’avoir un élément de comparaison avec les mesures faites à l’extérieur. Il est utile également, dans la mesure du possible, d’utiliser en parallèle des capteurs de particules low cost disponibles sur le marché afin d’élargir les capacités de mesures. Les protocoles d’exposition des échantillons seront précisément déterminés afin de pouvoir conduire de front les mesures magnétiques et géochimiques au laboratoire.

Le tunnel est construit sur le site des services techniques de la ville de Saint-Aunès. Il s’agit d’intégrer le citoyen dans l’analyse de la qualité de l’air qu’il respire. Dans cet objectif, le public pourra visiter les installations. Il est donc important de concevoir un instrument facile à mettre en œuvre, éducatif, didactique et agréable à regarder. La visée est double : effectuer les mesurages nécessaires à la métrologie, et former le citoyen tout en le faisant participer activement. Le banc expérimental se compose de deux parties distinctes et éloignées l’une de l’autre : la première est le tunnel à vent lui-même, quand la seconde se trouve dans le laboratoire Géosciences Montpellier où se feront les mesures magnétiques et géochimiques. Il est tout aussi important d’ouvrir les laboratoires expérimentaux au public pour qu’il ait une vue d’ensemble sur la métrologie.

Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 8 septembre 2022 !

De la biosurveillance participative de la qualité de l’air, par Lionel SCOTTO D’APOLLONIA, Davia DOSIAS-PERLA, Pierre CAMPS, Thierry POIDRAS

Les thèses du mois : « Qualité de l’air sous surveillance : mesures et règlementations »

Pour notre dossier d’août, « Qualité de l’air sous surveillance : mesures et règlementations », voici les thèses sélectionnées par le REDOC SPI. Retrouvez le résumé de ces thèses ainsi que les thèses des mois précédents sur le site de notre partenaire.

 

Nez électronique communicant pour le contrôle de la qualité de l’air intérieur
Aymen Sendi
Thèse de doctorat en MicroNano Systèmes – Soutenue le 11-12-2020
Laboratoire d’analyse et d’architecture des systèmes

 

Study of indoor air quality by multi-sensor systems
Eliane Assy
Thèse de doctorat en Chimie théorique, physique, analytique – Soutenue le 29-01-2021
PhysicoChimie des Processus de Combustion et de l’Atmosphère

 

Stratégies optimales de maîtrise de la qualité de l’air dans les bureaux : évaluation du potentiel des matériaux adsorbants
Guillaume Serafin
Thèse de doctorat en Energétique et thermique – Soutenue le 11-02-2020
Laboratoire des Sciences de l’Ingénieur pour l’Environnement

 

Low-cost wireless sensor networks in participatory air quality monitoring
Mohamed Anis Fekih
Thèse de doctorat en Informatique – Soutenue le 04-02-2022
Centre d’Innovation en Télécommunications et Intégration de services

 

Système de détection ultra-sensible et sélectif pour le suivi de la qualité de l’air intérieur et extérieur
Nicolas Morati
Thèse de doctorat en Sciences pour l’ingénieur. Micro et nanoélectronique – Soutenue le 30-03-2021
Institut Matériaux Microélectronique Nanosciences de Provence

 

Potential of Micro-scale Optical Spectroscopy for Environmental sensing: Focus on Gas and Air Quality
Alaaeldeen Fathy Rezk Thabet Mohamed
Thèse de doctorat en Electronique, Optronique et Systèmes – Soutenue le 19-11-2020
Laboratoire électronique, systèmes de communication et microsystèmes

 

Traitement multi-échelle des données spatio-temporelles appliquées à la qualité de l’air dans les zones urbaines
Maryam Rahmani
Projet de thèse en Informatique et applications – depuis le 01-09-2021
Centre de Recherche en Informatique, Signal et Automatique de Lille

 

Intégration de la qualité de l’air intérieur dans l’analyse du cycle de vie des bâtiments
Rachna Bhoonah
Projet de thèse en Energétique et génie des procédés – depuis le 01-10-2020
Centre Efficacité énergétique des Systèmes

 

Conception et expérimentation d’un réseau de mesure de la qualité de l’air pour l’orientation et le suivi des stratégies d’aménagement
Souad Bouri
Projet de thèse en Géographie – depuis le 25-09-2020
Prodig

 

Conception d’antennes capteurs et validation de leurs performances par analyse chimique pour la surveillance de la qualité de l’air en milieu urbain
Emilie Bertrand
Projet de thèse en Electronique, microélectronique, optique et lasers, optoélectronique microondes robotique – depuis le 12-01-2021
Institut d ‘Electronique et des Technologies du Numérique

En optimisant l’usage de l’IA, les entreprises peuvent limiter leurs émissions de CO2

Le machine learning (ML) est devenu un outil clé dans diverses applications telles que l’assurance, les banques, la finance, les soins de santé, etc. Résultat, ce marché devrait atteindre les 47,3 milliards de dollars dans 6 ans, contre 2,4 milliards en 2019, selon une étude menée par Verified Market Research.

Revers de la médaille, le ML est énergivore. L’alimentation des processeurs graphiques ou GPU en anglais (Graphics Processing Unit) pour former les plus petits modèles d’apprentissage capables de traiter le langage ou les images émet à peu près autant de carbone que la recharge d’un téléphone.

Le plus grand modèle (six milliards de paramètres) a émis presque autant de carbone que l’alimentation d’un foyer pendant un an aux États-Unis.  Il n’était pourtant entraîné qu’à 13 % de ses capacités…

Des mesures plus précises

Ces résultats impressionnants ont été obtenus par Jesse Dodge, chercheur à l’Allen Institute for AI et auteur principal d’un article présenté en juin dernier à la conférence ACM sur l’équité, la responsabilité et la transparence (FaccT- Fairness, Accountability and Transparency – ACM FAccT).

Cette équipe a développé 11 modèles d’apprentissage automatique de différentes tailles pour traiter le langage ou les images. La formation allait d’une heure sur un GPU à huit jours sur 256 GPU.

Plusieurs logiciels permettent d’estimer les émissions de carbone des charges de travail de l’IA. Mais ils ne sont pas fiables dans tous les contextes et ne sont pas en mesure de saisir toutes les nuances. La nouvelle approche de l’Allen Institute for AI permet de gagner en précision.

Premièrement, elle enregistre l’utilisation de l’énergie des puces des serveurs sous la forme d’une série de mesures, plutôt que d’additionner leur utilisation au cours de la formation. Deuxièmement, elle aligne ces données d’utilisation avec une série de points de données indiquant les émissions locales par kilowattheure (kWh) d’énergie utilisée.

Mais si ce nouvel outil est plus sophistiqué que les anciens, il ne permet de suivre qu’une partie de l’énergie utilisée dans les modèles de formation par les GPU. Il ne mesure pas non plus l’énergie utilisée pour construire l’équipement informatique et pour refroidir le datacenter.

Cette méthode a permis néanmoins de constater que le principal facteur de réduction des émissions était la région géographique. Les grammes de CO2 par kWh variaient de 200 à 755. Outre le changement de lieu, les chercheurs ont testé deux techniques de réduction du CO2 en optimisant les lancements des modèles. Résultat, des réductions pouvant atteindre jusqu’à 80 % d’émission de CO2 pour les petits modèles de ML.

Mais la meilleure piste pour que les entreprises réduisent leurs émissions de CO2 en exploitant l’IA consiste d’abord à se demander si l’on a vraiment besoin d’un modèle de ML pour obtenir un résultat pertinent.

Les outils de modélisation de la qualité de l’air s’enrichissent de nouvelles données

En matière de surveillance de la qualité de l’air, le développement d’outils de modélisation et de cartographie est incontournable. Car si les instruments de mesure déployés par les AASQA (Associations agréées de surveillance de la qualité de l’air) sont capables d’observer de manière fiable et normalisée les concentrations en polluants, leur nombre limité ne permet en aucun cas de couvrir un territoire aussi vaste que la France. Par ailleurs, en plus de reconstituer en temps réel la qualité de l’air, ces représentations numériques sont également indispensables pour réaliser des prévisions à court et long terme, afin d’informer le public, mais aussi pour mieux appréhender le futur.

Depuis une vingtaine d’années, l’Ineris et le CNRS ont développé un modèle baptisé Chimère, disponible aujourd’hui en open source. Il alimente, entre autres, la plate-forme nationale Prev’Air de prévision de la qualité de l’air, celle-ci faisant partie intégrante du dispositif français de surveillance. Ce modèle repose sur des données entrantes, issues de trois sources différentes. Tout d’abord, celles collectées par le CITEPA (Centre interprofessionnel technique d’études de la pollution atmosphérique), un organisme dont le rôle est d’inventorier les émissions de tous les polluants atmosphériques ainsi que les gaz à effet en France liés à l’activité humaine (trafic routier, industrie, agriculture, résidentiel…). Ensuite, les données de météorologie (vent, précipitation…) afin d’appréhender la dispersion des polluants. Et enfin, les émissions naturelles telles que les poussières désertiques du Sahara, ainsi que tous les composés émis par la végétation. Régulièrement, ce modèle est confronté aux mesures officielles effectuées par les AASQA.

Des algorithmes pour intercalibrer les mesures de nouveaux capteurs

Afin d’améliorer la représentation spatiale des cartographies de polluants, de nouveaux outils numériques sont en cours de développement et la tendance aujourd’hui est à la conception de modèles hybrides, qui intègrent les trois types de données entrantes ci-dessus, ainsi que des observations du terrain. Et notamment, les analyses issues de nouveaux instruments de mesure miniaturisés, dont l’utilisation est aujourd’hui en plein essor. « Nous avons développé un nouvel outil appelé SESAM qui prend en compte ces nouveaux capteurs, révèle Augustin Colette, responsable de l’unité modélisation de la qualité de l’air à l’Ineris. Étant donné qu’ils sont moins précis que les instruments officiels, on s’intéresse à eux non pas individuellement, mais en termes de réseau. Plusieurs centaines d’entre eux peuvent être présents sur une même zone. Certains sont installés sur des véhicules comme des taxis et sont donc mobiles, ce qui signifie qu’ils peuvent se croiser. Ils peuvent aussi s’approcher des stations de références des AASQA, et dans ce cas, il est possible de comparer leurs mesures avec les instruments réglementés. Grâce à ce réseau, nous parvenons à les intercalibrer à l’aide de méthodes algorithmiques spécifiques et ainsi améliorer nos cartographies. »

Épisode de pollution aux particules PM10 (moyenne journalière) le 1er décembre 2016. Reconstruction effectuée par la plateforme nationale de prévision de la qualité de l’air Prév’air par fusion de données entre le modèle de qualité de l’air CHIMERE et les observations de Géod’Air et des AASQA (Associations agréées de surveillance de la qualité de l’air). Crédit : Prév’air

Grâce à des travaux de recherche débutés il y a une quinzaine d’années, les modèles commencent aussi à s’enrichir en données satellitaires. De nombreux constituants atmosphériques peuvent en effet s’observer depuis l’espace, comme les aérosols, le dioxyde d’azote, l’ozone, l’ammoniac… « Nous sommes sur le point de les intégrer dans nos outils opérationnels, déclare Augustin Colette. Toute la difficulté est que les satellites actuels sont défilants, c’est-à-dire qu’ils ne couvrent pas en permanence une zone donnée. Mais tout va changer en 2024 ou 2025, avec l’arrivée de satellites géostationnaires du programme Copernicus. Grâce à ces données à haute fréquence temporelle, nous allons vraiment avoir des observations pertinentes pour un système de modélisation futur qui nous permettra de baisser les incertitudes de mesure. Les prévisions météo ne sont en effet pas toujours justes, de même que les inventaires du CITEPA, dans lesquels il peut parfois manquer certaines émissions polluantes. Grâce à ces données satellitaires, il sera possible de corriger ces erreurs en temps réel. »

Mieux représenter les aérosols condensables dans l’atmosphère

En attendant, les modèles actuels s’enrichissent grâce à l’amélioration des connaissances sur la chimie de l’atmosphère, notamment dans le domaine des poussières en suspension. Certaines d’entre elles sont directement émises sous la forme de poussière solide, mais l’on sait à présent que d’autres se forment par condensation, sous l’effet de mécanismes physico-chimiques dans l’atmosphère. C’est le cas des aérosols issus du chauffage au bois résidentiel. « Une grande partie des émissions n’a pas lieu sous la forme solide lors de la combustion, mais se solidifie après dans l’atmosphère, analyse Augustin Colette. Depuis 5 ans, nous avons beaucoup investi dans ce domaine, et nous avons très nettement amélioré la manière dont nous représentons les aérosols condensables dans nos modèles. »

Ces outils numériques comprennent plusieurs centaines de polluants différents, mais seuls quelques-uns sont exploités, comme l’ozone, le dioxyde d’azote, les particules PM10 (inférieures à 10 micromètres) et PM2,5 (inférieures à 2,5 micromètres). « Ces quatre polluants sont ceux sur lesquels nous avons le plus confiance dans le résultat obtenu, ajoute Augustin Colette. Nous en modélisons d’autres, mais les incertitudes sont plus grandes. Nous travaillons en ce moment afin de tenter de rajouter les pesticides. Concernant le monoxyde de carbone, nous ne le modélisons pas, car ce polluant se cantonne essentiellement à l’intérieur des bâtiments. Quant au dioxyde de soufre (SO2), il est pertinent de le mesurer à proximité de sites industriels, et non pas dans des modèles de cartographie qui s’appliquent à de vastes territoires grands comme la France. »

Une diversité d’outils et de méthodes pour mesurer les polluants non réglementés dans l’air

En raison de leur potentiel impact sanitaire et environnemental, l’État français a défini une liste de polluants d’intérêt national (PIN) à surveiller dans l’air ambiant extérieur, en plus de ceux dits réglementés, au sens des directives européennes. À cette liste, s’ajoutent 13 polluants dits prioritaires, dont certains sont déjà couverts par les PIN, que l’ANSES (Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail) préconise également de surveiller régulièrement, dans un rapport publié en 2018. Peu de méthodes normalisées existent pour quantifier ces polluants dont la composition physico-chimique peut être par ailleurs très hétérogène : gazeux, particulaires, organiques, inorganiques… Les AASQA (Associations Agréées pour la Surveillance de la Qualité de l’Air) et les organismes de recherche peuvent avoir recours à une diversité d’outils pour les qualifier, avec des méthodes qui peuvent différer notamment en fonction de l’objectif de surveillance souhaité.

Dans la liste des PIN, sont inscrites 75 substances pesticides. La méthode de mesure retenue consiste à réaliser des prélèvements de l’air à l’aide de cartouches couplées à des filtres (substances semi-volatiles) ou de filtres uniquement (substances polaires), puis à procéder à plusieurs types d’analyses par chromatographie, principalement grâce à des détecteurs spectrométriques. « Cette méthode est robuste et fiable, déclare Sabine Crunaire, chargée d’études pour le LCSQA (Laboratoire Central de Surveillance de la Qualité de l’Air) et Enseignant-Chercheur au sein de l’IMT Nord Europe. L’ensemble des molécules de la liste est mesuré sur l’ensemble du territoire français, dont les DROM (Départements-Régions d’Outre-Mer). En fonction du tissu agricole et donc des sources locales, certaines AASQA peuvent demander l’analyse de substances complémentaires. »

Grossir artificiellement la taille des particules ultrafines

Pour détecter certains composés présents dans les particules (sulfate, ammonium, nitrate, matière organique, carbone suie), tous classés dans la catégorie des PIN, deux méthodes sont employées. La première consiste à les prélever à l’aide de filtres, puis à extraire lesdites substances pour les analyser par des techniques de chromatographie liquide. La seconde, appelée ACSM (Aerosol Chemical Speciation Monitor), est réalisée par spectrométrie de masse, en temps réel. « La première méthode a une meilleure précision, car le prélèvement se déroule plus longtemps, typiquement 24 heures, ce qui permet d’accumuler plus d’échantillons et de diminuer les limites de détection, souligne Sabine Crunaire. Alors que l’ACSM permet d’obtenir des mesures temporelles plus fines, de l’ordre de la demi-heure. Les fractions particulaires que l’on peut atteindre ne sont en plus pas les mêmes. Avec l’ACSM, on analyse les fractions des particules PM1 (diamètre aérodynamique inférieur à 1 micromètre) alors qu’avec les filtres, ce sont plutôt les PM10 et les PM2,5, c’est-à-dire des particules prélevées avec une efficacité supérieure à 50 % pour des diamètres aérodynamiques respectivement inférieurs à 10 et 2,5 micromètres. »

À noter que le carbone suie exige une méthode particulière d’analyse consistant à utiliser un aethalomètre. Il s’agit d’un instrument optique d’absorption à différentes longueurs d’onde, permettant de remonter à l’origine du carbone suie, et de connaître s’il est issu de la combustion de biomasse, du trafic routier… Le suivi de la composition chimique des particules fines en milieu urbain est piloté par l’Ineris dans le cadre du dispositif CARA (Caractérisation chimique des particules).

Quant aux particules ultrafines (PUF), dernier polluant à avoir été intégré à la classe des PIN, un procédé de comptage à noyau de condensation est employé. Cette technique consiste à grossir artificiellement la taille des particules (à partir de 7 nanomètres de diamètre), afin de déterminer la concentration en nombre plus facilement.

La liste de l’ANSES comprend cinq métaux : le vanadium, le cobalt, l’antimoine, le cuivre et le manganèse. La méthode d’analyse pour les mesurer est éprouvée, puisque c’est la même que celle employée pour les métaux lourds réglementés (arsenic, cadmium, plomb, nickel). Des prélèvements à l’aide de filtres sont pratiqués, puis intervient une phase d’extraction au four micro-onde en milieu acide, suivie d’une analyse en laboratoire par ICP-MS (Inductively Coupled Plasma- Spectromètre de masse) à l’aide d’une torche à plasma. « Les limites de détection pour l’antimoine restent assez élevées, complète Sabine Crunaire. Tout comme pour les pesticides, les quantités recherchées sont extrêmement faibles, de l’ordre de la dizaine ou centaine de nanogrammes par m³. À chaque étape, il faut donc s’assurer que l’extraction est complète et l’analyse nécessite le raccordement à des matériaux ou des solutions de références certifiés. À noter que des essais sont actuellement menés par le LCSQA afin de réaliser des analyses en temps réel de certains métaux, mais ces travaux sont encore à leurs prémices. »

Des mesures dites indicatives peuvent aussi être utilisées

Tous les composés organiques de la liste de l’ANSES (1,3-butadiène, 1,1,2-trichloroéthane, trichloroéthylène, l’acrylonitrile et naphtalène) peuvent être mesurés par chromatographie en phase gazeuse. Ce procédé nécessite une étape de préconcentration, qui consiste à collecter pendant une durée de l’ordre de 30 minutes les composés sur un support de prélèvement, généralement du noir de carbone graphité ou un polymère, dans le but d’accumuler de la masse d’échantillons. Ce support est ensuite chauffé très rapidement à haute température (200-300°C), afin de récupérer les composés accumulés pour les séparer et les analyser par une technique de chromatographie en phase gazeuse couplée à un système de détection (détecteur à ionisation de flamme, spectromètre de masse…). « Cette méthode est assez lourde à mettre en œuvre et demande une technicité et des contrôles métrologiques poussés, précise Sabine Crunaire. Pour chaque composé organique, il faut en effet adapter le support de préconcentration et la méthode chromatographique utilisée. Si les 5 composés organiques de la liste ANSES sont tous présents dans le même échantillon, il est important que les conditions d’échantillonnage, de désorption et d’analyse soient finement optimisées pour obtenir un résultat robuste avec un prélèvement unique. »

Le carbone suie et les PUF étant déjà inclus dans la liste des PIN, il reste un dernier composé dans la liste de l’ANSES : le sulfure d’hydrogène (H2S). Pour mesurer sa concentration, la méthode la plus répandue consiste à d’abord le convertir en dioxyde de soufre (SO2), par oxydation à l’aide d’un catalyseur chauffé, puis à mesurer le SO2 par fluorescence UV.

Toutes les méthodes décrites ci-dessus permettent d’obtenir des mesures avec un niveau d’incertitude le plus faible possible. Les organismes en charge des mesures peuvent aussi recourir à des mesures dites indicatives, souvent moins lourdes à mettre en œuvre, mais avec un niveau de confiance dans le résultat obtenu moins élevé. Ces méthodes peuvent être utilisées dans un premier temps, afin de détecter la présence de certains polluants, avant que des mesures plus précises soient réalisées. Dans le cas des composés organiques, il est par exemple possible d’effectuer des prélèvements passifs, qui ne nécessitent pas de pompage, à l’aide de petites cartouches remplies d’un absorbant, sur lequel vont venir se fixer les polluants de l’air. Le prélèvement se déroule pendant un temps long, environ une à deux semaines, à la suite de quoi l’échantillon est récupéré puis analysé.

Les organoïdes sur puce, des composants pour la médecine du futur ?

Les OoCs sont un sujet aussi fédérateur qu’emblématique pour le CEA. Les objectifs sont multiples : accompagner le développement de cette technologie et concevoir des dispositifs complets capables, entre autres, d’effectuer des tests cliniques in vitro.

Les organoïdes sur puce : qu’est-ce que c’est ?

Les organoïdes sur puce, ou OoCs sont à la croisée de plusieurs domaines de la recherche : les organoïdes, les laboratoires sur puce et la microfluidique.

  • Les organoïdes

L’incorporation et la culture de cellules souches dans un hydrogel conduisent à la formation d’amas de cellules qui s’apparentent à des sphères et qui reproduisent la diversité cellulaire des tissus originels.

Ces amas ont la particularité de mimer, au moins de manière partielle, le fonctionnement des tissus qui ont conduit à leur formation. On les appelle donc organoïdes parce qu’ils sont capables de mimer le comportement d’organes : pancréas, rein, cerveau, prostate, etc.

  • Les laboratoires sur puce

Les laboratoires sur puce sont déjà utilisés pour détecter des protéines, des peptides ou des acides nucléiques dans des échantillons biologiques de sang, de salive, etc.

Cette technologie a d’ailleurs rendu possible l’analyse biologique en dehors du laboratoire, ce qui permet notamment de réduire la consommation de réactifs biologiques et de gagner en sensibilité et/ou en temps d’analyse.

  • La microfluidique

La microfluidique est un domaine consistant à manipuler des fluides dans des réseaux de microcanaux qui a atteint la maturité technologique durant la dernière décennie. Elle permet de développer des systèmes de plus en plus sophistiqués, notamment pour l’ingénierie cellulaire au service des organoïdes.

  • Les organoïdes sur puce : un concentré de technologies de pointe
Réalisation de formules sanguines. Crédits : l. Godart/CEA

Formés à partir de cellules souches cultivées dans un système microfluidique de la taille d’une carte de crédit, les OoCs sont de formidables outils qui constituent, pour certains chercheurs, un changement de paradigme.

En effet, parce qu’ils sont capables de reproduire en partie l’environnement d’un organe et ses fonctionnalités, même dans des conditions pathologiques, les OoCs sont ainsi porteurs de promesses fortes.

Des applications multiples en biologie, pharmacologie et médecine

Le premier domaine d’application des OoCs est la biologie fondamentale. Pourquoi ? Parce que ces dispositifs facilitent la compréhension de la biologie du développement humain et permettent de mimer une pathologie.

Les OoCs sont un outil précieux pour identifier les fonctions physiologiques d’un organe. Par ailleurs, la transparence des plastiques constituant les OoCs facilite également l’étude de l’architecture des cellules.

Voici quelques exemples d’applications.

  • Pharmacologie

Il s’agit probablement du segment le plus porteur. Les OoCs permettent entre autres de tester la toxicité de substances ou de conduire à la découverte de nouveaux médicaments.

Dans un futur plus ou moins proche, ils entreront très probablement dans le parcours de soin des patients, dans le cadre d’une médecine participative et personnalisée.

  • Médecine personnalisée et prédictive

Les OoCs permettent d’étudier les cellules prélevées sur les patients et d’anticiper leurs réactions. Cela laisse entrevoir la possibilité d’une médecine prédictive personnalisée dans laquelle une solution spécifique sera apportée à chaque patient pour sa maladie.

L’oncologie sera ainsi l’une des priorités du développement des OoCs, les médicaments actuels n’étant efficaces que sur une partie des malades.

  • Médecine régénératrice

Une fois atteint le stade de la médecine personnalisée, un autre défi se présente : cultiver des organoïdes à partir de cellules souches d’un patient pour les lui réimplanter et « réparer » un organe déficient, par exemple en attendant une greffe.

En clair, il s’agit de médecine régénératrice. En pratique, cela pose néanmoins quelques difficultés. Les systèmes microfluidiques étant complexes, l’utilisation des OoCs en milieu hospitalier ou industriel nécessitera une simplification des instruments.

Le CEA accompagne l’industrialisation de la technologie OoCs

Lors de la récente conférence de presse sur les OoCs¹, Xavier Gidrol et Fabrice Navarro² ont présenté les travaux du CEA dans cette « course pour la médecine du futur ».

Grâce à son interdisciplinarité, le CEA se positionne sur l’accompagnement de la maturation industrielle des OoCs, dans le but que cette technologie soit un jour utilisée par les patients.

En effet, pour que ceci devienne une réalité, cette technologie doit non seulement être acceptée par les hôpitaux et les patients, mais aussi être capable de passer de la phase prototype à la phase industrielle.

Dans cet objectif d’industrialisation, le CEA intègre les critères industriels dès la phase de recherche : choix des matériaux compatibles avec les différentes filières, standardisation des procédés, etc.

Le format « carte de crédit » a par exemple été choisi et la dimension des canaux a été standardisée. Pour cela, le CEA collabore avec l’AFNOR et l’ISO, mais aussi avec de nombreux industriels.

Le CEA estime que l’avènement des organoïdes sur puce et l’apparition de puces multiorganoïdes se feront d’ici les 5 prochaines années. En revanche, il faudra bien 10 ans pour voir l’intégration des OoCs dans le parcours de soin.

Si vous désirez en savoir plus, nous vous invitons également à consulter le dossier de presse.


[1] Conférence de presse du 23 juin 2022 intitulée « organoïdes sur puce : composants de la médecine du futur ? »

[2] Xavier Gidrol est chef du laboratoire Biologie à grande échelle au CEA et Fabrice Navarro est chef du laboratoire Systèmes microfluidiques et bio-ingénierie au CEA

La mesure des polluants réglementés dans l’air doit respecter un cadre normatif

La mesure des polluants gazeux réglementés, dont la surveillance est obligatoire, obéit à un cadre réglementaire bien précis. Les principes de mesure des instruments utilisés doivent être conformes aux normes désignées comme « méthode de référence » dans la directive européenne 2008/50/CE. Il est possible d’en utiliser d’autres, mais à condition de démontrer l’équivalence du nouveau matériel par rapport à la méthode de référence. Dans les faits, les techniques de mesure des appareils dont se servent les AASQA (Associations Agréées de Surveillance de la Qualité de l’Air) sont celles développées il y a une quarantaine d’années.

Chaque polluant a sa propre technique d’analyse de référence. Ainsi, la chimiluminescence est employée pour la mesure des oxydes d’azote (NO/NOx/NO2), la fluorescence UV pour le dioxyde de soufre (SO2), la spectroscopie à rayonnement infrarouge non dispersif pour le monoxyde de carbone (CO), la photométrie UV pour l’ozone (O3) et la chromatographie en phase gazeuse pour les BTEX (Benzène, Toluène, Éthylbenzène et Xylènes).

Mais ce prérequis ne suffit pas. Pour garantir l’exactitude et la fiabilité des analyses réalisées dans les stations de mesure en tout point du territoire, une chaîne nationale de traçabilité métrologique des mesures est mise en place. Son objectif : raccorder tous les appareils de mesure à un même étalon national de référence, lui-même raccordé au système de mesure international. Le LNE (Laboratoire national de métrologie et d’essais), dans le cadre du LCSQA (Laboratoire central de surveillance de la qualité de l’air), et sous l’égide du ministère en charge de l’Écologie, a développé des étalons spécifiques pour les polluants atmosphériques gazeux cités précédemment.

Des audits pour s’assurer du respect du référentiel technique national

Pour mettre en place ce dispositif, des laboratoires de métrologie intermédiaires ont été créés en région afin de faire face à plus de 1 400 appareils de mesure à étalonner régulièrement et répartis sur toute la France. Pour schématiser, la chaîne nationale de traçabilité métrologique repose sur la circulation périodique d’étalons de transfert entre ces laboratoires appelés aussi « niveau 2 » et le LNE (niveau 1), ainsi qu’entre ces mêmes laboratoires et les AASQA, qui représentent le « niveau 3 ».

Pour compléter ce dispositif, des comparaisons interlaboratoires sont organisées périodiquement à tous les niveaux de la chaîne nationale de traçabilité métrologique. Elles sont un moyen fiable et performant pour attester du bon fonctionnement du dispositif de surveillance. Des audits techniques sont aussi réalisés par le LCSQA pour s’assurer que les AASQA respectent les exigences du référentiel technique national établi par le dispositif national. Le LCSQA vérifie également que les appareils utilisés pour les mesures réglementaires sont conformes à la méthode de référence.

Depuis plusieurs années, les AASQA utilisent de plus en plus des systèmes capteurs pour compléter leurs études. Plus légers et moins coûteux que les analyseurs de référence, ces appareillages peuvent être déployés en plus grand nombre afin d’avoir un maillage plus complet sur un territoire donné. Actuellement, un groupe de travail de normalisation européen élabore des spécifications techniques visant à fournir des lignes directrices pour l’évaluation des performances des systèmes capteurs utilisés pour la mesure indicative de polluants gazeux et particulaires dans l’air ambiant. Et en janvier dernier, une première spécification technique relative aux polluants gazeux a été publiée.

Parallèlement, le LNE et l’Ineris se sont associés pour créer une certification volontaire appelée « Air quality sensor ». « Nous avons développé une plateforme instrumentée qui permet de tester les performances de ces systèmes capteurs, explique Tatiana Macé, responsable du département “Métrologie des gaz” au LNE. Elle peut servir en appui technique aux fabricants lorsqu’ils développent leurs capteurs, ou dans le cadre de la certification avec l’Ineris. » Le référentiel de certification s’appuie sur des protocoles d’essais en laboratoire et en conditions réelles basés sur les documents du groupe de travail de normalisation européen. Dans un premier temps, cette certification volontaire vise les particules fines PM2,5 (inférieures ou égales à 2,5 micromètres) et le dioxyde d’azote (NO2), et devrait s’étendre à d’autres polluants tels que l’ozone (O3) et les particules PM10 (inférieures ou égales à 10 micromètres).

Fournir un résultat dont l’incertitude est inférieure ou égale à 15 %

Ces systèmes capteurs peuvent être ajustés en utilisant les données des stations de mesure. Des comparaisons sont d’ailleurs organisées chaque année afin de comparer leurs performances avec celles des instruments de référence. Ils embarquent différentes technologies : certains fonctionnent à l’aide de détecteurs à infrarouge, d’autres par électrochimie (NO2, Ozone, SO2), tandis que les méthodes optiques sont souvent utilisées pour les particules. Ils mesurent un ou plusieurs polluants à la fois.

« Ces systèmes capteurs pourraient encore évoluer, mais il y a encore beaucoup de travail à mener pour les rendre aussi fiables que les analyseurs de référence, confie Tatiana Macé. Ils ne sont pas toujours spécifiques, cela signifie qu’un polluant peut parfois venir créer des interférences et perturber la mesure. Ils peuvent aussi être sensibles aux températures ou à l’humidité. » Cependant, certains d’entre eux pourraient être utilisés pour des mesures réglementaires dites « indicatives », présentant une incertitude dans la mesure plus large.

En matière de mesure des polluants gazeux réglementés, les instruments de mesure ont l’obligation de fournir un résultat dont l’incertitude est inférieure ou égale à 15 %. En sachant que celle-ci est à respecter lorsque les seuils d’information et d’alertes sont atteints. Dans le cas du dioxyde de soufre (SO2) par exemple, ce seuil est fixé par la réglementation à 500 µg/m³. « L’obligation de ne pas dépasser 15 % d’incertitude ne vaut que pour des concentrations dans l’air élevées, complète Tatiana Macé. S’agissant du dioxyde de soufre, mais aussi du monoxyde de carbone, les concentrations dans l’air ont beaucoup baissé ces dernières années, mais les instruments restent encore adaptés à la mesure de ces faibles concentrations. »

Plus d’énergie renouvelable et de gaz pour l’Afrique

Le continent africain a une large place à prendre dans la transition énergétique mondiale. Bénéficiant de ressources importantes pour développer les énergies renouvelables, notamment solaire, son potentiel est mis en avant dans un récent rapport de l’Agence internationale de l’énergie (AIE) sur une « Afrique durable ». La COP27 qui se tiendra en Égypte fin 2022 sera l’occasion pour les dirigeants africains de défendre ce point de vue et d’appeler aux financements nécessaires, estimés à 190 milliards $ entre 2026 et 2030 par l’AIE. La Banque africaine de développement y travaille, mais d’autres institutions financières doivent participer à cet effort d’investissement vital pour l’Afrique.

L’effort doit être porté sur les énergies propres, mais pas seulement. Bien qu’il faille réduire l’usage des énergies fossiles, l’AIE n’hésite pas à dire que l’Afrique a besoin de développer la production, les infrastructures et l’usage du pétrole et surtout du gaz. Ce dernier doit spécialement servir à développer l’industrie africaine (engrais, acier, ciment, dessalement de l’eau) avec une bonne dose d’efficacité énergétique et peut s’appuyer sur des gisements locaux dont les réserves sont estimées à plus de 5 000 milliards de m³. Le gaz pourrait aussi être plus exporté vers l’Europe : la hausse des prix actuels commence à amorcer ce mouvement, en pleine tension géopolitique avec la Russie.

Par ailleurs, l’AIE pointe les vastes ressources minérales africaines qui pourraient aider à la transition énergétique dans le monde. En effet, 40 % des réserves mondiales de cobalt, de manganèse et de platine sont en Afrique. Le scénario de l’AIE montre qu’en investissant dans l’exploration minière, l’Afrique pourrait doubler ses revenus issus de la production de minéraux critiques d’ici 2030… sous réserve d’en minimiser les impacts environnementaux et sociaux.

Priorité aux énergies renouvelables

La situation de départ de l’Afrique diffère grandement des autres continents. 600 millions de personnes (43 % de la population) n’ont pas accès à l’électricité. 900 millions n’ont pas de moyens de cuissons propres (les foyers ouverts au bois émettent beaucoup de particules). La flambée actuelle des prix des énergies fossiles rend le GPL inabordable pour 30 millions de personnes. La priorité immédiate et absolue est donc de donner un accès universel à l’énergie, ce qui représenterait un effort de 25 milliards $ par an, soit moins de 1 % des investissements énergétiques mondiaux actuels.

Deux enjeux sont cruciaux. Le premier est de donner accès à des moyens de cuissons efficaces et non polluants, via des foyers à biomasse améliorés (foyers fermés), de la cuisson électrique ou des biodigesteurs pour de la cuisson au biogaz. L’impact sanitaire, social et environnemental serait énorme : 500 000 décès prématurés seraient évités chaque année d’ici 2030, du temps serait dégagé pour que les femmes puissent mieux s’éduquer et trouver un emploi, et la déforestation serait moindre.

Le second enjeu est d’étendre l’accès à l’électricité à 90 millions de personnes par an, soit un rythme trois fois plus élevé que les dernières années. L’analyse de l’AIE établit que l’option la moins coûteuse est d’étendre les réseaux nationaux existants pour pouvoir déjà atteindre 45 % de ces nouveaux accédants. Pour les zones rurales, les mini-réseaux et les systèmes autonomes, principalement photovoltaïques, sont plus pertinents.

Alors que la consommation totale d’énergie primaire baisserait de 13 % entre 2020 et 2030 (grâce à la suppression de la cuisson au bois traditionnelle), la demande d’électricité augmenterait de 680 à 1 180 TWh. Cette électrification à marche forcée passe par le déploiement important de la production des énergies renouvelables (cf. graphe). En moins de 10 ans, il faudrait ainsi installer 125 GW de solaire photovoltaïque, environ 50 GW d’éolien et plus de 40 GW d’hydroélectricité. Des niveaux élevés, mais rendus possibles par le haut potentiel de ressources renouvelables en Afrique.

Production d’électricité en Afrique par sources (Source IEA, scénario SAS).

Un fort besoin d’adaptation

L’Afrique est touchée de plein fouet par le bouleversement climatique et cela risque malheureusement de s’aggraver sans action drastique d’atténuation des émissions de gaz à effet de serre (GES). Les travaux du Groupe indépendant d’experts sur le climat (GIEC) montrent la fragilité de ce continent et le besoin d’adapter rapidement ses différents pays aux évolutions du climat et à leurs conséquences (pertes de biodiversité, manque d’eau, réduction de la production alimentaire, décès prématurés, baisse de la croissance économique). Avec un réchauffement planétaire moyen contenu à 2°C, la hausse de la température médiane en Afrique du Nord serait de 2,7°C, et le PIB africain réduirait de 8 % par rapport à un scénario sans impact climatique. En Afrique de l’Est, cette baisse serait presque le double. Pour éviter de trop forts impacts, l’AIE recommande d’investir rapidement dans l’adaptation, à hauteur de 30 à 50 milliards $ par an d’ici 2030.

La situation est d’autant plus injuste que l’Afrique est historiquement un des plus faibles émetteurs de GES : moins de 3 % des émissions globales de CO2 liées à la combustion d’énergie, alors que 20 % de la population mondiale y vit. Pourtant, malgré cette dissymétrie, la plupart des pays africains ont ratifié l’Accord de Paris et douze d’entre eux se sont engagés en mai 2022 à atteindre la neutralité carbone d’ici 2050.

Le dispositif français de surveillance de la qualité de l’air en constante évolution

La pollution de l’air produit de multiples effets négatifs. Chaque année, environ 40 000 décès prématurés lui sont attribués, selon Santé publique France. Une commission du Sénat a quant à elle chiffré son coût sanitaire annuel à environ 100 milliards d’euros. Les écosystèmes ne sont pas épargnés, en particulier les cultures agricoles, dont les rendements peuvent par exemple souffrir de concentrations en ozone trop élevées. Tout comme le bâti et les matériaux, qui se dégradent sous l’effet d’une exposition prolongée à différents polluants (dioxyde de soufre, dioxyde d’azote, carbone suie…).

Face à cette situation, l’Europe impose à chaque État membre de surveiller certains polluants dits réglementés et a établi des seuils à ne pas dépasser. Même si la pollution a globalement tendance à baisser en France, sous l’action de politiques publiques telle que la limitation des émissions industrielles, l’État est malgré tout régulièrement condamné par Bruxelles, pour non-respect du seuil réglementaire du dioxyde d’azote (NO2) et des particules. Les dépassements sont surtout observés dans de grandes agglomérations, comme à Paris, Lyon ou encore Marseille, et sont liés notamment à la densité du trafic routier.

Le ministère de l’Environnement a la responsabilité de la surveillance de la qualité de l’air sur tout le territoire national, ainsi que la prévention et l’information du public. C’est lui aussi qui définit la réglementation, en accord avec les dispositions européennes. En plus de la surveillance des polluants réglementés, l’État français a décidé d’aller plus loin et a défini une liste de polluants d’intérêt national (PIN) à mesurer. Celle-ci regroupe un peu plus de 70 pesticides, certaines espèces chimiques présentes dans des particules fines (carbone suie, ammonium…) ainsi que les particules ultrafines.

Certains seuils réglementaires risquent d’être abaissés

La coordination technique du dispositif national est assurée par le LCSQA (Laboratoire Central de Surveillance de la Qualité de l’Air), tandis que la mise en œuvre des mesures est confiée aux AASQA (Associations Agréées de Surveillance de la Qualité de l’Air). On en dénombre 18, une dans chaque région, y compris dans les territoires d’outre-mer, et Airparif est l’une d’entre elles pour la région Île-de-France. Au total, environ 650 stations fixes sont déployées sur toute la France. Outre la surveillance des polluants dits « réglementés » et ceux d’intérêt national (PIN), d’autres mesures supplémentaires peuvent aussi être réalisées, notamment celles de polluants dits « prioritaires » qui ont été mis en évidence dans un rapport de l’ANSES publié en 2018.

Le dispositif français de surveillance est en constante évolution. Il doit se mettre en conformité avec les directives européennes, qui sont régulièrement mises à jour, la prochaine étant programmée à la fin de cette année. « Pour l’instant, rien n’a fuité, mais des seuils réglementaires vont probablement être abaissés, confie Marc Durif, directeur du LCSQA. Certains polluants, dont la surveillance n’avait pas un caractère obligatoire, pourraient le devenir comme les particules ultrafines inférieures à 0,1 micromètre ou encore l’ammoniac (NH3). Cette substance, d’origine principalement agricole, a la particularité d’être un précurseur d’aérosols lorsqu’elle s’associe à des oxydes d’azote (NOx), dont les émissions sont liées aux villes et au trafic routier. Ce processus est bien connu et peut conduire à des épisodes de pollution atmosphérique au printemps au moment des épandages d’engrais dans les champs. »

Des progrès technologiques et l’arrivée de nouveaux instruments de mesure participent aussi à faire évoluer le dispositif de surveillance. Aux côtés des 650 stations fixes déployées par les AASQA, sont ainsi apparus il y a quelques années des microcapteurs. « Ils sont plus légers et moins chers que les instruments de référence, complète Marc Durif. Ce sont aussi des instruments moins fiables que les appareils de référence, mais qui aident à améliorer les outils de modélisation pour cartographier les polluants à l’échelle de tout un territoire. Et demain, ces outils numériques vont s’enrichir également de nouvelles données, notamment satellitaires. »

Évaluer les inflammations observées dans les cellules pulmonaires

Alors que jusqu’ici, la surveillance de la pollution de l’air est réalisée grâce à la détermination de concentration massique de gaz ou de particules, des travaux de recherche sont en cours pour non plus quantifier les polluants, mais déterminer leurs effets sanitaires. La technique envisagée consiste à évaluer le potentiel oxydant de certains composés, afin de déterminer leur capacité à créer des inflammations au niveau des voies respiratoires humaines, notamment sur les cellules pulmonaires. « Cette technique peut être très intéressante face aux pollutions particulaires qui contiennent plusieurs composés différents, comme des HAP (hydrocarbures aromatiques polycycliques), des métaux…, ajoute Marc Durif. En travaillant sur le potentiel oxydant, il est possible de prendre en compte le mélange de composés présents dans les particules et son éventuel effet sanitaire sur les populations. » Mais ce nouveau procédé est encore au stade de la recherche. « On est loin de basculer dans un déploiement opérationnel de cet outil, mais nous allons poursuivre ces travaux afin d’évaluer le potentiel de cette technique dans notre réseau de surveillance. »

Des réflexions sont également en cours au sein du dispositif afin de déployer des protocoles de mesures harmonisés de nouvelles substances à l’échelle nationale dans les AASQA. C’est notamment le cas de l’ammoniac, un précurseur de particules, comme évoqué un peu plus haut, mais aussi du sulfure d’hydrogène (H2S). Ce composé est issu de la décomposition des macroalgues vertes ou brunes, en particulier sur les côtes ouest métropolitaines, ainsi que dans certains territoires d’outre-mer.

Toutes les mesures réalisées par les AASQA remontent ensuite vers la plate-forme Geod’air qui recueille à ce jour plus de 170 millions de données depuis 2013. « Tout le monde peut consulter les résultats pour connaître les concentrations de polluant dans les stations de mesure près de chez lui, précise Marc Durif. Les données peuvent aussi être utilisées pour faire de la modélisation. »

Et parce que la pollution ne s’arrête pas aux frontières de l’Hexagone, les données du dispositif de surveillance français sont envoyées en temps réel à l’agence européenne de l’environnement, où elles peuvent par exemple être récupérées par la plate-forme Copernicus. Celle-ci offre un service open source sur la qualité de l’air à l’échelle de l’Europe, et toutes les données peuvent être exploitées par des sociétés privées. Apple, notamment, s’en sert indirectement pour faire fonctionner son application « Air quality ».

Rafraîchir par les planchers, une bonne idée

Dans le cadre de la transition énergétique, la rénovation complète et performante des bâtiments anciens est une priorité, car elle va permettre de baisser fortement les consommations d’énergie du parc. Elle doit simultanément voir se développer un parc de logements neufs très performants. La dernière réglementation thermique de 2012 a été revue et élargie : la nouvelle réglementation environnementale 2020 (RE2020) commence à être mise en place progressivement.

Tous les acteurs du bâtiment, en particulier les fabricants de solutions de chauffage, s’interrogent sur la pertinence de leurs produits pour satisfaire les exigences de la RE2020. C’est le cas de ceux qui fournissent des composants et des systèmes intégrés, notamment du plancher chauffant/rafraîchissant par eau basse température (PCRBT). Le syndicat qui regroupe 80 % des acteurs de ce marché, Cochebat, a missionné le bureau d’études spécialisé Pouget Consultants pour en avoir le cœur net.

Analyse des indicateurs de la RE 2020

L’étude de Pouget s’est focalisée sur le résidentiel collectif qui est un marché à développer (cf. encadré). Un bâtiment type de 32 logements a été retenu (60 m² en moyenne), en structure béton, avec isolation intérieure et volets roulants manuels. Trois quarts des logements de l’immeuble sont traversants et le ratio baie vitrée/surface habitable est de 17 %.

L’étude a analysé le confort d’été, un aspect important après les périodes de canicules vécues en France, et d’autant plus crucial pour les décennies à venir. L’indicateur repose sur un calcul des degrés-heures (DH) d’inconfort estival : au-dessus de 1 250 DH, le bâtiment n’est pas conforme ; en dessous de 350 DH, il l’est ; entre les deux, il est conforme mais il nécessitera probablement une climatisation à l’avenir, ce qui le pénalisera. Globalement la solution PCRBT permet, selon les régions géographiques, d’être autour de 500 DH sauf en Bretagne (environ 200 DH) et dans le Sud-Est (1 000 à 1 500 DH). Si les solutions passives (persiennes, brasseur d’air) peuvent améliorer la situation dans le Sud, la solution idéale s’avère être le couplage du PCRBT avec du géocooling (pompe à chaleur sur sondes géothermiques verticales). En effet, toutes les zones climatiques affichent alors moins de 50 DH (cf. graphe). De plus, le rafraîchissement par plancher se fait sans bruit et sans courant d’air frais.

Degrés-heures dans trois zones climatiques (Source : Cochebat / Pouget Consultants).
La simulation de base du bâtiment de 32 logements montre des DH dépassant le seuil bas de 350 DH. Seul le géocooling permet de passer en dessous, y compris dans le Sud-Est (zone H3).

Sur deux autres indicateurs, le plancher chauffant/rafraîchissant apparaît aussi profitable. Du côté de l’énergie (coefficient d’énergie primaire non renouvelable de la RE2020), le recours à une pompe à chaleur (PAC) air/eau collective est le plus efficace par rapport aux chaudières gaz et au chauffage électrique. C’est aussi la solution idéale pour respecter un autre indicateur qui traduit l’impact environnemental (ICénergie). Par ailleurs, le couplage de la PAC avec un PCRBT permet une hausse des performances des PAC de 40 % en mode chauffage (grâce à la basse température), par rapport à des radiateurs.

Enfin, l’analyse de tous les impacts de l’ensemble des composants d’un bâtiment (de leur fabrication à la fin de vie) montre que le PCRBT est dans le même ordre de grandeur que les autres technologies pour un bâtiment en béton, mais fait partie des solutions à l’impact carbone le plus faible (autour de 840 kgCO2/m² sur 50 ans). L’impact est encore moins fort si la structure du bâtiment est en bois (605 kgCO2/m²).

En conclusion, Cochebat estime que le plancher chauffant/rafraîchissant est une solution clé pour respecter la RE2020, d’autant plus qu’il pourra facilement se raccorder sur les solutions innovantes de production d’énergie à basse température dans l’avenir.

Plancher chauffant/rafraîchissant : un marché à fort potentiel

Le marché du plancher chauffant/rafraîchissant par eau basse température est fortement lié à celui des constructions neuves. Très malmené (-23 %) en 2020 à cause de la pandémie qui avait freiné fortement le nombre de constructions, il a repris des couleurs (+26,9 %) en 2021. L’année dernière, ce sont donc 5,2 millions m² de systèmes PCRBT qui ont été installés. En moyenne, plus d’une maison neuve sur deux est équipée d’un tel plancher, souvent couplé avec une pompe à chaleur air/eau.
Parmi les atouts du plancher chauffant/rafraîchissant, les économies d’énergie (5 à 10 %) sont complétées par une économie de matériaux lors de la construction (-3 %) et par un gain de surface (7 à 8 %) auquel les propriétaires sont sensibles vu la tendance à la baisse des surfaces habitables.
Les marchés du tertiaire et du collectif sont plus faibles (respectivement 15 % et 5 % de parts de marché) et pourraient être plus développés, ainsi que celui de la rénovation des logements.

Le pari des réseaux de chaleur, contre la dépendance au gaz russe

La chaleur représente près de la moitié des consommations énergétiques françaises. « Aujourd’hui, la chaleur est carbonée à 75 % dans notre pays », assure Pierre de Montlivault, président de la Fedene, association des professionnels des réseaux de chaud et froid. Prêchant pour sa paroisse, il voit dans ces réseaux un potentiel majeur de développement des énergies renouvelables. Ces réseaux livrent aujourd’hui 25 térawattheures (TWh) de chaleur par an, soit environ 5 % de la chaleur consommée en France.

Pour accélérer la transition énergétique, les promoteurs des réseaux de chaleur veulent donc accélérer leur déploiement. « Pour être au rendez-vous des objectifs CO2 de la France, il faut aller trois fois plus vite que sur la dernière décennie, prévient Pierre de Montlivault. Il faut aller trois fois plus vite sur les économies d’énergie au sens large et pour décarboner la demande résiduelle de chaleur, il faut tripler le rythme de développement de la chaleur renouvelable et de récupération. » Il ajoute : « Si on arrive à tenir ce rythme, à l’horizon 2030, on a la capacité de doubler le nombre d’emplois, soit créer 60 000 emplois supplémentaires. »

Les réseaux de chaleur : un atout pour décarboner la chaleur

« Un réseau de chaleur, c’est une installation centralisée de production de chaleur, rappelle Guillaume Planchot, président de Via Sèva, association de promotion des réseaux de chaleur et de froid. Ces centrales d’énergie distribuent de la chaleur sous forme d’eau chaude ou de vapeur ou d’eau plus tempérée via des canalisations installées sous les routes et qui alimentent un certain nombre d’immeubles qui composent la ville.

Grâce à ces mutualisations de la production, ces réseaux ont été capables de passer d’un taux d’énergies renouvelables et de récupération de 25 % en 2008 à plus de 60 % en 2022. La chaleur est issue en grande majorité de la récupération de chaleur qui vient des unités de valorisation énergétique des poubelles [soit les incinérateurs à 27,3 %, NDLR], du bois-énergie et de la géothermie souvent profonde [respectivement 22,5 % et 5,6 %, NDLR]. »

Accélérer pour remplacer le gaz naturel

La filière veut continuer à décarboner. Et agir vite pour remplacer le gaz naturel qui représente encore plus de 35 % de l’énergie utilisée dans les réseaux de chaleur, bien loin devant le charbon (2,5 %) et les autres énergies fossiles (2 %). « Le contenu carbone moyen est de 101 gCO2/kWh, contre 79 gCO2 pour l’électricité, partage Guillaume Planchot. Notre objectif est à 50 gCO2/kWh. »

Dans ces conditions, le secteur ambitionne de doubler les volumes délivrés par les réseaux de chaleur d’ici 2030 et le quintupler d’ici 2050. Pierre de Montlivault répond à ceux qui penseraient que ces objectifs sont trop ambitieux. « Les réseaux de chaleur en Europe représentent près de 25 % de la chaleur consommée en Europe : multiplier les volumes par 5 à l’horizon 2050, c’est rejoindre la moyenne européenne d’aujourd’hui », relativise-t-il.

Le schéma directeur national 2030 poursuit ainsi un objectif de 39,5 TWh de chaleur renouvelable et de récupération sur un total de 54,1 TWh à l’horizon 2030. Le taux d’énergie renouvelable et de récupération dans les réseaux de chaleur atteindrait alors 73 %.

Une réglementation pour favoriser les réseaux de chaleur

Les professionnels se réjouissent récente de l’évolution de la réglementation. Tout d’abord, il y a le décret dit « de classement des réseaux » du 26 avril 2022. « Quand il existe un réseau de chaleur vert à plus de 50 %, il y a désormais un raccordement obligatoire des bâtiments neufs à ce réseau », souligne Pierre de Montlivault. Par ailleurs, sur les contrats de délégation de service public, il est désormais possible de signer des avenants afin d’engager des investissements supplémentaires en vue d’accélérer le verdissement des réseaux.

Afin de se préparer à un manque éventuel de gaz l’hiver prochain, toutes les économies d’économies sont explorées. Afin de booster les raccordements, la filière demande un « coup de pouce au coût de raccordement » via le dispositif des certificats d’économie d’énergie. L’objectif : économiser 2 TWh/an de gaz naturel et raccorder 3 000 bâtiments existants et neufs d’ici 2024, en complément des 44 000 bâtiments déjà raccordés.

Pour accélérer le déploiement des réseaux de chaleur, l’outil principal en France demeure le Fonds Chaleur, géré par l’ADEME. Dans le cadre du plan de résilience, son montant a été porté de 300 à plus de 500 millions d’euros par an. « Pour tripler le rythme, on a besoin de 20 milliards d’euros d’investissements pour la construction des infrastructures, partage Pierre de Montlivault. Cela nécessite de passer le Fonds Chaleur à 1 milliard d’euros par an le plus vite possible au cours de ce quinquennat. » 

Une norme internationale pour encadrer l’intégration des données environnementales dans le BIM

Le BIM étant basé sur une forte collaboration entre acteurs du bâtiment, disposer d’un cadre normatif solide est une condition nécessaire à sa généralisation. La normalisation des données est ainsi primordiale. La parution de cette nouvelle norme constitue un pas en avant important, car elle permettra une analyse de la performance environnementale des bâtiments sur des critères objectifs.

Les déclarations environnementales des produits (DEP) du bâtiment : quelle utilité en maîtrise d’ouvrage ?

Au niveau international, les DEP sont des déclarations environnementales de type III, encadrées par la norme ISO 14025. En France, on utilise le terme « Fiche de Déclaration Environnementale et Sanitaire » (FDES) qui correspond en fait à une DEP contenant également des informations sanitaires.

La loi oblige tout « acteur responsable de la mise sur le marché d’un produit ou équipement du bâtiment » qui désire communiquer sur le caractère environnemental ou durable d’un produit, à établir une FDES. Par ailleurs, afin d’éviter les erreurs et la publication de données erronées, ces fiches doivent être vérifiées par une tierce partie indépendante, ce qui permet de fiabiliser les informations contenues.

Pour les maîtres d’ouvrage souhaitant concevoir des bâtiments à vocation durable (écoquartiers, bâtiments HQE, etc.), ces FDES sont particulièrement utiles, car elles rendent possible la comparaison entre produits.

Ce cadre normatif des FDES est donc essentiel, puisqu’il permet d’alimenter la base INIES, qui compte désormais plus de 3 000 FDES, représentant des centaines de milliers de références commerciales pour les produits de construction !

Le BIM : une approche collaborative du bâtiment

Le BIM est une méthode de modélisation des informations de la construction basée sur la conception d’une maquette numérique. Véritable représentation digitale des caractéristiques physiques et fonctionnelles de l’ouvrage, la maquette BIM est bien plus qu’un modèle en 3D du bâtiment, puisqu’elle regroupe une multitude de données (spatiales, financières, environnementales, etc.), accessibles tout au long du cycle de vie du bâtiment.

Au-delà de la maquette, le BIM est avant tout un ensemble de méthodes basées sur l’échange de données et la coopération entre les différents acteurs du bâtiment.

Les données sont au cœur du BIM : la démocratisation de la méthodologie BIM nécessite donc de disposer d’informations structurées et fiables. La normalisation est ainsi une condition nécessaire au développement du BIM.

Dans un article publié en ligne, Espen Schulze[1], qui a contribué au développement de la norme ISO 22057[2] en tant qu’expert, l’affirme également : « La standardisation des données est primordiale. Nous avons besoin de définitions, de structures de données et de processus communs pour assurer une compréhension commune des informations que nous partageons. C’est essentiel non seulement pour les parties prenantes impliquées dans un projet, mais aussi la condition préalable la plus importante pour un langage numérique commun qui peut être interprété correctement par n’importe quel logiciel ou outil BIM. »

ISO 22057 : une norme pour encadrer l’intégration des données environnementales dans les maquettes BIM

L’exploitation des données contenues dans les FDES est l’outil idéal pour une intégration dans le BIM. Parce que ces données environnementales sont fiables et vérifiées, il n’y aura donc plus à se baser sur des hypothèses et des données génériques pour mesurer l’impact d’un bâtiment.

Selon Espen Schulze, « la façon dont nous gérons les données est essentielle pour atteindre nos objectifs de développement durable. Pour pouvoir passer à l’économie circulaire, le secteur de la construction a besoin de structures de données communes et fiables. Nous devons veiller à ce que les informations que nous numérisons aujourd’hui puissent être utilisées et partagées librement dans les années à venir. Le recyclage et la réutilisation des matériaux et des éléments de construction ne sont possibles que si nous disposons de toutes les informations nécessaires dans un format compatible avec les technologies futures. Cela peut être réalisé grâce à la normalisation des données. »


[1] Vice-président Recherche du Groupe Cobuilder et représentant de l’organisme de normalisation norvégien Standards Norway

[2] Cette nouvelle norme a été élaborée par des experts européens et internationaux du CEN/TC 350 et de l’ISO/TC 59/SC17, deux comités sur la durabilité des travaux de construction.

Des tests de paternité pour estimer l’abondance des poissons

Estimer de manière fiable l’abondance des poissons dans les mers est essentiel pour l’exploitation durable des ressources marines vivantes. Pour quantifier chaque espèce, la technique la plus couramment employée consiste à utiliser des modèles numériques qui fonctionnent à partir de deux types de données : celles issues de la pêche et celles collectées par des scientifiques lors de campagnes en mer. Par contre, cette méthode n’est pas efficiente lorsque l’espèce est peu abondante, comme c’est le cas avec la population de raies bouclées. Dans le cadre d’un projet européen nommé Pandora, l’Ifremer a développé une nouvelle technique faisant appel à la génétique.

Les chercheurs se sont inspirés d’une méthode développée par leurs collègues australiens. Ils ont échantillonné des individus, puis ont prélevé leurs tissus pour ensuite procéder à du génotypage. Ils sont ainsi parvenus à identifier lesquels sont apparentés (parents, enfants…), en se servant de la même approche que celle pratiquée avec des tests de paternité pour comparer les informations génétiques entre deux personnes.

Verena Trenkel, responsable de l’unité halieutique grand ouest à Ifremer, explique selon quel principe les résultats obtenus sont interprétés : « Si, dans un échantillon, nous observons un grand nombre d’individus apparentés, nous pouvons en conclure que la population est très petite, car lorsque l’on prend aléatoirement des individus, la probabilité qu’ils soient apparentés augmente lorsque la population est faible. Inversement, si la population est grande et donc abondante, il y a peu de probabilité que les individus soient apparentés. Le nombre d’individus apparentés nous renseigne donc sur la taille de la population. »

La population de raies bouclées estimée à 135 000 en 2013

Pour estimer l’abondance d’une espèce, les scientifiques ont utilisé un modèle de dynamique des populations qui décrit son évolution à partir de son taux de croissance et de décroissance. Il est capable d’estimer le nombre de poissons mature par année. Concrètement, plus de 7 000 raies bouclées ont été échantillonnées sur la période 2015 à 2020 dans l’estuaire de la Gironde et à environ 100 mètres de profondeur au large. L’année de naissance de chacune d’entre elles a été calculée. Les chercheurs ont ensuite pu chiffrer à 135 000 le nombre d’individus mature en 2013, c’est-à-dire le nombre de parents potentiels. « L’estimation n’est pas effectuée par rapport à l’année de l’échantillonnage, mais est reconstituée à partir de l’année de naissance, précise Verena Trenkel. Pour connaître l’âge d’une raie, il faut utiliser une technique qui consiste à tronçonner les vertèbres des poissons. Cette méthode est très invasive et nous développons en ce moment une autre technique capable de nous renseigner sur l’âge de l’individu grâce à la génétique. »

La fiabilité de cette nouvelle approche a été testée par les mêmes collègues australiens sur une population de thons rouges du Pacifique, dont l’abondance avait déjà été estimée à partir d’une approche traditionnelle. Résultat : elle s’est révélée plus fiable pour estimer cette espèce.

Preuve que cette nouvelle approche convainc, le CIEM (Conseil International pour l’Exploration de la Mer) a décidé de prendre en compte les résultats obtenus à partir de celle-ci pour mener à bien ses travaux sur l’estimation des ressources marines. Cet organisme scientifique intergouvernemental a pour rôle de rendre des avis auprès de la Commission européenne, notamment sur le thème de la gestion des quotas de pêche.

De son côté, Ifremer va continuer à appliquer cette nouvelle méthode, cette fois-ci pour estimer la population de maigres. Des échantillonnages ont déjà été effectués, et des analyses génétiques sont en cours de réalisation. Cette nouvelle technique devrait ensuite être utilisée pour quantifier la population de raies brunettes.

Techniques de l’Ingénieur est partenaire des salons SIDO Lyon et Paris 2022

Ces deux salons sont consacrés aux nouvelles technologies digitales à destination des décideurs stratégiques innovation et opérationnels métier. Situé au cœur des deux premières régions industrielles françaises, SIDO 2022 a lieu au plus proche des pôles de décideurs : deux terreaux fertiles pour impulser l’innovation au centre de toutes les entreprises de produits et de services !

Des rendez-vous 

A cette occasion, retrouvez un programme et un contenu de qualité :  plus de 60 conférences plénières prospectives, des tables rondes experts « Enjeux / stratégie », des Workshops solutions et partage de réussites.

Les visiteurs pourront également retrouver les focus sectoriels historiques du salon comme le manufacturing, la supply chain, le bâtiment ou encore l’agroalimentaire… mais également de nouvelles thématiques fortes qui font écho aux challenges auxquels sont confrontées toutes les entreprises aujourd’hui : Transition écologique, Cybersécurité, Management & Numérique, etc. 

Pour finir, de grands acteurs d’aujourd’hui viendront témoigner sur différentes thématiques comme la co-auteure du dernier rapport du GIEC, Nadia MAIZI, ou encore Julien Nicolas, le Directeur Numérique du Groupe SNCF. 

Les nouveautés de cette année 

La santé sera le thème à l’honneur cette année, avec un programme de conférences dédiées, pensé et construit en collaboration avec Lyonbiopôle. Découvrez aussi un parcours de visite sur-mesure pour rencontrer les acteurs technologiques de référence sur ces sujets : près de 25% des exposants proposeront des solutions à destination du monde médical (H4D, Modjaw, Synergiz, Cognitive Engines, etc.)

Et enfin, pour la première fois, un plateau radio sera installé au cœur du salon en partenariat avec Lyon Première, qui recevra plusieurs fois par jour les speakers du SIDO pour approfondir les thèmes de conférences, ouvrir vers de nouvelles perspectives et partager les best-practices tout au long de l’événement ! Vous pourrez l’écouter en live sur le salon ou en replay grâce aux podcasts sur les plateformes traditionnelles.

L’Open Source Experience

Aux mêmes dates et lieu que SIDO Paris 2022, veuillez retrouver l’Open Source Experience, l’événement pour toute la filière du logiciel libre réunissant plus de 5 000 exposants. Celui-ci présentera les technologies, solutions et enjeux de l’open source en France et en Europe et met en évidence le rôle moteur des innovations open source dans la transformation numérique des entreprises sur des technologies telles que l’IA, l’IoT, le Cloud et de la Blockchain.

Et tout ça est en accès libre, sur réservation, pour tous les professionnels !

Pour plus d’informations, rendez-vous sur https://www.sido-lyon.com/ ou sur https://www.sido-paris.com/.

Un algorithme pour choisir entre humain et un robot

L’avenir de certains métiers s’assombrit. Différentes études indiquent que des millions de postes dans l’industrie pourraient disparaître dans les prochaines années. Le rapport du cabinet Oxford Economics conclut que la robotisation de l’industrie pourrait supprimer des emplois : 20 millions d’ici à 2030, soit 8,5 % des postes dans ce secteur au niveau mondial.

Un autre rapport de 2019 de l’Organisation de coopération et de développement économiques (OCDE) indiquait que 14 % des emplois dans les pays de l’OCDE seraient susceptibles de disparaître (16,4 % en France) et 32 % pourraient être profondément transformés (32,8 % dans l’Hexagone) avec l’automatisation des tâches et la multiplication des machines dans le monde du travail au cours des 20 prochaines années.

Pour les étudiants et les salariés qui veulent se reconvertir, il est donc intéressant de connaître le risque de voir son métier occupé par un robot. Une équipe de roboticiens de l’EPFL et d’économistes de l’Université de Lausanne a développé récemment une méthode pour le savoir.

Des chercheurs du Robotics Institute de l’université Carnegie Mellon ont une autre approche. Avec un financement de l’Office of Naval Research et de l’Army Research Laboratory, ils ont mis au point un planificateur algorithmique qui permet de savoir quelles tâches peuvent être déléguées aux humains et aux robots.

Une réduction des coûts

« Les décisions prises ont un coût, comme le temps qu’il faut à un humain pour accomplir une tâche ou apprendre à un robot à accomplir une tâche, et le coût d’un robot qui échoue à une tâche », a déclaré Shivam Vats, chercheur principal et étudiant en doctorat au Robotics Institute.

Le plus compliqué est donc de savoir quand il est préférable d’enseigner à un robot ou de déléguer la tâche à un humain. Pour cela, le robot doit prédire quelles autres tâches il peut accomplir après avoir appris une nouvelle tâche.

C’est la finalité du planificateur « Act, Delegate or Learn » (ADL) qui examine une liste de tâches et décide de la meilleure façon de les attribuer. En soi, le recours à un algorithme et à des logiciels pour décider comment déléguer le travail n’est pas nouveau. Mais l’intérêt de cette étude est qu’elle inclut l’apprentissage des robots.

Pour prédire le bénéfice de l’apprentissage, ils utilisent un modèle de simulation approximatif des tâches pour entraîner un modèle de précondition qui est paramétré par la tâche d’entraînement. Ensuite, ils évaluent leur approche grâce à des scénarii dans lesquels les humains et les robots devaient insérer des blocs dans un tableau de chevilles et empiler des pièces de différentes formes et tailles faites de briques LEGO.

Selon ces chercheurs, leur planificateur a permis de réduire le coût d’exécution des tâches de 10 à 15 %. Cette solution pourrait être exploitée dans les usines de fabrication et d’assemblage, pour le tri des colis ou dans tout environnement où les humains et les robots collaborent pour accomplir plusieurs tâches.

Sintermat fabrique des matériaux augmentés grâce au procédé de frittage flash

Créée en 2016, la start-up Sintermat développe une technologie de pointe issue d’un laboratoire de recherche de l’Université de Bourgogne, et peu répandue en Europe : le frittage flash, encore appelé frittage SPS (Spark Plasma Sintering). À partir de tous types de poudres, l’entreprise conçoit des matériaux aux propriétés augmentées ayant une haute résistance, une haute densité, une dureté améliorée, une durée de vie allongée… En 2018, une première levée de fonds lui a permis d’industrialiser son procédé. Il y a quelques semaines, la société a bouclé un second tour de table, d’un montant de 6 millions d’euros, dans le but d’accélérer sa croissance. Entretien avec Foad Naimi, le fondateur, président, et CEO de Sintermat.

Techniques de l’Ingénieur : Comment fonctionne votre technologie ?

Foad Naimi, fondateur, président, et CEO de Sintermat. Crédit : Sintermat

Foad Naimi : Notre procédé consiste à agglomérer des poudres sous l’effet simultané d’une forte impulsion électrique et d’une charge uniaxiale. Concrètement, nous venons encapsuler tous types de poudres dans un outillage qui va donner la forme finale de la pièce. La poudre est placée entre deux pistons et nous lui appliquons une contrainte qui peut aller jusqu’à 320 tonnes. Simultanément, elle est chauffée à la température de frittage du matériau, qui peut atteindre 2 400 degrés, grâce à un courant électrique qui se diffuse par l’intermédiaire du piston de compression et de l’outillage, qui sont tous les deux conducteurs. Lorsque la poudre est conductrice, comme c’est le cas avec les métaux, le courant électrique passe également à travers elle et va alors la chauffer directement.

Quels sont les avantages de votre procédé ?

Comparé aux procédés conventionnels qui fonctionnent avec un four et qui nécessitent d’attendre que l’enceinte atteigne son équilibre thermique, le frittage SPS chauffe au plus près de la poudre, voire à travers la poudre, en un temps court compris entre un quart d’heure et une demi-heure (hors refroidissement). Grâce à cette rapidité de fabrication, nous sommes capables de concevoir des matériaux possédant des microstructures sans grossissement des grains et avec un taux de densification voisin de 100 %. Nous parvenons ainsi à fabriquer des matériaux aux performances et aux propriétés améliorées. Par exemple, nous fabriquons de l’outillage industriel dont la durée de vie peut être multipliée par 3, 4, et parfois jusqu’à 10. Ces performances sont synonymes d’économies en maintenance et donc de coûts en moins. Sur des pièces pour des applications de défense, nous avons démontré que nos matériaux avaient une résistance mécanique multipliée par 3, comparée à ceux conçus de manière traditionnelle, et ceci sans perte importante en allongement. Sur d’autres matériaux, nous obtenons également un meilleur comportement à chaud, une meilleure tenue aux températures, ou à l’électricité.

Comparé aux procédés conventionnels, le frittage SPS nous permet également d’obtenir un gain énergétique très important dans la fabrication des pièces compris entre un facteur 3 et 5.

Cette technologie n’est pas nouvelle, qu’est-ce qui vous différencie de vos concurrents ?

Le procédé existe depuis très longtemps puisque les premières machines datent des années 1960, mais il est seulement arrivé en Europe un peu avant l’an 2000. Depuis, des entreprises ont repris cette technologie et sont capables de produire de grands volumes, mais elles se sont spécialisées dans la fabrication de pièces en céramique pour le secteur de la défense et du médical.

En 2016, nous avons fait le pari de l’industrialiser de façon plus large. Nous travaillons sur tous types de matériaux : métaux, alliages, intermétallique, carbures, céramiques, borures, siliciures… et même tous types de mélange et d’alliage imaginable, à condition bien sûr que la thermodynamique et la loi du mélange soient compatibles.

En termes d’application, nous visons par exemple le secteur de l’aéronautique, qui recherche des matériaux possédant de meilleures propriétés en fluage, la défense qui recherche des pièces capables de résister à des impacts grâce à des propriétés de blindages. Nous ciblons aussi le luxe et fabriquons pour ce secteur des matériaux possédants certaines qualités, notamment antirayure.

Nous créons aussi de nouveaux matériaux dont les formulations ne sont pas possibles avec les procédés traditionnels. Par exemple, nous sommes partis d’un composite céramique et l’avons complètement reformulé, afin d’obtenir une dureté supérieure à celles du saphir, et une apparence qui ressemble à celle d’un matériau métallique, pour le secteur de l’horlogerie.

À quel stade de développement se trouve votre projet ?

Depuis 2018, grâce à une première levée de fonds, nous avons commencé à créer un outil industriel qui permet de concevoir des pièces jusqu’à 350 mm de diamètre, pour des hauteurs avoisinant 100 mm. Nous l’avons automatisé et robotisé, ainsi que travaillé sur l’augmentation de productivité pour que la solution technico-économique proposée par Sintermat soit viable sur le marché. En parallèle, nous avons protégé la propriété intellectuelle de notre technologie en déposant 10 brevets.

La machine développée par Sintermat pour réaliser le frittage flash. Crédit : Sintermat

Grâce à notre deuxième levée de fonds, nous allons accélérer notre industrialisation en déménageant dans un hall industriel à Venarey-les-Laumes, à côté de Dijon. Nous aurons plus d’espace et nous allons pouvoir avoir notre propre laboratoire de contrôle, et ainsi assurer en interne le suivi de nos premières pièces en série à destination de nos clients. Nous souhaitons aussi acheter une deuxième machine afin d’augmenter nos capacités de réponse à nos clients, ainsi que renforcer notre équipe commerciale.

Nous sommes dans une phase d’augmentation de nos volumes de production et nous avons aussi des prototypes en test à l’échelle 1 chez des clients qui donnent d’excellents résultats ; l’un d’eux concerne la conception de pions de tête de forage.

Nous avons dupliqué notre procédé pour fritter des produits biosourcés comme des coquilles d’huîtres broyées, des sarments de vigne, du chanvre, du lin et de la nacre. À partir de ces matériaux naturels, nous sommes par exemple capables de remplacer les bouchons en plastique utilisés sur les flacons de parfum ou les bouteilles de vin. Nous sommes actuellement en discussion pour produire ces objets en très gros volumes dès l’année prochaine.

Valoriser des sites abandonnés en produisant de la biomasse végétale

La bioéconomie est considérée comme un moyen d’atteindre les objectifs climatiques fixés par l’Europe et de réduire sa dépendance aux matières premières fossiles. Face à la forte croissance de ce secteur, la demande en matières premières végétales augmente également de manière significative. Or, pour être durable, la production de la biomasse ne doit pas entrer en compétition avec les terres agricoles utilisées pour l’alimentation. Un projet Interreg baptisé New-C-Land s’est intéressé à la valorisation de sites marginaux pour la produire de la biomasse. Débuté en 2018, il s’est déroulé autour de la région transfrontalière Wallonie, Flandre, et Hauts-de-France, et vient de se terminer.

Au préalable, un travail a consisté à réaliser une cartographie des sites potentiels. Ils peuvent prendre la forme de sites industriels abandonnés ou contaminés, mais aussi de zones situées à proximité d’infrastructures ou de lieux sensibles, comme les bordures d’écoles, de chemin de fer, ou de cours d’eau. Ces sites peuvent aussi se trouver dans des zones difficiles d’accès, ou alors inondables, ou bien posséder des sols peu productifs. Certains de ces lieux peuvent aussi être délaissés temporairement, dans l’attente d’un projet à moyen ou long terme.

En parallèle, un outil d’aide à la décision a été développé par les neuf partenaires de ce projet afin d’identifier la ou les cultures les plus adaptées aux caractéristiques du site. Plusieurs paramètres sont intégrés tels que les contraintes initiales du site, sa disponibilité, la biodiversité déjà en place, les conditions pédoclimatiques (texture du sol, pH…). Trois grandes typologies de biomasse peuvent potentiellement être implantées : des végétaux ligneux (saules, aulnes, peupliers, robiniers), des végétaux lignocellulosiques (miscanthus, chanvre) et enfin des végétaux herbacés (brassicacea, poacea, fabacea).

Du miscanthus sur un ancien site industriel charbonnier

Ce nouvel outil prend également en compte la demande locale en biomasse à proximité du site potentiel. La valorisation la plus simple à mettre en œuvre consiste à brûler la biomasse pour produire de l’énergie, mais elle peut aussi être incorporée dans des unités de méthanisation pour produire du biogaz ou encore servir à fabriquer des biocarburants. Les secteurs horticole et maraîcher représentent aussi une piste de valorisation possible, avec notamment la possibilité d’utiliser le miscanthus pour le paillage, en remplacement de l’usage des pesticides. Le secteur de l’écoconstruction est aussi à la recherche de biomasse afin de fabriquer des isolants à base de chanvre par exemple, tandis que celui du textile peut valoriser cette culture ainsi que le lin. Enfin, l’existence de bioraffineries offre la possibilité de produire des molécules à haute valeur ajoutée à partir de la biomasse, comme des huiles essentielles, des produits pour la pharmacologie ou la cosmétique.

Ce projet a permis d’identifier 10 chaînes de valeurs de valorisation de la biomasse à proximité de la frontière franco-belge. Par exemple, sur un ancien site industriel charbonnier d’une vingtaine d’hectares, propriété de la ville de Charleroi, 8 hectares de surfaces cultivables ont pu être implantés en miscanthus et en saule afin d’alimenter une chaudière locale pour la production de bioénergie. Sur un autre site, la plantation d’une bande de miscanthus le long d’une route a permis de solutionner une problématique d’érosion d’un champ situé en amont et qui était à l’origine de coulées de boues sur la chaussée. La biomasse récoltée a ensuite été introduite dans une chaudière d’un centre pour handicapés.

Au final, ce projet démontre que cultiver de la biomasse sur des sites marginaux est une piste intéressante pour les valoriser. Par contre, les filières de transformation identifiées dans la région transfrontalière du projet sont principalement destinées à la production de bioénergie alors que cette application est considérée comme apportant une faible valeur ajoutée. En comparaison, la fabrication de produits et de matériaux biosourcés offre un potentiel économique plus intéressant, sauf qu’aujourd’hui, ces filières n’en sont encore qu’à leurs débuts. Cependant, un grand intérêt a été exprimé envers ces dernières de la part de plusieurs acteurs impliqués dans ce projet. Des investissements pourraient donc être réalisés dans le futur pour les développer.

“Nous souhaitons que notre robot soit aussi facile à utiliser qu’un smartphone”, Marc-Henri Frouin, PDG de Niryo

Le robot d’apprentissage Niryo permet aux apprenants de mettre en pratique leurs connaissances en robotique avant de passer sur des machines à taille réelle dans le monde professionnel, que ce soit de la programmation industrielle ou de la robotique collaborative. Le robot collaboratif 6 axes est basé sur des technologies open source (Raspberry Pi, Ubuntu, ROS…). Français, il a été développé à l’institut supérieur de l’électronique et du numérique (ISEN) de Lille en 2016 par deux ingénieurs passionnés de robotique, dont Marc-Henri Frouin, aujourd’hui seul dirigeant de la société. Aujourd’hui, avec Ned2, le constructeur en est à sa troisième génération de robot. Pour mieux comprendre l’origine du développement de ce robot collaboratif, son intérêt pour la formation et la R&D ainsi que ses futurs développements, Techniques de l’ingénieur a échangé avec son cofondateur, Marc-Henri Frouin.

Techniques de l’ingénieur : D’où vient l’idée de développer le robot Niryo ?

Marc-Henri Frouin : Pendant mon école d’ingénieur, il y a 6 ans, j’ai constaté que je ne pouvais pas expérimenter mon apprentissage théorique de la robotique. Je trouvais qu’il manquait une gamme de robot entre le robot jouet Lego et le robot industriel à 30 000 euros. C’est de ce constat qu’est venue l’idée de développer Niryo, plus petit, compact, facile à prendre en main et moins cher. Les cas d’application sur lesquels on a commencé étaient l’éducation et la recherche.

Le robot d’apprentissage Niryo et son coconcepteur, Marc-Henri Frouin.
Copyright : Niryo

Permet-il d’accélérer les formations en robotique ?

Oui, et surtout de rendre concret l’apprentissage. Car ce qui se faisait beaucoup était de travailler sur des simulateurs, sur du logiciel ou travailler sur des robots industriels, mais sur lesquels l’intervention était limitée. Un robot industriel peut peser 150 kg, donc on ne le déplace pas facilement dans une salle de classe. Avec nos robots accessibles et flexibles, les gens peuvent imaginer leurs propres concepts. On a offert la capacité à des écoles de proposer de nouveaux scénarios d’apprentissage autour de la robotique. Il offre un champ des possibles à l’ingénieur, sans contraintes. Le fait d’aller plus vite permet d’aller plus loin. Et il y a un réel besoin, car plus on avance, plus on en vend, et plus les gens viennent vers nous pour des demandes.

2 500 depuis son lancement dans une soixantaine de pays… combien en France ?

Environ 30 % en France. On en vend beaucoup dans l’enseignement supérieur (Mines ParisTech, Sorbonne Université, Arts & Métiers, INSA Lyon et Rouen Normandie, Centrale Lille), la recherche… mais également aux laboratoires privés de R&D (Amazon, Texas instruments, Bosch) pour faire de la veille techno et de la robotique. Nos robots sont vendus entre 3 et 5 000 euros et sont parfois surdimensionnés pour des niveaux inférieurs à BAC+3, bien que nous comptions parmi nos clients des lycées valorisant le « made in France », même à l’étranger. Le robot est par exemple destiné à un technicien qui veut se former à la robotique, ou une start-up qui souhaite développer de nouveaux algorithmes. Au lieu de l’implémenter sur un robot industriel où les temps de développement sont longs, la manipulation est complexe, la start-up l’installe d’abord sur notre robot. Une fois bien expérimentée, elle pourra l’installer sur le robot industriel.

Le robot Niryo n’est destiné qu’à la formation ?

Progressivement, nous faisons évoluer nos gammes. Nous voulons être capables de vendre sur des cas d’application PME ou groupe. Nous étudions par exemple la possibilité d’implantation de nos robots dans les manipulations de laboratoires cosmétique et pharmacie, de mettre des étiquettes sur des enveloppes à La Poste, ou encore faire des tests à l’effort pour des appuis boutons chez Adeo. Plus on avance et plus la facilité de prise en main se confirme.

Et pour les plus jeunes ?

Nous devons rendre la technologie bien plus accessible en termes de technique et de coût. Ce qui passe par de nombreuses innovations notamment sur la partie moteur. Entre mécanique, contrôleur, logiciel, encodeur… ce sont des blocs assez chers. Nous avons une roadmap sur quelques années qui permettra de réduire les coûts, mais il faut du temps pour maturer la technologie afin de la déployer en gros volume. Donc la stratégie aujourd’hui est de monter en gamme pour le rendre plus accessible pour les professionnels. Nous travaillons également sur le logiciel pour rendre le robot plus intelligent et plus facile à utiliser, pour que nos robots soient aussi faciles à utiliser qu’un smartphone moderne.

Ne va-t-il pas y avoir un gap de compréhension entre le robot d’apprentissage et l’industriel ?

Il y a un gap en termes de compétences techniques pour utiliser, mais les concepts sont là. Quand on donne ensuite la main pour comprendre on programme un robot, comment on le fait travailler des trajectoires, comment on l’installe pour qu’il fonctionne bien dans son environnement, ce sont des mécanismes qui permettent d’appréhender des machines complexes plus facilement quand même. Le gap est beaucoup moins fort que si on part de 0 et qu’on passe directement sur du robot industriel.

Un système prédictif pour limiter le risque de retrait-gonflement des sols argileux

En France, le phénomène de retrait-gonflement des sols argileux (RGA) représente la deuxième cause d’indemnisation de la part des assureurs au titre des catastrophes naturelles, après les inondations. Il provoque des dommages sur les constructions, en particulier sur les maisons individuelles de type pavillonnaire. En cause : des variations de la teneur en eau des sols qui se gonflent en période humide et se rétractent lors d’épisodes de sécheresse, à l’image d’une éponge. Une famille de minéraux argileux est particulièrement sensible à ce phénomène, celle des smectites. Avec le réchauffement climatique, les dommages provoqués par le RGA risquent de fortement augmenter dans les années à venir. En 2015, une étude prospective réalisée par la caisse centrale de réassurance a estimé qu’ils devraient progresser, selon les secteurs, de 20 à 200 % à l’horizon 2030, et de 50 à 300 % à l’horizon 2050. D’ici à la fin du siècle, ils pourraient même être multipliés par un facteur compris entre 3 et 6, en fonction des scénarios de hausse des températures retenues.

La région Occitanie est particulièrement touchée par ce phénomène, puisqu’elle supporte 25 % du coût national lié au RGA, estimé en France à environ 350 millions d’euros chaque année. Un projet baptisé ViSéGéo¹ a pour objectif de développer un système prédictif du risque de RGA et d’alerte en direction des populations. Piloté par Predict Services, une entreprise spécialisée dans l’aide à la gestion des risques hydroclimatiques, il regroupe également le BRGM (Bureau de recherches géologiques et minières) et Geosec, une entreprise qui développe une solution de remédiation pour réduire la vulnérabilité du bâti exposé au RGA.

Le BRGM a développé un modèle algorithmique de prédiction du phénomène, qui intègre deux types de variables entrantes. Tout d’abord, des données spatiales provenant de cartes établies depuis 2015 sur les risques d’aléas liés au RGA en fonction des caractéristiques géotechniques des sols sur l’ensemble du territoire français. Ensuite, des données relatives aux variations de la teneur en eau des sols, obtenues à partir d’un modèle développé par Météo France au travers du schéma d’analyse SAFRAN. Celui-ci calcule tous les mois, en tout point du territoire, un indice d’humidité du sol, à l’échelle d’une maille de 8 km sur 8.

« Nous avons fait tourner ce modèle sur la région Occitanie en le confrontant aux catastrophes naturelles liées au RGA et enregistrées sur la période 2000 à 2010, explique Bastien Colas, ingénieur géotechnicien au BRGM. Environ 20 000 sinistres ont été répertoriés sur cette décennie. Nous avons ensuite validé ce modèle en réalisant une rétro-analyse sur des périodes de sécheresse récentes. Grâce à lui, nous pouvons à présent hiérarchiser zone par zone, et mois après mois, les secteurs risquant d’être plus ou moins touchés par le RGA. »

Des messages d’alerte envoyés aux communes

Pour finaliser ce projet, un système pour informer les populations sur les risques encourus par leurs habitations doit à présent être mis en place. Ce travail va être réalisé par l’entreprise Predict Services, et ce seront les communes qui recevront des messages d’alertes, charge à elles ensuite de relayer l’information auprès de leurs administrés. Plusieurs niveaux de vigilance seront établis. Des messages seront dans un premier temps destinés à sensibiliser les habitants à leur exposition, puis en fonction du risque lié à une variation importante de la teneur en eau du sol, d’autres leur seront envoyés pour les inciter à se mobiliser.

« Sur le même principe que pour les inondations, nous allons proposer aux populations de rentrer dans une stratégie pour limiter les risques, même si dans le cas du RGA, la catastrophe naturelle a beaucoup plus d’inertie et les habitants ont plus de temps pour réagir, déclare Bastien Colas. Face à l’imminence d’une crise, nous allons leur proposer un catalogue de mesures pour limiter les dommages, car nous ne prétendons pas parvenir à les éliminer totalement. »

Le catalogue de mesures est actuellement en cours de finalisation. Par exemple, les habitants seront incités dans un premier temps à élaguer leurs arbres situés proches de leurs maisons. La végétation peut en effet amplifier le RGA, car en période de sécheresse, les racines des arbres assèchent les sols en profondeur, à une distance pouvant aller jusqu’à 1 à 1,5 fois leur hauteur. Une mesure, un peu plus lourde à mettre en œuvre, pourra consister à poser un écran anti-racinaire autour des fondations de la maison, après avoir creusé une tranchée d’environ deux mètres de profondeur. Une autre pourra consister à rendre étanche le sol à l’aide d’une géomembrane autour des fondations afin de limiter l’évapotranspiration.

« En cas de risque très élevé, une solution de prévention et de protection active pourra aussi être mise en œuvre, ajoute Bastien Colas. Nous proposerons d’utiliser le procédé développé par l’entreprise Geosec qui consiste à injecter des résines spéciales dans le sol afin de mitiger les conséquences du phénomène de retrait gonflement des argiles. En réduisant la teneur en eau dans le sol, ce procédé de consolidation et de stabilisation du sol est en mesure de limiter les risques et de réduire les désordres affectant tout bâtiment dus au phénomène de sécheresse ».

D’ici à la fin de l’année, ce nouveau système de prédiction de risque de RGA et d’alerte doit être mis en place en Occitanie. Si les résultats sont concluants, il pourrait à terme être déployé sur l’ensemble du territoire national. En matière de prévention, ce système prédictif pourrait venir compléter une mesure déjà active depuis 2020. La loi ELAN (Évolution du logement, de l’aménagement et du numérique) oblige en effet le vendeur d’un terrain constructible ou un propriétaire souhaitant construire une maison individuelle à réaliser une étude de sol lorsqu’il se trouve dans une zone à risques de RGA. La carte détaillée de ces zones est disponible sur le site internet Géorisques du Ministère de la Transition Ecologique.


(1) Le projet ViSéGéo est soutenu financièrement par la région Occitanie et le Feder (fonds européen de développement régional)

Une nouvelle technologie pour lyophiliser plus rapidement les produits

Jean Delaveau, le fondateur de Lyophitech. Crédit : Lyophitech

Ingénieur de formation, diplômé d’AgroParisTech, Jean Delaveau a travaillé tout au long de sa carrière professionnelle dans de grands groupes comme Danone, Rhône-Poulenc ou Sanofi. Chez Air Liquide, il est amené à utiliser un procédé de lyophilisation statique afin de conserver des bactéries lactiques, mais juge la technologie contraignante. Il attend alors d’être à la retraite pour développer un nouvel appareil et prend contact avec le LAGEPP (Laboratoire d’Automatique et de GEnie des Procédés) pour l’aider à le concevoir. Un an plus tard, en fin d’année 2017, et grâce au soutien financier de Pulsalys, une SATT (Société d’Accélération du Transfert de Technologies), il parvient à faire la preuve de concept d’un lyophilisateur dynamique. Aujourd’hui, il est sur le point de lyophiliser ses premiers produits pour le compte de plusieurs industriels. Entretien avec Jean Delaveau, le fondateur de Lyophitech.

Techniques de l’Ingénieur : Décrivez-nous le fonctionnement des lyophilisateurs conventionnels actuellement en service.

Jean Delaveau : Ils fonctionnent en mode statique et sont constitués d’une grande armoire en acier inox dans laquelle sont placés des produits sur des plateaux ou dans des flacons. Ils sont posés sur des étagères creuses à l’intérieur desquelles circule un fluide caloporteur qui permet dans un premier temps de congeler les produits. Ensuite, une seconde phase intervient, appelée la sublimation, durant laquelle l’armoire est placée sous vide, ce qui provoque un réchauffement du liquide caloporteur. L’eau présente dans les produits sous la forme de glace va alors directement se transformer en vapeur et le produit va ainsi se déshydrater à des températures très basses, comprises entre -20 et -30 degrés, tout en conservant ses propriétés.

L’inconvénient de cette technologie est qu’elle est très lente à mettre en œuvre, entre 2 et 4 jours, et que de nombreuses déperditions d’énergie sont constatées. Elle nécessite aussi la présence d’un opérateur qui charge et décharge les produits sur les étagères.

Comment est née l’idée de votre nouveau procédé ?

Elle repose sur un principe simple : quand vous agitez un produit (potages, riz, pâtes) dans une casserole avec une cuillère en bois, vous parvenez à le chauffer beaucoup plus rapidement que si vous le laissez immobile sur le feu. L’agitation améliore le transfert thermique et permet d’obtenir des températures plus homogènes. Le temps gagné est considérable et la consommation d’énergie est beaucoup moindre, car elle est dirigée vers le produit, plutôt que vers les parois à chauffer.

Comment fonctionne votre lyophilisateur dynamique ?

La première étape de surgélation des produits est réalisée à part à l’aide d’un équipement distinct. Ensuite, nous avons conçu un lyophilisateur dynamique constitué d’un cylindre qui a la particularité de faire des mouvements de balancier très lents. Nous le remplissons en produits surgelés, puis il est fermé afin de faire le vide à l’intérieur. La rotation très légère du cylindre permet d’améliorer les transferts de chaleur et la vapeur va s’extraire beaucoup plus facilement du produit puis traverser un tuyau avant d’être piégée dans un second cylindre. Au final, cette phase de sublimation se déroule entre 4 à 5 fois plus vite que celle observée avec des lyophilisateurs statiques. Nous réussissons ainsi à réduire la consommation d’énergie et à baisser le coût de la lyophilisation entre 20 et 40 %.


Le lyophilisateur dynamique développé par la start-up. Crédit : Lyophitech

Afin de réduire le temps de main-d’œuvre nécessaire pour alimenter cet équipement, nous travaillons à la conception d’un système de chargement en continu, grâce à l’installation de chicanes à l’intérieur du cylindre. À terme, nous pourrons travailler en vrac avec des produits de type café, épices ou fruits rouges, et nous pourrons ainsi lyophiliser de grands volumes à un prix imbattable.

À quel stade de développement se trouve votre projet ?

Nous avons protégé notre technologie en déposant des brevets dans les principaux pays fabricants de produits pharmaceutiques (Europe, États-Unis, Japon, Chine, Inde, Canada…), car 80 % des lyophilisateurs sont vendus à l’industrie pharmaceutique dans ces pays. Par contre, il s’agit d’une industrie très complexe sur le plan de sa réglementation et de ses exigences de qualité. Nous avons donc élaboré une stratégie afin d’atteindre progressivement ce marché, en commençant d’abord par l’industrie agroalimentaire, puis celle des cosmétiques, ensuite celle des probiotiques pour enfin nous diriger vers le secteur pharmaceutique.

Nous avons réalisé des essais de faisabilité d’une unité pilote à partir de produits que nous ont confiés de futurs clients et la lyophilisation s’est révélée concluante.

Nous sommes lauréats d’un concours organisé par France Relance, et grâce aux moyens financiers que nous avons reçus, nous construisons actuellement un atelier de façonnage à Vénissieux. Dès septembre 2022, nous allons recevoir un premier lyophilisateur dynamique, que nous avons fait fabriquer, d’une capacité de 1 000 litres. Il sera capable de lyophiliser 250 kg de produits en 24 heures, et dès l’automne, nous allons pouvoir livrer nos premiers lots industriels lyophilisés. Nous signons en ce moment des contrats de façonnage pour lyophiliser des produits tels que des bactéries ainsi que des extraits végétaux à destination des secteurs de la nutraceutique, de l’agroalimentaire et de la cosmétique.

Plusieurs lyophilisateurs dynamiques d’une capacité de 1 000 litres vont progressivement nous être livrés dans notre unité de production et nous avons l’intention d’être un acteur important dans le façonnage.

Notre usine servira aussi de show-room à de futurs clients et dès 2023, nous allons vendre nos premières machines à destination des industriels qui pourront ainsi eux-mêmes lyophiliser leurs propres produits. Nous leur fournirons également une prestation de services afin de leur transmettre notre savoir-faire. Notre ambition est de nous diriger rapidement vers le marché à l’international.

« L’ingénieur a un rôle pivot dans la transition écologique » selon le Shift Project

Former l’ingénieur du XXIe siècle aux enjeux socio-écologiques, c’est ce que propose le Shift Project qui a travaillé en collaboration avec le groupe INSA pour publier un référentiel de connaissances et de compétences accessible en ligne, un outil théorique et pratique dont les écoles peuvent s’emparer.

Plus précisément, celui-ci se décline en trois documents : le guide méthodologique à destination des établissements, le Manifeste pour l’ingénieur du XXIe siècle et le catalogue de retour d’expériences. Ce travail de 18 mois a regroupé environ 200 personnes de tous horizons professionnels : chercheurs, entrepreneurs, parties prenantes de l’enseignement supérieur, associations, ONG…

Pour mieux comprendre le rôle de l’ingénieur dans la transition écologique et l’objectif des travaux réalisés pour l’accompagner, nous avons échangé avec Damien Amichaud, chef de projet ClimatSup INSA au Shift Project.

Techniques de l’ingénieur : Quel est le rôle de l’ingénieur dans la transition écologique ?

Damien Amichaud : L’ingénieur a un rôle pivot qui peut être important, notamment sur la partie technique. Les infrastructures, les objets qui nous entourent ou encore les services sont liés, à un moment ou un autre, au travail de conception d’un ingénieur. Les ingénieurs ne décident pas de tout, c’est vrai, mais ils ont une grande influence sur la manière de concevoir et d’intégrer les nouveaux enjeux dans la production d’objets et de services. C’est pour cela que nous proposons un ensemble de connaissances et de compétences qui leur seront nécessaires pour pouvoir agir en faveur de la transition écologique dans leurs pratiques professionnelles.

Sous quelle forme cela se traduit dans vos travaux ?

Dans le Manifeste, nous présentons le référentiel sous forme de fiches, de notions clés pour chaque type de connaissance, et des références académiques. Nous proposons également des idées d’intégration dans les maquettes pédagogiques. Puis, nous avons une partie qui parle plus spécifiquement des compétences techniques des ingénieurs.

Sur la partie connaissance par exemple, il s’agit de comprendre les enjeux écologiques en profondeur en ayant une approche scientifique. Avoir un bagage scientifique solide est une force d’action dans une structure d’emploi. Si l’ingénieur ne peut pas justifier pourquoi il faut baisser les émissions de gaz à effet de serre et pourquoi telle ou telle méthode le permettrait, cela ne fonctionnera pas. Nous avons également ajouté une partie sciences humaines et sociales pour repolitiser le rôle de l’ingénieur. Il s’agit de leur faire comprendre comment fonctionne la société à l’aune des enjeux écologiques et quel est le lien entre leur activité professionnelle et ces enjeux de société.

Y a-t-il derrière ces travaux une volonté de pousser les ingénieurs à repenser les domaines polluants ?

Nous n’étions pas là pour dire qu’il y a des vilains canards dans l’industrie, mais pour proposer aux écoles un ensemble d’objectifs d’apprentissage donnant une autonomie intellectuelle aux étudiants pour qu’ils puissent ensuite faire leur choix en toute conscience. Dans la transition, nous avons besoin d’agir partout et à des niveaux différents. Dans le Manifeste, nous mettons en valeur ces différents niveaux – le choix de l’employeur, l’action en interne, etc. – pour que, en fonction de la situation, il soit capable de faire le meilleur choix possible.

Cependant, nous expliquons tout de même dans la partie « quelles ingénieries et techniques ? » qu’il va falloir renoncer à certaines pratiques, et donc à certains domaines peut-être, lorsqu’il n’y a pas de reconversion possible. Mais nous montrons également qu’il existe déjà de nombreuses pratiques vertueuses en ingénierie, comme les principes de l’économie circulaire ou l’écoconception qui ne sont pas encore déployés partout. Et nous terminons par l’innovation et les principes qui sous-tendent les low tech et le biomimétisme en abordant à la fois les plus pertinentes pour la transition et ce à quoi il faut faire attention. Par exemple, il y a un potentiel important sur les matériaux biosourcés, mais il faut faire attention à ne pas surexploiter à nouveau la nature.

Comment enseigner ces nouvelles connaissances et compétences ?

Sur la dernière partie du Manifeste, nous allons proposer de favoriser les pratiques pédagogiques où l’étudiant est actif. Plusieurs avantages à faire ça : comme une grosse partie des étudiants souffrent d’écoanxiété, le fait de parler de tout ça peut faire peur. Si on passe uniquement du temps sur le constat des problèmes, on alimente le risque de dépression. L’idée est aussi de réfléchir aux manières de répondre à ces enjeux de transition, chacun à son niveau, avec les enseignants chacun dans leur domaine. Le fait de se mettre personnellement en action, même sur l’étude d’un cas, c’est déjà commencer à agir.

Vers une industrialisation de la gazéification hydrothermale pour produire du biométhane

La gazéification hydrothermale est une technologie innovante de valorisation des déchets humides en biométhane. Convaincus de son potentiel, le CEA et GRDF ont mené à bien une première phase d’un projet baptisé Gazhyvert 1 durant lequel ils ont évalué la faisabilité de ce procédé. Les premiers résultats expérimentaux réalisés ainsi que l’étude technico-économique et environnementale qui a suivi ayant démontré la pertinence et l’efficacité de cette technologie, les deux partenaires viennent d’annoncer le lancement de la deuxième phase de ce projet appelé Gazhyvert 2. Son objectif principal est de définir les adaptations nécessaires pour une industrialisation de cette technique.

La gazéification hydrothermale repose sur un procédé thermochimique permettant de convertir des ressources carbonées très humides, voire liquides, en un gaz de synthèse à haut contenu énergétique, composé principalement de méthane, d’hydrogène et de CO2. Les matières susceptibles d’être valorisées peuvent être des boues d’assainissement, ainsi que celles issues de stations d’épuration ; ce sont ces dernières qui seront utilisées dans le cadre de ce projet. En opérant à haute température, entre 500 et 700 degrés, et à pression élevée, environ 300 bar, cette technologie permet de convertir jusqu’à 90 % du carbone de la biomasse en biogaz, grâce aux propriétés de l’eau à l’état supercritique.

Le CEA-Liten va apporter son expertise sur ce projet, comme l’explique Marine Peyrot, ingénieure de recherche au sein de cet organisme de recherche et experte en gazéification hydrothermale, à Act4Gaz, une plateforme internet de GRDF. « Nous avons une équipe de recherche consacrée au développement de cette technologie depuis plus de dix ans. Nous avons une plateforme expérimentale dédiée, et nous sommes la seule équipe de recherche en France à posséder des réacteurs qui permettent de convertir en continu de la ressource en ce gaz. »

Définir la cinétique de gazéification des boues

Plusieurs développements technologiques vont être réalisés et des essais seront menés pour accroître la maturité cette technologie. Ainsi, un système d’injection innovant des boues, capable de les injecter alors qu’elles possèdent une certaine viscosité, va être conçu. Un autre sera aussi développé afin d’éviter le bouchage du réacteur par précipitation des sels des intrants. Des expériences seront aussi menées sur de petits dispositifs afin de définir les cinétiques de gazéification, c’est-à-dire la vitesse à laquelle la ressource va se convertir en gaz. Il s’agit d’un point important qui permettra de définir la future taille des réacteurs.

« On va développer toutes les briques pour faire émerger cette filière française de gazéification hydrothermale pour la production de biométhane à horizon 2025, déclare Marine Peyrot. C’est un projet de grande ampleur, ambitieux techniquement. » Ce projet devrait se conclure par la conception d’un démonstrateur industriel, et l’objectif à terme est de se diriger vers une industrialisation du procédé.

Outre la production de biométhane à partir de boues de station, cette technologie permet également de valoriser les coproduits, à savoir l’eau et les sels minéraux présents à l’intérieur. Ceux-ci peuvent ensuite être épandus au sol, afin de fournir de la matière organique résiduelle, ou alors être apportés sous la forme de nutriments fertilisants.

« Développer une filière de production de biométhane, complémentaire à la méthanisation, pourrait représenter une véritable solution pour les collectivités dans la gestion et le traitement de leurs boues d’assainissement et autres effluents non épandables, analyse Marine Peyrot. Plus largement, on sait que la politique énergétique française incite fortement à l’intégration progressive des gaz verts dans les réseaux, donc ce procédé pourrait contribuer à ces objectifs avec le potentiel de devenir une source de production de biométhane complémentaire à la méthanisation, et sans rentrer en concurrence avec l’usage des intrants. »