Le meilleur de la tech #5

Un hydrogel composite d’argent

Un hydrogel composite associant haute conductivité et déformabilité. Voilà le tour de force réussi par les chercheurs du Soft Machines Lab de l’université de Carnegie Mellon, et présenté le 1er mars 2021 dans Nature Electronics. Les hydrogels ont de nombreux avantages : extensibles, résistants à la rupture, compatibles avec des tissus biologiques et conducteurs. Problème : leur conductivité, inférieure à 100 S/cm, ne suffit pas pour des applications bioélectroniques ou des circuits digitaux. Pour y remédier, les efforts préalables avaient dû sacrifier le caractère déformable au profit d’une meilleure conductivité. Mais désormais, fini les compromis ! L’hydrogel-argent du Soft Machines Lab atteint des valeurs de conductivité supérieures à 350 S/cm et délivre du courant en restant déformable.

L’argent réduit à une taille micrométrique est d’abord suspendu dans une matrice d’hydrogel polyacrylamide-alginate. Ensuite, un processus de déshydratation partielle amène l’argent à créer un réseau de percolation. Résultats : conductivité électrique et robustesse face aux déformations mécaniques. L’hydrogel-argent peut être imprimé selon les méthodes standard par lithographie au pochoir. Des tests ont été réalisés avec un nageur inspiré de la raie et une électrode de stimulation électrique neuromusculaire. Dans l’avenir, la bioélectronique pourrait se saisir de cette trouvaille, par exemple pour traiter les troubles musculaires comme moteurs.

Un nouvel agent dans la lutte contre les feux de tourbe

Il se déclenche facilement, ne s’éteint qu’avec peine et libère dans l’atmosphère des millions de tonnes de carbone. Le feu de tourbe n’est pas un incendie comme les autres… Une équipe de chercheurs de l’Imperial College de Londres s’est donc intéressée à l’effet du débit et de l’agent mouillant sur ce type d’incendie. Leurs résultats prometteurs pour l’avenir ont été publiés le 9 mars 2021 dans l’International Journal of Wildland Fire. Les chercheurs ont ainsi remarqué que l’effet du débit sur le temps de suppression n’était pas linéaire, alors que le volume de fluide (5,7 L/kg de tourbe) était lui constant. Le temps de suppression équivaudrait finalement à la durée nécessaire pour noyer la couche de tourbe.

De plus, un nouvel agent mouillant pourrait faciliter la lutte contre le feu. A base de plantes et biodégradable, il a été mélangé à de l’eau selon trois concentrations : 0 % (eau pure), 1 % (faible concentration), et 5 % (forte concentration). Le tout a ensuite été vaporisé au sommet d’un échantillon de tourbe en feu à l’intérieur d’un réacteur. Le temps de suppression était 39 % inférieur à l’eau seule dans le cas d’une faible concentration, et 26 % inférieur pour une forte concentration. Ces résultats permettent de mieux comprendre le mécanisme des feux de tourbe afin d’améliorer les stratégies de lutte et d’atténuation. Prochaine étape : les tests en extérieur sur des feux de tourbe contrôlés.

Les moules, sentinelles de l’environnement

Les bivalves comme les moules sont très sensibles aux conditions environnementales. Un moyen de s’en rendre compte est d’observer les mouvements de leur coquille et l’espacement des valves, qui indiquent la présence de polluants dans l’eau. Des chercheurs de l’université d’état de Caroline du Nord ont eu l’idée, décrite dans l’IEEE Sensors Letters du 19 mars 2021, de faire des bivalves des sentinelles environnementales. Leur système de détection vise à calculer l’angle béant entre les valves. Après plus de 250 heures d’expérience in vivo dans un vivier en laboratoire, les scientifiques ont démontré une précision angulaire de moins de 1° !

Une unité de détection se compose de deux unités de mesure inertielle, chacune comportant un magnétomètre et un accéléromètre. Le prototype actuel compte quatre moules, mais il pourrait monter à plusieurs douzaines. Pour surveiller tout un groupe de bivalves, les chercheurs prévoient de nombreux détecteurs isolés de l’eau et ancrés par des câbles à une station centrale, où se trouverait l’unité de traitement. Afin d’entraver un minimum les animaux dans leurs comportements naturels, le système est miniaturisé et les câbles flexibles. Les tests sur le terrain sont à venir…

La présence de microfibres synthétiques dans l’environnement augmente

C’est une pollution pratiquement invisible qui n’a de cesse de gagner du terrain. Une étude publiée dans la revue Plos One indique qu’une équipe de chercheurs américains ont révélé la quantité astronomique de microfibres synthétiques présente dans l’environnement. Entre 1950 et 2016, environ 5,6 millions de tonnes de particules ont été émises dans les écosystèmes. Cette pollution suit une courbe ascendante, et connaîtrait une croissance annuelle de 12,9 %.

Tous les écosystèmes sont concernés par le phénomène. Ainsi, 2,9 millions de tonnes de microfibres synthétiques se trouveraient dans les eaux, qui sont les espaces les plus touchés par cette pollution. Dans les espaces naturels terrestres et dans les décharges, s’accumulent respectivement 1,9 et 0,6 million de tonnes de microfibres synthétiques. Les chercheurs ajoutent que chaque année, 141 900 tonnes supplémentaires de microfibres se retrouvent dans les environnements terrestres, et 34 600 tonnes dans les décharges.

De 5 à 51 kilos par an et par personne

Depuis 1950, la fabrication et l’utilisation de plastique ou de polymères synthétiques augmentent de 8,3 % chaque année. Ainsi, l’étude avance que « la production annuelle de plastique a dépassé la production de la plupart des autres matériaux artificiels ». En soixante-dix ans, 738 millions de tonnes de microfibres ont été fabriquées spécialement pour confectionner des vêtements. Dans le monde entier, l’utilisation de microfibres synthétiques pour le vestimentaire est en expansion. En 1990, la moyenne mondiale était de 8 kilos par personne et par an. Cette proportion est passée à 16 kilos en 2016. Et en Chine, l’augmentation est d’autant plus édifiante. La consommation de fibres synthétiques pour le vestimentaire est passée de 5 kilos par an et par habitant en 1990 à 51 kilos en 2016.

En parallèle, la pollution aux microfibres s’explique aussi par l’entretien de ce type de textile. Plus ce dernier est usagé, plus il relâche de microfibres. « Le stock de vêtements en usage et la possession de machines à laver augmentent, ce qui entraîne le rejet de quantités croissantes de microfibres synthétiques dans les environnements naturels », déclare l’équipe de recherche. Or, le développement des stations d’épuration n’a pas suivi la même croissance que l’équipement en lave-linge.

Cependant, les scientifiques alertent sur le fait que les stations d’épuration ne peuvent constituer à elles seules une solution contre cette pollution. Selon eux, elles détourneront « plutôt les microfibres synthétiques des plans d’eau vers les environnements terrestres et les décharges, à moins que les microfibres ne soient retirées des boues d’épuration avant l’épandage ».

Les microfibres synthétiques, « risques pour les organismes »

Les fibres synthétiques représentent désormais 14 % de la production annuelle mondiale de plastique. De ce fait, « les microfibres constituent une fraction importante des microplastiques s’accumulant dans l’eau douce, les écosystèmes marins, côtiers, terrestres et arctiques », affirme Jenna Gavigan, chercheuse associée à l’Université de Santa Barbara (Californie) et première auteure de l’étude. Elle ajoute que ces derniers engendrent « des risques pour les organismes aquatiques et la biodiversité terrestre ».

La santé humaine est elle aussi impactée par la pollution aux microfibres synthétiques. L’équipe de recherche révèle que les humains sont affectés par l’inhalation de microfibres en suspension dans l’air. La consommation d’eau, d’alcool, de fruits de mer, de sucre et de miel les expose également aux microfibres. Cette exposition est particulièrement inquiétante car une bioaccumulation pourrait survenir au niveau des poumons et provoquer une inflammation. À ce jour, ce phénomène est le seul à avoir été mis en évidence dans la littérature scientifique. Cependant, l’équipe de Jenna Gavigan n’exclut pas que d’autres pathologies puissent être liées aux microfibres.

Implantation sous-cutanée des micropuces RFID : où en est-on ?

Les puces sont partout. Sans nous en apercevoir, ces petites antennes plates de type RFID (Radio Frequency Identification Device) sont présentes sur des animaux, des cartons d’emballage, des machines automatiques…

De nombreux secteurs industriels en utilisent, mais également la santé. Selon une étude d’Acumen Research And Consulting, le marché des puces RFID dans ce secteur devrait atteindre 6,4 millions de dollars. La RFID permet une meilleure communication entre services, une surveillance plus précise des patients, le suivi des médicaments (pour limiter les risques liés à un mauvais dosage, mais aussi pour endiguer la contrefaçon)…

Mais l’étape suivante sera-t-elle l’intégration de micropuces (de la taille d’un très gros grain de riz) sous la peau ? La réalité rejoindrait la science-fiction. Dans une scène du film Minority Report (une nouvelle de l’auteur de science-fiction Philip K. Dick), on voit Tom Cruise entrer dans un magasin d’habillement. Immédiatement, une machine lui énumère ses derniers achats… Toutes ces informations ont été « réveillées » lorsque sa puce électronique est entrée dans le champ d’action d’un ordinateur.

Suivi des diabétiques

La première implantation d’une puce remonte à 2005. Amal Graafstra s’implante dans la main gauche une puce RFID pour accéder à son bureau, son domicile, ouvrir les portes de sa voiture et se connecter à son ordinateur. En 2013, il crée l’entreprise Dangerous Things.

Cette puce pourrait remplacer notre Carte Vitale ou notre carte d’identité. Aux États-Unis, la Food and Drugs Administration (FDA), l’organisme officiel qui délivre notamment les autorisations de mises sur le marché des médicaments, a approuvé en octobre 2004 l’implantation sous-cutanée de ces puces à des fins médicales. Une cinquantaine de familles de Floride avait reçu des implants de VeriChip, une filiale de la société américaine Applied Digital Solutions (ADS), qui développe des systèmes de surveillance miniaturisés.

Quatre ans plus tard, la FDA avait approuvé un autre système destiné à suivre les adultes atteints de diabète.  Un peu plus tôt, en mars 2004, le Baja Beach Club, aux Pays-Bas, avait lancé un programme VIP utilisant la VeriChip comme laisser-passer rapide pour l’entrée et comme système de suivi des notes de bar. Ce programme a duré entre 2004 et 2008 et n’est plus actif.

VeriChip a en effet été rachetée puis vendue à plusieurs reprises (renommée « PositiveID corporation » depuis novembre 2009). Son programme n’est plus développé, notamment après des rumeurs selon lesquelles ces implants auraient pu être responsables de cancers chez certains animaux de laboratoire.

Mais les aléas de cette principale initiative commerciale n’ont pas pour autant découragé d’autres entreprises. On estime qu’actuellement environ 10 000 personnes dans le monde ont des micropuces implantées. Un grand nombre de ces « cyborgs » réside en Suède et utilise cette technologie non pas pour des raisons de santé, mais pour déverrouiller les portières de la voiture, acheter un café ou entrer dans une salle de sport.

Des cyborgs plus performants que les salariés…

L’incubateur suédois Epicenter à Stockholm, qui regroupe une centaine de start-ups et environ 2 000 professionnels, a commencé à en implanter en janvier 2015 sur environ 150  personnes. Au Royaume-Uni, la société BioTeq commercialise un implant NFC pour stocker ses données personnelles, des mots de passe ou encore des portefeuilles de bitcoins.

Une entreprise belge de marketing, New Fusion, propose à ses employés de se faire poser une puce RFID sous la peau afin de remplacer le badge électronique permettant d’accéder à leur lieu de travail.

Mais des salariés craignent d’être mis sur la touche, d’ici 2035, par des personnes équipées de puces électroniques améliorant leurs performances. C’est ce que pensent deux tiers des personnes ayant participé à une enquête de Citrix aux États-Unis et en Europe.

Comme pour la plupart des nouvelles technologies, celle-ci pose des problèmes de sécurité et de respect de la vie privée. Pourtant, aucune donnée GPS n’est relevée sur ces puces et il est nécessaire d’être près d’un lecteur pour y lire les informations stockées.

Un nombre suffisant d’employeurs ont envisagé de rendre obligatoire l’implantation de micropuces à leurs employés pour qu’en 2020, le Michigan et plusieurs autres États présentent et adoptent des projets de loi visant à empêcher les employeurs d’obliger leurs employés à accepter l’implantation de micropuces.

Les employeurs ne peuvent pas conditionner une offre d’emploi à l’insertion d’une puce et si des travailleurs perdent leur emploi pour avoir prétendument refusé d’en implanter une, le projet de loi leur permet de poursuivre en justice pour dommages et intérêts.

Enfin une aire marine protégée pour l’est de l’Antarctique ?

La mobilisation s’accentue en France pour aboutir à un accord qui créerait de nouvelles Aires Marines Protégées dans l’Est de l’Océan Austral dans le cadre de la Convention pour la conservation de la faune et de la flore marine de l’Antarctique (CCAMLR). Le 12 mars, la députée Frédérique Tuffnell (Modem) a réuni des chercheurs, des diplomates et des députés pour faire avancer le dossier qui patine depuis 10 ans. La zone de protection marine proposée pour l’Antarctique de l’Est protégerait 950 000 km². Une Aire Marine Protégée (AMP) constituée de trois zones disjointes pour protéger des « écorégions » essentielles.

La première AMP établie par la CCAMLR est celle du plateau sud des îles Orcades du Sud, créée en 2009. Elle couvre 94 000 km². Elle a été suivie en 2016 par l’AMP de la région de la mer de Ross. Son aire couvre pour sa part 2,09 millions de km². Mais depuis 10 ans, le projet d’aire marine protégée dans l’est de l’Océan Austral avance peu, regrette Olivier Poivre d’Arvor, nouvel ambassadeur pour les pôles et les enjeux maritimes. « L’affaire n’est pas simple, deux pays ne permettent pas le consensus : la Russie et la Chine », explique-t-il.  2021 est l’année ou jamais pour les faire plier. Pour y parvenir, il faudra que la France, qui prendra la présidence de la prochaine réunion du Traité sur l’Antarctique à Paris, en juin, s’implique vraiment au plus haut niveau de l’État. Les experts espèrent que la réunion de la CCAMLR qui se tiendra fin octobre puisse se tenir en présentiel. Car « l’argument russe est que l’on ne peut pas traiter les grands sujets en visioconférence », avance Olivier Poivre d’Arvor.

L’Océan Austral : des écosystèmes fragiles et menacés

L’Océan Austral entoure l’Antarctique. Ses eaux glaciales abritent des milliers d’espèces et jouent un rôle crucial pour la santé de l’océan à l’échelle mondiale. « L’Océan Austral absorbe près de 75 % de la chaleur excédentaire stockée par l’océan global et séquestre plus ou moins 35 % de CO2 en surplus dans l’atmosphère, partage la député Frédérique Tuffnell. C’est le principal accumulateur de chaleur et de puits de carbone de la planète ». Indispensable, mais fragile et menacé.

En particulier, le courant circumpolaire est responsable du maintien de la biodiversité marine dans le monde entier grâce à sa dispersion des nutriments et le krill de l’Antarctique. « Le krill est l’un des maillons centraux de l’écosystème antarctique, rappelle Sara Labrousse, chercheuse au Laboratoire d’Océanographie et du Climat (Sorbonne-Université/CNRS). Il est de plus en plus convoité par la pêche, alors que l’on connaît encore mal son intérêt pour tous les écosystèmes. »

Déployer un réseau d’aires marines protégées cohérent

Les deux principales menaces qui pèsent sur l’Océan Austral sont ainsi l’exploitation humaine des ressources, notamment la pêche, et les changements globaux. « Les AMP ont vocation à permettre la résilience des organismes soumis aux changements globaux », explicite Marc Eléaume, biologiste marin et représentant scientifique pour la France à la CCAMLR.

L’océan Austral abrite des milliers d’espèces rares et sert d’habitat à des millions de manchots Adélie et empereurs. Mais le recul de la banquise entraîne des surmortalités de poussins. Ainsi, le réchauffement climatique risque de faire chuter les populations. « Le but des AMP est de mettre en place un réseau qui va présenter l’ensemble des écorégions pélagiques et benthiques de l’Antarctique, explique Sara Labrousse. Si l’on prenait en compte les AMP suggérées, on n’aurait que 10 % de représentation de ces écorégions, donc c’est vraiment le minimum du minimum pour préserver cette biodiversité en Antarctique. »

Deux autres propositions d’AMP font aussi l’objet de négociations au sein de la CCAMLR. La première, présentée par l’Union européenne en 2016, se trouve dans la mer de Wedell et s’étend sur 1,8 million de kilomètres carrés. L’autre, portée par le Chili et l’Argentine depuis 2018, se trouve dans l’ouest de la péninsule antarctique et s’étend sur environ 650 000 kilomètres carrés.

Concours : Techniques de l’Ingénieur accélère le mouvement !

Techniques de l’Ingénieur entre dans une nouvelle ère en proposant un outil d’enrichissement des connaissances : Doc&Quiz. Ces articles, interactifs et didactiques, permettent d’aller plus loin dans l’acquisition des connaissances. 

Pour accompagner ce nouvel élan, Techniques de l’Ingénieur vous propose de jouer et de gagner des lots qui vous permettront aussi de voir plus loin !

A gagner : 

  • 1er prix : un vélo électrique à choisir parmi une sélection
  • 2ème prix : un télescope solaire SOLARIX 76/350
  • 3ème prix : une boîte LEGO® NASA Apollo Saturn V
  • du 4ème au 10ème prix : une carte cadeau ethi’Kdo d’une valeur de 75€ 

Pour participer, c’est très simple ! Chaque mardi et vendredi du 26 mars au 30 avril 2021, un indice sera révélé sur cette page pour composer une citation mystère. 

Le concours est désormais terminé. Les gagnants seront tirés au sort et informés très prochainement.

Les gagnants seront tirés au sort parmi les bonnes réponses. 

  • Premier indice : les 4 premières lettres du poste de Yves Valentin chez Techniques de l’Ingénieur. Réponse : dire
  • Deuxième indice2ème verbe du titre d’un article d’actualité paru le 22 août 2017 sur www.techniques-ingenieur.fr . Réponse : oublier
  • Troisième indice : verbe compris dans le titre de la Fiche pratique 0733 (profitez-en pour tester la recherche par référence de notre moteur de recherche !). Réponse : enseigner
  • Quatrième indice :  verbe présent dans le titre d’un article d’actualité paru le 18 mars 2016. Réponse : souvenir
  • Cinquième indice : le titre de la fiche pratique 1354 contient ce verbe. Réponse : impliquer
  • Sixième (et dernier !) indice : l’article RE131 inclut ce verbe dans son titre.

Pour plus d’informations, vous pouvez consulter le règlement de ce concours.

Bonne chance à toutes et à tous !

Un robot chirurgical possédant des sens comparables à ceux des humains

Aujourd’hui, les robots chirurgicaux les plus perfectionnés fonctionnent uniquement de manière visuelle à partir d’imageries médicales. Dès qu’une intervention devient difficile, ils sont incapables de reproduire le savoir-faire d’un chirurgien qui se sert de tous ses sens pendant une opération, et pas seulement de sa vue. Il va par exemple utiliser son toucher en palpant le corps du malade ou alors écouter le son d’une perceuse dont la mèche s’enfonce dans un os. Un programme de recherche européen baptisé FAROS (Functionally accurate robotic surgery) vient de débuter avec pour objectif de développer un robot chirurgical autonome, capable d’acquérir des sens comparables, voire supérieurs à ceux des humains.

Chercheur à l’ISIR (Institut des Systèmes Intelligents et de Robotique) et associé à ce projet, Guillaume Morel explique les limites des robots actuellement en service. « D’un point de vue scientifique, on a longtemps cru que le développement d’un robot chirurgical n’était qu’une affaire de millimètres. C’est selon moi une conception naïve de la chirurgie. Anatomiquement, il y a des choses qu’on ne voit pas à l’image. Au moment de faire son geste, le chirurgien va s’apercevoir que l’os est plus mou que prévu et va donc enfoncer une vis un peu plus en profondeur. Ou alors, avant de fixer un implant, il va prendre la décision de « rayer » la surface d’accroche pour une meilleure tenue du ciment. Un certain nombre de ses gestes ne sont donc pas liés à une planification de la géométrie. »

Des capteurs pour mesurer la conductivité électrique dans le corps

Partant de ce constat, le chercheur présente le projet FAROS en utilisant la métaphore de la conduite automobile. « Les robots actuels fonctionnent comme des systèmes de positionnement qui suivent une trajectoire. Un peu comme une voiture équipée d’un système de navigation par GPS et qui permet de savoir où vous êtes situés. Mais lorsque vous êtes arrivés à destination et que vous devez vous garer, le GPS n’a plus d’utilité. Il ne s’agit plus de se recaler dans un plan d’ensemble. Le projet FAROS, c’est la version d’après, celle de la conduite automatique où le véhicule va se servir de capteurs situés par exemple sur le pare-chocs pour détecter si des voitures sont présentes devant ou derrière, évaluer la distance avec le trottoir… »

Plusieurs capteurs vont donc être développés puis intégrés à un robot chirurgical. L’objectif étant d’améliorer non pas sa précision géométrique mais plutôt fonctionnelle afin qu’il soit capable d’appréhender en temps réel ce qui se passe sur le plan anatomique. Il est ainsi prévu d’utiliser des capteurs de force pour mesurer les efforts effectués par le robot et évaluer si la zone où il intervient est dure ou molle. Des capteurs d’impédance électrique vont également être ajoutés, ces derniers équipent déjà certains instruments chirurgicaux utilisés manuellement comme ceux développés par la société SpineGuard, le partenaire de ce projet. Ils permettent de mesurer la conductivité électrique qui a la particularité d’être faible dans la partie corticale d’un os, celle située la plus à l’extérieur, et élevée dans la partie spongieuse, celle située au centre. « Ils fonctionnent comme un radar de recul sur une voiture, poursuit le chercheur. Le capteur émet un bip très espacé lorsque l’os est dur puis au fur et à mesure que la vis pénètre dans la partie spongieuse, les bips deviennent plus rapprochés, ce qui signifie qu’on est sur le point d’atteindre une zone interdite hors de l’os. »

D’autres capteurs doivent également être ajoutés, cette fois-ci pour capter du son. Le robot devrait ainsi embarquer des micros afin d’analyser par exemple le son d’une perceuse. Il est aussi prévu d’utiliser des ultra-sons à l’aide d’un échographe en mode A pour obtenir non pas des images, mais analyser la variation d’un écho sous la forme d’un signal. Même si les capteurs seront principalement non visuels, les scientifiques pourraient se servir de l’imagerie hyper-spectrale, une technologie permettant d’obtenir une multitude d’images avec des fréquences différentes.

Analyser les signaux enregistrés à l’aide de l’intelligence artificielle

Face au grand nombre d’informations fournies par ces capteurs, les équipes de recherche vont se servir de l’intelligence artificielle pour les aider à traiter toutes les données enregistrées. Chaque signal aura une grande variabilité et les algorithmes vont être capables, entre autres, de fusionner les résultats dans le but d’établir des lois de raisonnement et de prédiction à partir de tous les signaux émis. « Même si nous avons une idée des résultats obtenus par les capteurs, l’intelligence artificielle nous aidera à extraire des lois générales afin de mieux appréhender la réalité de ce qui se passe dans le corps », ajoute Guillaume Morel.

Ce projet de recherche va se concentrer uniquement sur la chirurgie de la moelle épinière et nécessitera la réalisation de plusieurs essais en laboratoire. Dans un premier temps, ils seront réalisés sur des modèles anatomiques puis, lorsque les algorithmes seront suffisamment développés, des expérimentations seront pratiquées sur des animaux vivants. « Sous strict contrôle éthique, tient à préciser Guillaume Morel. Nous sommes financés par la communauté européenne qui nous impose de prouver que nous ne recourons à l’expérimentation animale que lorsqu’il est impossible de faire autrement. Par exemple, un certain nombre de signaux obtenus par les capteurs sont impossibles à reproduire en laboratoire, comme la conductivité électrique qui n’est pas la même chez un animal vivant que sur une pièce anatomique. »

Quatre universités sont impliquées dans ce programme : la Sorbonne Université et la KU Leuven en Belgique pour leurs savoir-faire en robotique, le King’s College London en Angleterre pour son expertise en imagerie et en intelligence artificielle et enfin l’hôpital universitaire Balgrist en Suisse qui regroupe des chirurgiens. D’une durée de trois ans, le projet FAROS devrait se conclure par la validation des concepts clés en laboratoire correspondant au niveau 4 sur l’échelle TRL (Technology readiness level), qui évalue le degré de maturité d’une technologie.

La barrière entre eaux de surface et océan profond s’intensifie

L’océan joue un rôle fondamental de thermostat planétaire atténuant le réchauffement climatique. Mais les eaux de surface deviennent de plus en plus chaudes et de moins en moins denses sur l’ensemble du globe. C’est l’alerte lancée par une nouvelle étude parue dans la revue Nature, menée par des chercheurs du CNRS, de Sorbonne Université et de l’Ifremer. Pour arriver à ces résultats, les chercheurs ont étudié des relevés de température et de salinité de l’eau remontant aux années 1970, jusqu’en 2018, notamment en été.

Des eaux de surfaces moins denses

« Sous l’effet du changement climatique, les eaux de surface deviennent moins denses, explique Jean-Baptiste Sallée, auteur principal de l’étude et chercheur au CNRS. Le changement climatique intensifie aussi les vents. Ces deux effets combinés font que la barrière qui sépare la couche de surface et l’océan profond s’intensifie et devient plus profonde ». Et cela va beaucoup plus vite que prévu, à un rythme six fois supérieur aux estimations précédentes. « La couche de surface s’étend en profondeur de 5 à 10 mètres par décennie. »

La différence de densité des eaux de surface s’observe dans tous les océans pour des raisons différentes. « À nos latitudes, la densité des eaux de surface est principalement contrôlée par la température, explique le chercheur. Lorsqu’elles se réchauffent, les eaux de surface deviennent de plus en plus légères. Aux hautes latitudes, au pôle nord et au pôle sud, la densité est principalement contrôlée par la salinité. La raison physique est que dans les eaux très froides, proches du point de congélation, la température a un très faible rôle sur la densité. Avec le changement climatique, les précipitations s’intensifient aux pôles et les glaciers fondent, ce qui diminue la salinité et donc la densité. »

« Une couche d’eau sur de l’huile »

« On assiste à une sorte de découplage entre la couche de surface et les eaux profondes, un peu à la manière d’une couche d’eau sur de l’huile », poursuit Jean-Baptiste Sallée. Les chercheurs craignent ainsi une diminution du stockage de chaleur et de carbone par les océans. En plus, dans une couche de surface plus profonde, le phytoplancton risque de passer moins de temps à la surface, là où la lumière nécessaire à la photosynthèse est la plus intense. Cela pourrait donc diminuer la croissance du phytoplancton.

Jean-Baptiste Sallée rappelle le rôle clé des océans pour réguler le climat. Ils absorbent environ un quart du CO2 d’origine anthropique et plus de 90 % de l’excès d’énergie associé au changement climatique. Les chercheurs craignent que ce découplage des eaux impacte négativement ces capacités, mais ils ne savent pas encore en quelles proportions.

Les thèses du mois : « L’industrie parie sur la relocalisation »

Pour notre dossier de mars, « L’industrie parie sur la relocalisation« , voici les thèses sélectionnées par le REDOC SPI. Retrouvez le résumé de ces thèses ainsi que les thèses des mois précédents sur le site de notre partenaire.

– Mondialisation et marché du travail : étude sur les emplois exposés et abrités en France
Par Philippe Frocrain
Thèse de doctorat en Economie et finance
Soutenue le 28-11-2018
Laboratoire Centre d’économie industrielle

– La sécurité économique de la France dans la mondialisation : une stratégie de puissance face aux nouveaux défis du XXIème siècle
Par Axelle Degans
Thèse de doctorat en Géographie et aménagement de l’espace
Soutenue le 02-12-2019
Laboratoire : Habiter

– Le patriotisme économique à travers le cas de cinquante firmes industrielles françaises
Par Franck Dedieu
Thèse de doctorat en Sciences économiques
Soutenue le 25-06-2019
Léad : Laboratoire d’économie appliquée au développement

– L’avenir productif des territoires industriels : analyse de la diversité des trajectoires économiques locales
Par Marjolaine Gros Balthazard
Thèse de doctorat en Sciences du territoire
Soutenue le 20-11-2018
Laboratoire : Pacte

– La désindustrialisation : quel avenir pour l’industrie en France ?
Par Souhir Ayar
Thèse de doctorat en Sciences économiques
Soutenue le 20-06-2018
CEPN : Centre d’économie de l’Université Paris Nord

– Les compétences spécifiques territoriales : lien invisible entre les entreprises, les actifs et le territoire
Par Truong Giang Pham
Thèse de doctorat en Sciences économiques
Soutenue le 06-11-2018
CESAER : Centre d’Économie et de Sociologie Appliquées à l’Agriculture et aux Espaces Ruraux

– Entre utopie et action collective, comment accompagner la transition des territoires vers l’économie circulaire ? : Le cas de la commande publique dans le secteur de la construction
Par Joël Ntsonde
Thèse de doctorat en Sciences de gestion
Soutenue le 05-10-2020
Centre de Gestion Scientifique

– Maintenir la technologie aérosol et son industrie : une enquête sur les collectifs industriels (1958-2017)
Par Mathieu Baudrin
Thèse de doctorat en Sciences, Techniques, Sociétés
Soutenue le 05-12-2018
Centre de sociologie de l’innovation

– De l’idéologie des industries créatives aux politiques de reconfiguration territorialisées : le cas du territoire métropolitain lyonnais
Par Thomas Bihay
Thèse de doctorat en Sciences de l’information et de la communication
Soutenue le 23-05-2019
Elico : Équipe de recherche de Lyon en sciences de l’Information et de la Communication

– Évaluation économique et environnementale du développement régional d’une filière en interaction multi-secteur et multi-échelle : le cas de la filière forêt-bois du Grand Est
Par Thomas Beaussier
Thèse de doctorat en Sciences économiques
Soutenue le 08-10-2020
Laboratoire : Bureau d’économie théorique et appliquée

Thèses en cours de préparation

– L’impact de la mondialisation sur les inégalités territoriales en France
Par Paul Dolléans
Projet de thèse en Sciences Economiques depuis le 07-10-2019
Laboratoire : EconomiX

– Comment l’organisation d’instances de participation sur le territoire « du futur » performe-t-elle son public ? La construction d’un smart territoire et territoire du « futur », Île-de-France
Par Carole-Anne Tisserand
Projet de thèse en Sciences, technologies, sociétés depuis le 01-12-2020
Laboratoire : Centre de sociologie de l’innovation

– Dynamiques territoriales et revitalisation des territoires industriels
Par Nastasya Winckel
Projet de thèse en Économie depuis le 01-10-2017
Laboratoire : Choix Industriels, technologiques et Scientifiques

Innovantes #5 : Déployer des ballons à l’hélium sur des sites isolés

Julie Dautel a cofondé avec Cédric Tomissi la start-up Eonef, ex-Zéphyr Solar. Initialement, les deux designers industriels souhaitaient mettre au point des ballons qui permettraient de produire de l’électricité sur des sites isolés, post-catastrophe. « Nous sommes allés voir des ONG de terrain pour comprendre leurs problématiques, et nous nous sommes rendu compte qu’ils avaient besoin d’énergie pour alimenter des réseaux de télécommunication fiables. En prenant de la hauteur, un ballon a justement la possibilité d’émettre ou recevoir un signal de loin, en étant le plus autonome possible », raconte Julie Dautel.

Eonef propose deux types de ballons : un premier de 10 mètres cube qui peut embarquer jusqu’à 1 kg de charge utile et un second de 20 mètres cubes qui embarque jusqu’à 5 kg de charge utile. Les ballons sont gonflés avec de l’hélium et sont rattachés au sol par un câble de maximum 150 mètres. Un treuil électrique permet de faciliter toutes les opérations. Avec une résistance aux vents jusqu’à 60 km/h, les ballons peuvent apporter leur service de plusieurs jours à plusieurs semaines. Leur plus grosse limite demeure donc la météo.

Ballon à l’hélium lors d’un déploiement pour observer la faune sur l’île de la Réunion. /Eonef

Des missions d’observation et de télécommunication

La start-up réalise avec ses ballons trois missions distinctes. D’abord, elle investit le secteur de la sécurité-sûreté et offre un ballon caméra pour réaliser de l’observation sur des sites industriels ou pour de l’événementiel de plein air. Ensuite, elle apporte des solutions de télécommunication dans les zones isolées post-catastrophe. Et enfin, le ballon peut embarquer une antenne relai qui permet de suivre les animaux qui sont préalablement badgés afin d’observer la faune d’un site.

Aujourd’hui, les ballons caméras pour l’activité sécurité-sûreté sont déjà opérationnels, et la start-up travaille sur l’amélioration des ballons. « L’objectif dans quelques mois est d’avoir un câble dit « ombilical » qui pourra faire passer à la fois de la donnée ainsi que de l’électricité pour communiquer avec la charge utile qui est sous le ballon. Nous travaillons aussi sur une meilleure ergonomie, afin de donner le plus de liberté aux hommes et aux femmes de terrain », explique Julie Dautel. Si la crise sanitaire a fait prendre du retard à Eonef, les membres de la start-up continuent d’avancer dans le développement des autres missions.

Rôle de la relocalisation sur le développement durable

Un extrait de « L’impression 3D dans une perspective de développement durable » par Laurent MOLINARI

En se limitant par exemple aux émissions de GES, les énergies qui sont utilisées dans les systèmes de production des pays à bas coûts ont, en général, une intensité carbone plus élevée que dans les pays développés. Au-delà du particularisme français basé sur le nucléaire, les pays à bas coût ont tendance à privilégier les énergies fossiles (charbons, pétroles…) dans leurs systèmes de production d’électricité. Ainsi, l’intensité carbone des biens produits dans ces pays est généralement plus forte que celle des pays développés. Par ailleurs, les réglementations relatives à l’environnement, et notamment les contraintes relatives à la gestion des déchets, sont moins évoluées dans ces pays que dans les nôtres. Enfin, la mondialisation de l’économie s’est construite autour d’une réalité d’un transport de marchandises performant et peu cher. Les émissions de CO2 de la supply chain des produits (transports et logistiques) constituent ainsi un élément important de son impact global.

Là encore, la diffusion de capacités de production de produits à un niveau individuel ou communautaire peut permettre de réduire une pression existante sur l’environnement.

  • La production de biens s’effectue principalement dans le contexte local de l’utilisateur, celui-ci sera plus enclin à suivre et à développer les réglementations environnementales que dans un contexte où l’industriel pollue en grande partie « en dehors de chez lui ».
  • La relocalisation de la supply chain permet de réduire les grands flux d’échange de produits finis ou semi-finis. Ce phénomène est clairement un facteur de réduction de l’impact environnemental : même si des échanges de matières premières devront tout de même s’effectuer entre les pays, ceux-ci n’auront pas la même intensité CO2 que le transport, à plusieurs étapes de la production de produits semi-finis.
  • Enfin, les transports liés à la distribution dans un même pays peuvent être simplifiés, et donc économisés, puisque des produits peuvent être fabriqués au plus près du lieu de vente/mise à disposition.

L’impact environnemental sous l’analyse du cycle de vie

Une approche rationnelle permettant de se faire une opinion de l’impact   environnemental réel peut impliquer de se reposer sur l’analyse de cycle de vie d’un produit manufacturé (ACV) pour mener une étude d’impact de ce mode de production.

L’ACV d’un produit est une méthode permettant d’évaluer les impacts environnementaux associés ou liés à l’ensemble de la vie du produit. Les impacts environnementaux sont notamment associés au processus de distribution :

  • les opérations de transport-logistique en distinguant les opérations d’approvisionnement de matières qui sont généralement intégrées dans l’impact environnemental des matières et les opérations de distribution des produits finis sur les lieux de distribution et de vente ;
  • les opérations liées à la distribution/vente du produit, intégrant donc l’impact environnemental du produit dans son environnement de vente : le magasin. Cet impact intègre (comme le rappelle la méthode bilan carbone d’un point de vente) aussi bien les activités propres du magasin que celles liées aux clients et notamment les déplacements, qui participent pour une très grande part aux émissions de GES.

 

Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 7 avril 2021 !

L’impression 3D dans une perspective de développement durable par Laurent MOLINARI

5 secteurs industriels ciblés pour tenter de relocaliser

La pandémie de coronavirus a mis à nu les fragilités des chaînes d’approvisionnement dans certains secteurs de l’industrie française. Ce bilan fut dressé dès le mois de mars 2020, lorsque les pays du monde entier, sur des timings différents, ont fermé leurs frontières et stoppé, au moins partiellement, leurs activités industrielles.

Quelques mois plus tard, le gouvernement annonçait son désormais célèbre plan de relance, un cocktail d’aides ciblées destinées à soutenir l’économie française face à une situation à l’ampleur difficilement prévisible, autant en terme de gravité que de durée.

Il est important de comprendre qu’au-delà de la crise sanitaire que nous traversons, la situation fragile de l’industrie française dans certains secteurs n’est pas nouvelle. L’exemple des composants électroniques, une production que la France a longtemps délaissé à cause de sa faible valeur ajoutée, est parlant aujourd’hui. Quoi qu’il en soit, le volet « relocalisation » du plan de relance, doté de près d’un milliard d’euros et opéré par la BPI, a pour objectif de soutenir des entreprises françaises évoluant au sein des cinq secteurs ciblés et développant des modèles de production territoriale, agiles et stratégiques.

L’ambition de produire en France

Sous forme d’appel à projets, le gouvernement offre donc la possibilité aux entreprises  – de la santé, de l’agroalimentaire, de l’électronique, aux intrants essentiels de l’industrie et aux applications industrielles de la 5G – de déposer leurs projets en cohérence avec les objectifs annoncés par le gouvernement.

A l’heure actuelle, deux phases de sélection ont été dévoilées et ce sont 105 projets au total qui ont été retenus. L’appel à projets est d’ailleurs toujours ouvert, jusqu’au 21 juin 2021. Près de 10 000 dossiers de candidatures ont d’ores et déjà été déposés. 

Dans ce dossier, la rédaction a choisi de revenir sur trois projets portés par des entreprises françaises ayant été retenus par le gouvernement, sur les secteurs de l’électronique, de la 5G et de l’agroalimentaire.

Dans le secteur de l’électronique, la France est extrêmement dépendante de fournisseurs étrangers sur certains composants de base. L’entreprise SRT Microcéramique, une PME du secteur de l’électronique, fait partie des deux seuls fabricants européens de condensateurs céramiques multicouches. L’entreprise, dont le projet a été sélectionné par le gouvernement, porte le projet « CAPAFRANCE », qui vise à tripler la production de ces condensateurs. Ces composants présents dans tout système électronique et pour lesquels la France et l’Europe dépendent à 99% de fabricants américains et asiatiques pourraient, s’ils étaient produits en Europe, redonner à la France une plus grande indépendance industrielle sur ce secteur. 

Quand relocalisation rime avec souveraineté industrielle

Dans le secteur de la 5G, les défis sont immenses. Alors que l’enjeu autour de la 5G industrielle offre de nombreuses opportunités, l’image de cette technologie est écornée dans le débat public. Développer une souveraineté industrielle autour de la 5G constitue pour autant un objectif stratégique pour la France. Sequans Communications est une startup créée en 2003. L’entreprise est aujourd’hui spécialisée dans la fourniture de semi-conducteurs pour les terminaux 4G et 5G. Le projet CRIIoT (Critical IoT), porté par l’entreprise, ambitionne de développer une solution permettant aux industriels, et plus particulièrement aux secteurs dits « verticaux », d’évaluer puis de déployer rapidement des solutions 4G/5G pour connecter leurs objets et optimiser et sécuriser leur usage. C’est le second exemple sur lequel la rédaction a choisi de s’attarder.

Le secteur agroalimentaire fait aussi partie des secteurs stratégiques, puisqu’il est inextricablement lié à l’indépendance alimentaire de l’Hexagone. Parmi les projets sélectionnés pour le moment, la rédaction s’est arrêtée sur l’entreprise Né d’une seule ferme. Cette start-up propose des solutions clés en main pour les entreprises agricoles. Son concept consiste à déployer des containers équipés en yaourteries, déplaçables et fabriqués en France, dans des fermes sur tout le territoire métropolitain. Le concept porté par Né d’une seule ferme vise à renforcer la souveraineté alimentaire du pays, tout en permettant aux producteurs de lait de remonter dans la chaîne de valorisation de leur production.

Les deux derniers secteurs stratégiques ciblés par le volet relocalisation du plan de relance sont ceux de la santé et des intrants essentiels à l’industrie. Sur le secteur de la santé, les projets sélectionnés partagent l’ambition de produire sur le territoire des molécules médicamenteuses stratégiques, qui permettront à l’industrie de la santé de fonctionner de manière plus indépendante. La problématique est similaire pour les intrants essentiels à l’industrie : que ce soit pour les aciers, les terres rares, les poudres, les traitements de surface… tous les projets retenus visent à relocaliser des productions stratégiques sur le sol français.

On le voit, les 5 secteurs ciblés par le gouvernement portent des enjeux stratégiques en termes de souveraineté industrielle pour le pays. Si le choix fait par le gouvernement, de saupoudrer les aides sur des dizaines de projets différents divise, les mois qui viennent permettront de voir dans quelle mesure ces initiatives ciblées favorisent à la fois une relocalisation de certaines productions, et un repositionnement de l’industrie hexagonale.

Par Pierre Thouverez

Composants électroniques : « Il faut favoriser l’émergence d’un fournisseur européen de haut niveau »

Le projet devrait permettre à l’entreprise d’augmenter considérablement son chiffre d’affaires et pourrait créer jusqu’à 35 emplois hautement qualifiés d’ici 2027.

Paul-Emile Faure, président de SRT Microcéramique, a répondu aux questions de Techniques de l’Ingénieur sur l’activité de son entreprise et sur les solutions existantes permettant de relocaliser une production essentielle pour la souveraineté technologique française et européenne. En effet, les condensateurs font partie des briques de base de nombreux produits électroniques.

Techniques de l’Ingénieur : Quel est le contexte autour du marché des condensateurs céramiques multicouches aujourd’hui à l’international ?

Paul-Emile Faure : Les condensateurs céramiques multicouches sont des composants universels dans le secteur de l’électronique.

Paul-Emile Faure, Président de SRT Microcéramique.

Il n’y a que deux constructeurs en Europe, la majorité des acteurs se trouvant en Asie mais aussi aux Etats-Unis.

Ces condensateurs présentent des caractéristiques très variées en fonction de l’usage. On trouve donc des fabricants développant des productions de masse sur certains modèles de condensateurs, surtout en Asie, mais également au Mexique. Après, il existe toute une gamme de condensateurs beaucoup plus spécifiques, à haute valeur ajoutée, destinés à des marchés ayant des besoins très particuliers (aéronautique, médical, spatial, défense, industrie…). 

Où se situe SRT au sein de ce contexte ?

Chez SRT, nous sommes capables de produire des composants standards, mais nous sommes avant tout spécialisés sur la fabrication de condensateurs spécialisés – RF, Haut-Voltage, Haute fiabilité, non magnétique, étamés, stacks, filtres…- sur des moyennes ou grandes séries.

Notre technologie de fabrication fait appel à des métaux précieux, ce qui nous rend un peu moins compétitifs sur les composants standards fabriqués en masse, mais tout à fait au niveau de la concurrence sur des composants à haute valeur ajoutée, le tout avec une très forte flexibilité et des délais courts.

Nous sommes une petite structure, avec 15 salariés, mais nous proposons une gamme de condensateurs équivalente à celle d’entreprises beaucoup plus importantes – en termes de salariés et de chiffre d’affaires – que la nôtre.

Pour quelles raisons avez-vous décidé de répondre à l’appel à projet “relocalisation” lancé par le gouvernement ?

Aujourd’hui, nous sommes face à un défi de croissance, car notre chiffre d’affaires, entre 2 et 3 millions d’euros, ne correspond pas, dans le secteur dans lequel nous évoluons, aux modèles mis en place chez nos concurrents. Notre objectif de croissance, qui est au cœur du projet qui a été retenu via le plan de relance, est de devenir un acteur majeur européen sur les condensateurs céramiques multicouches, en visant un chiffre d’affaires situé entre 10 et 30 millions d’euros. Notre concurrent français est dans une situation quasi monopolistique dans l’Hexagone, et nous sommes à l’heure actuelle dans un rôle de fabricant de « secours », si je puis dire. Nous avons des atouts pour faire évoluer cette situation, et le projet CAPAFRANCE doit nous permettre de nous projeter dans une nouvelle dimension industrielle, notamment en termes de recherche et développement.

Nous avons des gros partenaires, comme Thales par exemple, qui nous soutiennent depuis longtemps, et qui valorisent l’intérêt, pour eux, de s’associer avec une entreprise comme la nôtre, plus petite que les gros acteurs du marché, mais qui propose une fiabilité, une flexibilité et une proximité qui, dans le contexte actuel, se révèlent être un atout compensant le prix de nos produit, plus élevé que celui de nos concurrents. Ce lien avec un grand groupe comme Thales est très important pour SRT : ce groupe, qui nous soutient déjà depuis longtemps, nous accompagnera d’autant plus si nous parvenons à changer d’échelle.  

Comment allez-vous investir l’aide allouée via le plan de relance ?

Aujourd’hui nous avons beaucoup de demandes de clients potentiels de nouveaux produits. Pour nous, la mise au point d’un nouveau produit va prendre deux ou trois ans, sans garantie sur les volumes de commandes une fois que le produit est au point. Ces cycles longs de production sont à l’heure actuelle un frein pour nous, mais nous savons que le jour où nous serons capables de fabriquer ces produits, les clients nous suivront. Nous devons donc passer, pour atteindre ces objectifs, à une échelle supérieure, au niveau de la structure. En ce sens, le plan de relance arrive à point nommé pour nous, car nous bénéficions d’une aide conséquente et concentrée, qui va essentiellement nous servir à réaliser de l’investissement sur les machines.

En termes de souveraineté technologique, que va changer l’aide dont SRT bénéficie ?

Nous avons aujourd’hui en Europe une dépendance par rapport à l’Asie et les Etats-Unis qui approche les 99% pour tout ce qui touche aux condensateurs céramiques multicouches. Il n’est aujourd’hui pas envisageable de se passer de l’Asie pour la fourniture des ces composants, mais on pourrait imaginer, en favorisant l’émergence d’un fournisseur européen de haut niveau, ne plus être dépendant du continent américain pour les composants spécialisés. Cela constituerait déjà un pas en avant extrêmement important en termes de souveraineté. Aujourd’hui par exemple, des acteurs de la défense sont largement dépendants de fournisseurs américains pour ce type de composants, ce qui ne va pas sans poser des problématiques de souveraineté technologique. Nous avons ces dernières décennies, en France, laissé partir cette souveraineté technologique en estimant que la production de composants électroniques n’apportaient pas assez de valeur ajoutée. C’était une erreur.

Propos recueillis par Pierre Thouverez

Image de Une : condensateurs céramiques multicouches ©SRTMicrocéramique

L’explorateur Jean-Louis Étienne annonce la date de départ de Polar Pod

Jean-Louis Étienne

L’original géant Polar Pod naviguera dans les eaux de l’océan Austral dès fin 2023. Jean-Louis Étienne, médecin et explorateur à l’origine du projet éponyme, l’a annoncé lors d’une conférence de presse en ligne ce 16 mars. Pendant trois ans, l’embarcation verticale haute de 100 mètres parcourra deux fois le tour du globe dans les cinquantièmes hurlants. La raison d’être de l’expédition est d’améliorer les connaissances scientifiques sur cette zone, qui est le plus grand puits de carbone du monde. Dans ces eaux froides seraient stockées 40 % des émissions de carbone générées par les activités humaines. Ces observations sont notamment rendues possibles grâce à la coordination du projet assurée par le CNRS, en partenariat avec le Cnes et l’Ifremer.

Le départ de ce monstre d’acier signera l’aboutissement de plus d’une dizaine d’années de travaux. En effet, Jean-Louis Étienne a commencé à travailler sur le projet Polar Pod dès 2012. Dix ans plus tard, en janvier 2022, débutera la construction du navire vertical, conformément à l’appel d’offres lancé par l’Ifremer. La construction devrait durer dix-huit mois. Le bateau sera ensuite mis à l’eau en 2023, avant de partir en décembre. Pour Jean-Louis Étienne, Polar Pod sera « comme une station spatiale en orbite autour de l’Antarctique ».

Crédit image : Spie Batignolles

Un « programme très riche »

Au cours de cette conférence de presse, David Antoine, coordinateur du projet pour le CNRS, a détaillé les quatre principaux axes de recherche de la mission. Les scientifiques analyseront en premier les échanges entre l’océan et l’atmosphère. Ces données seront capitales pour le suivi de l’évolution du climat. Des enjeux d’observation satellitaire seront également liés au projet. Enfin, les explorateurs recueilleront des données inédites sur la biodiversité locale, qui demeure peu connue, et l’impact des activités humaines.

Pour mener ces travaux à bien, des chercheurs issus de 43 institutions et universités de 12 pays se rendront dans l’océan Austral. Durant toute l’expédition, des équipes de huit personnes embarqueront tour à tour, chacune durant deux mois, à bord du Polar Pod. Chaque équipage sera composé d’au moins quatre scientifiques. Tous seront occupés par un « programme très riche », du propre aveu de celui qui, en 1986, fut le premier homme à atteindre en solitaire le pôle Nord géographique. Les informations recueillies auront vocation à être partagées. Elles le seront notamment avec la communauté éducative.

Polar Pod, stable et silencieux

Pour plusieurs raisons, cette aventure promet d’être inédite. Premièrement, Polar Pod est une plateforme océanographique conçue pour être très stable. Pour la concevoir, Jean-Louis Etienne s’est inspiré du Floating Instrument Platform (FIP), mis au point par la US Navy dans les années 1960. Sa stabilité, essentielle à la bonne réussite du projet, est liée à ses 80 mètres de tirant d’eau – cette partie est totalement immergée – et ses 150 tonnes de lest. De cette façon, l’embarcation est adaptée aux conditions extrêmes du pôle Sud. Jusqu’à présent, les expéditions dans cette région du monde ne sont possibles qu’à certaines périodes de l’année tant les conditions climatiques sont hostiles, notamment durant l’hiver austral.

L’autre innovation majeure du Polar Pod réside dans son absence de motorisation. L’embarcation sera alimentée par l’énergie fournie par six éoliennes. Ainsi, ce bateau est « zéro émission  ». Le silence lié à l’absence de moteur est également un avantage pour l’observation de la biodiversité locale. Pour cela, Polar Pod sera équipé d’hydrophones dont le but sera d’aller capter les signatures sonores émises par de nombreuses espèces, allant des petits crustacés comme le krill aux mammifères marins.

« Nous avons les briques technologiques pour développer un réseau 5G made in Europe »

Sequans Communications est une startup créée en 2003. L’entreprise est aujourd’hui spécialisée dans la fourniture de semi-conducteurs pour les terminaux 4G et 5G.

Le projet CRIIoT (Critical IoT), porté par l’entreprise, a été retenu à l’occasion de l’appel à projets lancé par le gouvernement dans le cadre du volet « relocalisation » du plan de relance impulsé par le gouvernement depuis le mois de septembre.

Il ambitionne de développer une solution permettant aux industriels, et plus particulièrement aux secteurs dits « verticaux », d’évaluer puis de déployer rapidement des solutions 4G/5G pour connecter leurs objets et optimiser et sécuriser leur usage. Le projet permettra par exemple d’expérimenter la récupération des données de vol d’un moteur d’avion ou de mettre en place des objets connectés à communications critiques dans le secteur ferroviaire. 

Guillaume Vivier, CTO de Sequans Communications, est revenu pour Techniques de l’Ingénieur sur les objectifs du projet CRIIoT, et plus largement sur les enjeux liés au développement de la 5G, notamment au niveau industriel, sur lequel Sequans a décidé de concentrer ses efforts.

Techniques de l’Ingénieur : Pourquoi l’entreprise Sequans a-t-elle fait le choix de s’éloigner de l’univers des smartphones pour privilégier l’IoT il y a une dizaine d’années ?

Guillaume Vivier : En 2011, Sequans a décidé d’investir dans la technologie d’avenir, à l’époque 4G, et ne pas se disperser à rattraper le passé en développant les technologies 2G/3G indispensables aux smartphones. De plus, la concurrence dans ce marché des smartphones est particulièrement forte ; nous avons préféré innover et optimiser notre technologie (en coût et performance) pour les applications IoT. Le pari était judicieux même si ceci a été problématique au début car les réseaux n’avaient pas encore une couverture 4G globale et il a permis de placer Sequans comme le leader de la technologie cellulaire 4G et 5G pour ces applications IoT.

Guillaume Vivier, CTO de Sequans Communications

Nous nous sommes donc spécialisés sur tous les types d’objets connectés, sauf les smartphones : routeurs portables, CPE… avec des technologies 4G/5G opérant à grands débits (>150Mb/s) ou à l’inverse à bien plus faibles débits, pour des capteurs, traceurs etc… Mais opérant souvent avec des batteries, et nécessitant une très faible consommation énergétique. Ces technologies utilisent les catégories cellulaires de « bas profil » LTE-M et NB-IoT (débit 10-100kb/s), récemment introduites par le standard cellulaire. 

Aujourd’hui, l’avènement à venir de la 5G nous a amené à développer des composants pour ces deux marchés : nous avons déjà une offre 5G couvrant les bas débits et d’ici quelques années notre offre 5G « haut débit » sera elle aussi disponible.

C’est autour de ces composants pour la 5G que le projet CRIIoT s’est mis en place. Pouvez-vous nous en expliquer les objectifs ?

L’objectif du projet pour lequel nous avons été retenus est de favoriser le développement de ce composant optimisé pour la communication avec les objets connectés en 5G. 

L’enjeu de souveraineté autour de la 5G a été mis en avant ces dernières années quand les Etats-Unis ont commencé à développer une stratégie protectionniste, en bannissant des compagnies comme Huawei par exemple. Cela a mis en exergue le fait que les Américains n’avaient plus la maîtrise de bout en bout de leurs réseaux via leurs acteurs locaux… Des entreprises comme Motorola, Lucent n’étaient plus en mesure d’assurer ce rôle. Cela a montré l’interdépendance qui existait sur ce secteur d’activité. Depuis, la crise du Covid-19 est venue nous rappeler que des produits de base, comme les masques ou les médicaments, sont tous fabriqués en Asie. Cela a battu en brèche l’idée que nous nous faisions de notre souveraineté.

Cette problématique est alors devenue, pour l’Etat, une préoccupation très importante, dans certains secteurs clés comme la sécurité alimentaire, la sécurité médicale et la sécurité des réseaux, entre autres.

Quelles sont les clés pour retrouver une souveraineté en Europe sur tout ce qui touche aux réseaux et à la 5G en particulier ?

En Europe, nous avons encore deux compagnies majeures dans le domaine des infrastructures, Ericsson et Nokia. Sur la 5G, Huawei, qui a investi de façon massive, est reconnu par beaucoup comme un des premiers acteurs à proposer des solutions abouties.

En France et en Europe, nous avons aujourd’hui les briques technologiques qui, mises bout à bout, pourraient permettre d’avoir un réseau 5G intégralement « made in Europe », et pourquoi pas « made in France ».

Le projet « CRIIoT » que nous avons mis en place consiste à réunir ces acteurs, pour mettre bout à bout ces briques technologiques. Avec l’ambition d’être également plus agiles et flexibles.

Quelles sont les entreprises réunies autour du projet CRIIoT ?

Sequans est à la tête du consortium mis en place autour du projet CRIIoT. Trois autres entreprises françaises sont impliquées. La première est Amarisoft, une petite entreprise d’une quinzaine de personnes en Île-de-France qui propose une solution logicielle permettant de faire un réseau 4G/5G très optimisé. Ensuite, il y a AW2S, propriété de SERMA, une entreprise experte dans l’ingénierie et la production de systèmes radiofréquence, l’élaboration de solutions de traitement des signaux numériques nécessaires aux systèmes de télécommunication, ainsi que le développement de solutions complètes de transmission hauts débits utilisant les technologies 4G/5G.

La troisième est un opérateur télécom également fournisseur d’accès internet au niveau territorial, agile et flexible : l’entreprise Alsatis.

Ces partenaires de fourniture technologique, mis bout à bout, permettent d’imaginer une solution globale. Sequans fournit les composants, AW2S et Amarisoft les solutions réseaux, et Alsatis opère les réseaux.

Nous avons deux utilisateurs verticaux, un dans le ferroviaire, un dans l’aéronautique, plus le CEA qui apporte également des briques technologiques. Au final, nous avons là toute la chaîne de valeur pour réaliser un réseau complet. 

On pourrait aussi penser à des acteurs du cloud : ces derniers existent en France, comme OVH par exemple, et sont compétitifs. 

Nous n’avons donc pas rassemblé l’intégralité des acteurs du secteur, le but est de montrer que la possibilité de réaliser un réseau 4G/5G sur des briques locales et en particulier dans le domaine des réseaux privés ou industriels, en mettant l’accent sur la sécurité des données et des informations, est réelle. Avec comme externalité pour Sequans une réorientation vers la problématique des objets connectés critiques. 

Cette réorientation est-elle également liée aux controverses qui entourent la mise en place de la 5G, particulièrement en France ?

Cela fait effectivement partie de notre réflexion. L’actualité récente a vu se développer une défiance du grand public envers la 5G, illustrée par la dégradation de matériels mis en place pour implanter la 5G par exemple. C’est aussi pour cela que nous avons choisi, à travers ce projet, d’orienter notre stratégie vers la 5G industrielle. 

Qui plus est, le potentiel de la 5G s’exprime beaucoup plus à travers son utilisation industrielle. Pour les utilisateurs de smartphones, la 5G n’est rien de plus qu’une 4G améliorée.

Nous sommes convaincus que les apports technologiques de la 5G, sur la latence, les débits, la sécurité, bénéficieront essentiellement aux secteurs “verticaux”, avec une segmentation du réseau focalisée sur le type d’industrie ou le domaine d’activité. C’est pour cela que nous nous tournons aussi vers le développement de réseaux privés, qui donneront par exemple la possibilité à un industriel, sur un site de fabrication, de déployer son propre réseau, avec une fréquence dédiée allouée par le régulateur. Ce type de régulation existe aujourd’hui en Allemagne, où des entreprises comme Audi ou Bosch ont mis en place des réseaux privés sur leurs sites de production. Les Etats-Unis se sont également emparés de ce sujet, avec le développement du Citizens Broadband Radio Service (CBRS).

En France, le sujet commence à émerger et l’ARCEP songe de plus en plus à la possibilité d’allouer des bandes de fréquences pour les utilisateurs verticaux.

Revenons à la problématique de la relocalisation de la production, condition nécessaire pour retrouver une souveraineté industrielle. La France et l’Europe peuvent-elles combler leur retard sur l’Asie, pour ce qui est de la fabrication des semi-conducteurs ?

Aujourd’hui en effet, la fabrication des semi-conducteurs se concentre essentiellement en Asie, et plus particulièrement à Taïwan, avec des tensions ces derniers mois en termes d’approvisionnement, liées entre autres à des incendies ayant détruits quelques usines clés, et bien sûr à la crise sanitaire. Cela met à nu une dépendance importante par rapport à quelques acteurs clés du secteur, comme le fabricant taïwanais TSMC. Rapatrier ces productions en Europe nécessiterait des investissements extrêmement lourds. 

Les deux principaux fondeurs européens, GlobalFoundries et STMicroelectronics, ont fait des choix technologiques différents des gros acteurs asiatiques comme TSMC ou Samsung. Aujourd’hui par exemple, en termes de finesse de gravure, TSMC travaille en production sur du 5 nanomètres, en expérimentant du 4 et même du 3 nanomètres. En Europe, GlobalFoundries, en production, travaille sur du 12 nanomètres. L’écart est donc important en termes de performance.

Dans ce contexte, il faut se souvenir que Sequans est une entreprise fabless. Nous nous occupons de la conception des semi-conducteurs, mais pas de leur production. Une partie de notre production est faite à Taïwan, par TSMC, et une autre partie en Europe. Cela dit, il est aujourd’hui impossible de se passer de l’Asie pour la fabrication de semi-conducteurs. Le design du circuit, par contre, peut tout à fait être fait en Europe. Sequans en est une parfaite illustration. 

Il faut avoir à l’esprit que le monde du semi-conducteur pour le cellulaire est un secteur très particulier, dans lequel les acteurs ne sont plus très nombreux. Il y a Qualcomm, Samsung, et bientôt MediaTek, qui sont en passe de trouver des solutions technologiques compétitives. Huawei, depuis qu’il a été banni des usines de production taïwanaises à cause des règlements américains, est dans une situation où l’entreprise possède la technologie mais est dans l’incapacité de produire. 

Un fabricant comme Intel a décidé d’abandonner la 5G il y a quelques années, car il n’avait pas l’ambition d’investir massivement pour être compétitif.
Finalement, en Europe, si l’on s’intéresse à la fabrication des composants numériques et RF du côté du terminal, Sequans reste le seul acteur à ce jour. Il y a également STMicroelectronics, mais cette entreprise est plus spécialisée dans la fabrication de composants analogiques et sur tout ce qui touche aux équipements de smartphones, comme les accéléromètres par exemple.

Au-delà de Sequans, les investissements de l’Etat autour des projets de relocalisation de certaines productions clés vous paraissent-ils à la hauteur des enjeux ?

Nous avons reçu un financement significatif pour développer le projet CRIIoT. On sent derrière tout cela une volonté de faire bouger les choses. Il y a une cohérence, et même un véritable écosystème qui s’est mis en place autour de la 5G. Ainsi, pour ce qui est du secteur des télécoms, la stratégie me paraît aller dans le bon sens.

Propos recueillis par Pierre Thouverez

Près de 100 GW éoliens mis en service en 2020, selon BloombergNEF

Les développeurs ont mis en service 96,3 gigawatts d’éoliennes dans le monde en 2020, contre 60,7 gigawatts l’année précédente. La plupart d’entre elles ont été implantées à terre (94 %), l’ajout de nouvelles turbines en mer chutant en revanche à 6,1 GW, en baisse de 19 % par rapport à 2019.

Quatre fabricants représentent à eux seuls plus de la moitié (51 %) des machines déployées en 2020 : General Electric (GE), Vestas, Goldwind et Envision ont tous mis en service plus de 10 GW l’année dernière, creusant l’écart entre les principaux fabricants et les plus petits acteurs du marché, rapporte BloombergNEF.

Le danois Vestas détrôné

L’américain GE et le chinois Goldwind ont été les deux principaux fournisseurs de turbines en 2020, suite à une forte augmentation des installations aux États-Unis et en Chine. Vestas, qui occupait la première place du classement depuis quatre ans, a reculé à la troisième place en 2020. Ces chiffres s’appuient sur la base de données mondiale de projets éoliens de BNEF et sur des informations détaillées fournies par l’industrie, précise le communiqué des consultants.

« GE et Goldwind ont occupé les deux premières places du classement de cette année en se concentrant sur les plus grands marchés. Cette stratégie pourrait ne pas être aussi fructueuse en 2021, car les subventions expirent dans ces régions, indique dans le communiqué Isabelle Edwards, associée chargée de l’éolien chez BloombergNEF et auteur principal du rapport 2020 Global Wind Turbine Market Shares. Vestas prend moins de risques sur le marché, avec des turbines mises en service dans 34 pays l’année dernière ». Le Danois (auquel s’ajoute la capacité acquise à MHI) installe néanmoins 12,40 GW, derrière le Chinois Goldwind à 13,06 GW et GE, avec 13,53 GW.

GE a gagné sa place en tête du classement en augmentant ses installations terrestres de 6,6 GW d’une année sur l’autre, les installations aux États-Unis représentant quelque 70 % de son portefeuille mondial de 13,53 GW. A noter que sept groupes chinois sont arrivés dans le top 10 des livraisons en 2020. Envision passe le cap des 10 GW livrés (10,35 GW), Minyang installe 5,64 GW, Shanghai Electric 4,77 GW, Windey, CRRC et Sany mettant en service respectivement 3,98 GW, 3,84 GW et 3,72 GW.

La Chine tire le marché

BNEF a recensé 57,8 GW de nouvelles capacités éoliennes mises en service en Chine l’année dernière. Sur le marché terrestre, c’est plus que ce qui a été mis en service par le monde entier en 2019. Cette flambée de la demande de turbines en Chine a permis aux petits fabricants nationaux de turbines d’utiliser pleinement leurs capacités de fabrication au ralenti, et de gagner du terrain sur leurs concurrents étrangers dans le classement mondial.

« Alors que chaque région a mis en service plus de capacité éolienne que l’année précédente, la croissance sans précédent observée en 2020 est à mettre au crédit du marché éolien chinois », insiste Isabelle Edwards, dans le communiqué. « Presque tous les fabricants de turbines vendent désormais des turbines en Chine, et en 2020, le pays a constitué le deuxième marché le plus important pour GE et Vestas. »

« Plus de vingt fabricants de turbines ont fourni des éoliennes à la Chine et beaucoup d’entre eux ont pu doubler ou tripler leur capacité installée d’une année sur l’autre », précise dans le même communiqué Leo Wang, associé chargé de l’éolien pour BNEF, à Pékin. « L’expiration des subventions pour l’éolien terrestre et offshore a alimenté le boom des installations. Suite à l’expiration des primes de rachat pour l’onshore, le marché devrait voir sa demande baisser cette année ».

Les ajouts totaux d’éoliennes terrestres en 2020 étaient de 19,4 GW dans les Amériques, 12,6 GW en Europe et 863 MW en Afrique et au Moyen-Orient, tandis que l’Asie-Pacifique représentait 57,3 GW. La base de données du BNEF a enregistré de nouveaux parcs éoliens commençant une exploitation commerciale complète dans 44 pays.

Les États-Unis ont mis en service 16,5 GW de nouvelles capacités éoliennes l’année dernière, alors que les développeurs se préparaient à une suppression progressive du crédit d’impôt à la production. C’est 77 % de plus qu’en 2019 et 2,6 GW de plus que le précédent record du pays en 2012. GE a fourni 57 % (9,4 GW) de cette nouvelle capacité, et a augmenté son avance sur la concurrence. La part de marché de Vestas a chuté à 31 % en 2020, même si le fabricant danois de turbines a mis en service un record d’entreprise de 5,1 GW dans 14 États américains.

Siemens Gamesa toujours leader sur l’offshore

Siemens Gamesa conserve sa position de leader sur le marché de l’éolien offshore. L’année dernière, Siemens Gamesa a mis en service 1,91 GW en mer, dont 752 MW au parc éolien de Borssele, aux Pays-Bas, et 539 MW au projet East Anglia One, au Royaume-Uni, entre autres sites.

Dans le but de se repositionner en tant que principal fournisseur de turbines pour l’industrie éolienne offshore, Vestas a acquis MHI Vestas Offshore Wind à la fin de 2020. Il faudra peut-être attendre quelques années avant que cette opération ne bouleverse le marché de la fourniture de turbines, car Siemens Gamesa est déjà en tête des carnets de commandes de l’éolien offshore jusqu’en 2025. Cinq fabricants de turbines chinois – Shanghai Electric, Mingyang, Envision, Goldwind et CSSC – ont dépassé Vestas, qui a glissé à la septième place sur le marché de l’éolien offshore.

Du décapage industriel totalement vert à base de produits végétaux

Lorsque William Péronne annonce qu’il souhaite réaliser du décapage industriel sans aucun produit chimique, les gens du milieu le prennent pour un fou. À la tête de deux usines de décapage en Normandie et d’une troisième en Bretagne, cet entrepreneur veut faire converger ses valeurs personnelles autour du respect de la nature dans son métier. Deux ans plus tard, il est sur le point de gagner son pari. Alors que son entreprise consommait chaque année 200 tonnes de produits chimiques, ce volume n’est plus que de 10 tonnes aujourd’hui. Et il devrait totalement disparaître d’ici à la fin de l’année. Ce résultat est le fruit d’un travail de recherche et de développement en interne, avec le soutien financier de l’Ademe. Il s’est conclu par le développement de deux procédés de décapage de pièces industrielles à base de produits végétaux. Rencontre avec William Péronne, président de la société Çadécap.

Techniques de l’Ingénieur : Quel est le premier procédé développé par votre entreprise ?

William Péronne – Crédit photo Çadécap

William Péronne : Il est issu d’une technologie déjà existante, celle du sablage qui consiste à projeter du sable sous pression pour décaper un support. Cette technique existe depuis des lustres, mais n’est pas neutre sur le plan environnemental, car elle emploie du corindon. Je me suis demandé si on ne pouvait pas le remplacer par autre chose. Un confrère avait déjà essayé d’utiliser des matières végétales à base de coques de fruits et j’ai alors creusé cette idée. Des ajustements ont dû être réalisés, car une sableuse classique n’est pas adaptée pour utiliser de la matière végétale, un produit plus fragile. Par exemple, il n’est pas possible d’utiliser une vis sans fin pour l’acheminer et nous avons dû opter pour un système de dépression, le même que celui utilisé dans l’industrie agroalimentaire avec les farines. Ensuite, il a fallu procéder à des réglages pour projeter les billes végétales sur le support à décaper. Nous avons choisi de travailler à basse pression.

Après plusieurs mois de mise au point, la qualité de ce décapage à l’aide de billes de coques de fruits est bien meilleure comparée aux produits chimiques. Il n’y a aucune agression du support et l’on retrouve la matière première, comme si elle venait d’être chaudronnée par exemple. Notre technique permet d’éliminer le bain chimique puis le rinçage et donc l’utilisation d’eau. Il n’y a plus le risque d’oxydation du support comme c’était le cas avant puisqu’à présent on travaille totalement à sec.

Quelle est la deuxième innovation mise au point ?

Nous avons développé un procédé qui fonctionne sur le même principe qu’un lave-vaisselle. Les pièces sont d’abord placées dans des paniers, que l’on introduit dans une cabine, puis que l’on referme. À l’intérieur, les pièces sont aspergées à l’aide d’un produit liquide décapant 100 % végétal. Cette technique est adaptée à toutes les pièces, mais convient plus spécifiquement à celles présentant une fragilité comme des tôleries fines, de l’aluminium ou des matériaux rares qui ne doivent pas d’être déformés par des produits chimiques. Un partenaire m’a aidé à développer la chimie du liquide. Je ne peux pas en dire plus sur sa composition car ce procédé est encore en phase d’optimisation et il doit faire l’objet d’un brevet.

Décapage industriel – Crédit photo Çadécap

Grâce à cette nouvelle technique, les quantités de produits utilisés ont nettement baissé. Auparavant, on travaillait par immersion avec des pièces qui trempaient dans un bain. Par exemple, la machine que je développe consomme 150 litres de produits végétaux alors qu’auparavant, il fallait 2 à 3 tonnes de produits chimiques.

Décapage industriel – Crédit photo Çadécap

Comment réagissent vos clients face à ces nouvelles techniques de décapage ?

Un travail de démarchage commercial est à réaliser pour présenter notre nouvelle offre. Avec le contexte épidémique actuel, il est un peu difficile en ce moment de prendre des rendez-vous chez les clients. Je tente alors de communiquer via les réseaux. Mais tous nos clients qui ont déjà bénéficié de cette nouvelle technologie sont très satisfaits et ne veulent plus de la chimie. Le prix de la prestation est un peu plus élevé qu’un décapage classique, mais en contrepartie le support peut être repris en application directement, sans intervention supplémentaire. Il n’y a plus besoin de faire une préparation de surface avant d’appliquer une peinture par exemple. Du coup, cela entraîne un gain de productivité chez nos clients et au final, cela ne revient pas plus cher sur la chaîne de valeur.

« Développer des outils de production modulaires et délocalisables »

Le projet porté par Né d’une seule ferme, lauréat de l’appel à projets « relocalisation » lancé par le gouvernement, vise à renforcer la souveraineté alimentaire du pays, tout en permettant aux producteurs de lait de remonter dans la chaîne de valorisation de leur production.

André Bonnard a répondu aux questions de Techniques de l’Ingénieur pour revenir sur la genèse de ce projet et sur les atouts du concept d’outil de production modulaire.

Techniques de l’Ingénieur : Comment est né le projet Né d’une seule ferme ?

André Bonnard : L’histoire de Né d’une seule ferme trouve ses origines dans mon histoire personnelle et professionnelle. Plusieurs facteurs ont nourri la réflexion qui a abouti à sa création.

André Bonnard est le président de la startup Né d’une seule ferme.

Je suis à l’origine producteur de lait dans une exploitation, située en zone périurbaine dans la vallée du Gier, tournée vers la transformation et la vente directe. En 2009, un nouvel associé nous a rejoint pour créer une fromagerie sur l’exploitation. Deux ans plus tard, son épouse nous a à son tour rejoint dans le projet, alors que nous avions à ce moment-là investi environ 120 000 euros pour réaliser les aménagements nécessaires à la mise en place de la fromagerie.

Peu de temps après, le couple s’est séparé, d’un coup. Moins d’un mois plus tard, mes associés et moi nous sommes  retrouvés seuls dans une exploitation avec 120 000 euros d’investissements réalisés, nos propres magasins comme clients, et plus aucun savoir-faire pour la transformation du lait. Notre première réaction a été de penser à vendre cet atelier de l’exploitation, mais les actifs cessibles ne dépassaient pas 30 000 euros, cela aurait donc été une très mauvaise opération financière. J’ai alors pu constater à quel point il peut être compliqué et risqué de vouloir créer une activité de transformation sur son exploitation.

Ensuite, professionnellement, j’ai eu une activité syndicale, en tant que secrétaire général de la fédération nationale des producteurs de lait. A ce titre-là, je participais au conseil d’administration de l’interprofession laitière, j’étais donc très au fait des tendances de consommation qui se dégageaient de toutes les études et enquêtes réalisées par l’interprofession. Deux signaux faibles émergeaient alors : d’abord, une lente baisse de la consommation des produits laitiers frais, due aux incertitudes, voire aux doutes des consommateurs quant à la composition des yaourts. Le fait que la majorité des yaourts soient produits par des multinationales ajoutait à cette méfiance. L’autre signal faible dessinait une tendance des consommateurs à se tourner vers une consommation plus locale et artisanale.

Vous avez également suivi de près le développement des microbrasseries. Pour quelles raisons ?

Aujourd’hui, tout le monde sait ce qu’est une microbrasserie. Alors que la bière souffrait d’une image assez mauvaise, la multiplication des microbrasseries a totalement métamorphosé l’image de ce produit auprès du public. Les bières sont aujourd’hui des produits artisanaux, avec des ingrédients naturels, agricoles que l’on peut déguster comme on le fait avec le vin. Si cela marche avec la bière, pourquoi pas les produits laitiers… Le problème des microbrasseries, de mon point de vue, est que même si l’image de la bière s’est améliorée et que son prix de vente a augmenté avec, la valeur créée n’est pas remontée jusqu’aux producteurs d’orge, de houblons… c’est la limite de ce modèle selon moi.

Au final, mon passé syndical m’incite à pousser les producteurs à transformer leurs produits pour remonter dans la chaîne de valeur, mais mon expérience personnelle m’a permis d’entrevoir les difficultés et les risques liés à de telles entreprises. L’idée de Né d’une seule ferme est venue de là : fournir aux producteurs de lait un outil de production sans risque et délocalisable. Les containers intégrant une yaourterie que nous déployons sur les exploitations sont loués par les producteurs. Cela annule les risques financiers habituellement inhérents au démarrage de ce type d’activité. Si un producteur veut stopper sa production de yaourt pour une raison ou pour une autre, cela ne comporte aucune difficulté particulière, nous retirons simplement le container.

Comment fonctionnent ces containers ?

Les containers font six mètres de long pour deux mètres de large. Cette taille est destinée à éviter les contraintes imposées par le code de l’urbanisme : nous pouvons les installer partout.

Les containers développés par Né d’une seule ferme abritent une yaourterie.

Les containers sont reliés au tank à lait de l’exploitation : le lait est ainsi pompé dans les containers où il entre directement dans un pasteurisateur et est chauffé pendant 10 minutes à 90 degrés. Ensuite, le lait est refroidi pour être stabilisé à 45 degrés. On ajoute alors les ferments, puis l’opérateur met en pot les yaourts avant de les mettre à l’étuve. 

L’étuve est réversible, c’est d’ailleurs l’innovation majeure de notre container : une fois le temps d’étuve terminé, la température baisse et l’étuve joue alors le rôle de chambre froide. Quelques heures plus tard, les yaourts sont enlevés de la chambre froide et on peut alors recommencer l’opération.

L’utilisation d’un container dédié, adapté à la production de yaourts nous permet de produire des yaourts ayant une date limite d’utilisation de 35 jours, comparable à ce qui se fait industriellement.

En termes de volume, nous pouvons transformer 1000 litres de lait par semaine.

Vous faites aujourd’hui partie des 65 entreprises sélectionnées par le gouvernement sur le volet relocalisation du plan de relance. Qu’est-ce qui a fait pencher la balance en votre faveur ?

Je pense que le fonctionnement de Né d’une seule ferme, qui permet aux producteurs de récupérer de la valeur sur leur production de lait en la transformant avec un minimum de contraintes sur l’exploitation a été un atout pour notre candidature.

Aussi, les containers que nous proposons permettent de valoriser des productions territoriales, donc l’aspect relocalisation de notre projet est très impactant de ce point de vue. 

Né d’une seule ferme est une jeune startup, créée en 2019. Où en êtes-vous concrètement aujourd’hui ?

A la création de la startup en 2019, nous avons immédiatement mis en place un partenariat avec l’enseigne de grande distribution Intermarché, avec pour premier objectif de réaliser la démonstration de notre premier container pour le salon de l’agriculture 2020. C’est ce qui s’est passé, jusqu’à ce que le salon ferme à cause de la pandémie naissante de coronavirus. Malgré tout, cette présence sur le salon de l’agriculture nous a permis de montrer notre produit et de se faire connaître des producteurs de lait, qui se sont manifestés en nombre pour accueillir nos containers et démarrer une activité de transformation.

Depuis, nous avons mis nos premiers containers en activité et aujourd’hui nous avons 6 containers en fonctionnement. Le but est de disposer d’une quinzaine de containers en fonctionnement d’ici la fin de l’année.

Comment est gérée la logistique pour le transport des yaourts produits sur les exploitations ?

Je pense que si on veut être efficace, il faut s’inscrire dans les circuits logistiques préexistants. C’est ce que nous faisons, en nous intégrant au circuit de distribution de notre partenaire Intermarché. De cette manière, nous avons la possibilité de nous implanter dans des exploitations, localement, sans avoir à créer une chaîne logistique dédiée, ce qui serait extrêmement contraignant en termes de rentabilité et de bilan carbone.

Songez-vous au développement de containers assurant d’autres types de transformations ?

Au-delà de l’aide qui nous a été allouée via l’appel à projets du plan de relance, nous avons également bénéficié d’une aide de la BPI pour développer des containers de production d’autres produits : crèmes dessert, compotes… ce qui est intéressant, c’est que pour un produit comme le yaourt, le fait que le marché soit monopolisé par des grandes multinationales débouche inévitablement sur une standardisation extrême des produits. Du coup, il reste de la place pour innover technologiquement et industriellement. D’ailleurs, je répète à l’envie que Né d’une seule ferme est un produit fermier mais que l’innovation est industrielle, tant du point de vue du container que de la recette.

Pensez vous que des outils de production modulaires, à l’instar du container que vous proposez et qui fait office de yaourterie, pourraient dans un avenir proche devenir des outils utilisés massivement pour la transformation de produits agricoles localement ?

Je suis convaincu que nous allons vers cela. D’ailleurs, la meilleure preuve réside dans le fait qu’un grand groupe comme Unilever est en train de s’inspirer de notre modèle pour développer cette activité de transformation. 

Aussi, le fait de développer des unités de production modulaires nous permet, par exemple, d’utiliser du PP pour les pots de nos yaourts. Danone, par exemple, envisage de passer au PP au mieux en 2025. Cette agilité que nous offre le concept des containers est également un atout pour mieux implémenter l’innovation dans nos outils et nos produits.

Nous sommes également en mesure de répondre à des demandes clients très spécifiques et en petites séries, ce qui est inenvisageable pour les multinationales du secteur.

Propos recueillis par Pierre Thouverez

Un métamatériau mécanique reprogrammable par champ magnétique

Les métamatériaux mécaniques sont des matériaux dont le comportement est défini par l’architecture de leur structure et non par leur composition chimique.

Dans un article précédent, nous vous présentions les voxels, des structures déformables en treillis étonnantes, développées par le MIT et assimilables à des pixels volumiques. Le métamatériau dont il est question ici est également déformable et flexible, mais surtout programmable.

Assemblage de m-bits en 2 dimensions (crédit : Alain Herzog / EPFL)

Un objectif : aller plus loin que la réalisation de métamatériaux

Si de telles structures flexibles présentent un intérêt mécanique certain, Tian Chen, postdoctorant dans les laboratoires des structures flexibles de Pedro Reis et d’informatique géométrique de Mark Pauly de l’EPFL, désirait aller plus loin.

« Je me suis demandé comment modifier la géométrie de la configuration interne d’un matériau après qu’il soit conçu. Le but est qu’il puisse posséder plusieurs fonctions mécaniques, telles que la rigidité et la résistance, sans avoir besoin d’être remplacé. Par exemple, en cas de blessure, il arrive que l’on doive porter une attelle rigide, qui limite passablement le mouvement. Mais au fil de la convalescence, il devient parfois nécessaire d’en utiliser une plus souple. Aujourd’hui, on doit en employer plusieurs. À l’avenir, peut-être qu’une seule suffira », explique Tian Chen dans un récent communiqué de presse de l’EPFL.

Son objectif semble avoir été atteint, comme le montre l’étude publiée dans le journal Nature.

Ce nouveau matériau se présente sous la forme d’un assemblage 2D d’éléments physiques unitaires capables de se déformer sous l’effet d’un champ magnétique. Ces éléments physiques binaires, auxquels les chercheurs ont donné le nom de m-bit, ont pour rôle de transformer une information analogique en une information digitale.

Un m-bit fonctionne à la manière d’un interrupteur, la position “ON” correspondant à l’état rigide et la position “OFF” à l’état déformé. Par contrôle magnétique de chaque m-bit, il est ainsi possible de stocker des données sous forme numérique, chaque bit pouvant être écrit ou lu en temps réel*.

Un procédé de fabrication simple et abordable

Chaque m-bit est constitué de 4 parties en silicone, obtenues par moulage à partir de moules imprimés en 3D. La partie magnétique, au centre, est un matériau élastomère magnéto rhéologique (MRE), également conçu par moulage. C’est ce capuchon magnétique, constitué de silicone additionné d’une poudre d’aimant au néodyme (NdFeB, 5µm) qui permet au m-bit de se comprimer sous l’effet d’un champ magnétique.

Tian Chen tenant dans sa main un m-bit. La partie noire au centre du m-bit est le capuchon magnétique permettant le passage de la position ON à la position OFF. (credit : Alain Herzog / EPFL).

Bien que ces travaux soient encore au stade expérimental, ils montrent qu’il est possible de réaliser de tels métamatériaux avec des procédés simples et abordables. En effet, les machines utilisées pour la fabrication des moules sont des imprimantes 3D SLA de bureau standard, disponibles sur le marché. De même, la plupart des équipements impliqués dans le procédé de fabrication des m-bits sont largement répandus, ce qui facilite une potentielle industrialisation à grande échelle.

*La vidéo du dispositif en fonctionnement est disponible dans le communiqué de presse de l’EPFL.

Écoconception : évaluer les leviers de réduction d’impact du numérique

Nous l’avons vu dans un précédent article, le plus gros impact du numérique concerne sa partie matérielle. Des consortiums, entreprises, laboratoires de recherche réalisent des outils pour permettre d’évaluer l’impact de ces services numériques et amorcer l’écoconception des services numériques. « On ne va pas écoconcevoir le site web en lui-même, mais bien l’acte pour que celui-ci nécessite moins de temps sur le terminal, consomme le moins de bande passante possible et de serveurs possibles et ce, sur des terminaux les plus vieux possibles, précise Frédéric Bordage, créateur de la communauté GreenIT.fr spécialisée dans l’informatique durable. Le choix de conception est d’abord une problématique fonctionnelle et métier avant d’être technique. Et pour cela, on va adopter une posture de sobriété : plus c’est simple, moins il y aura d’impact, plus ce sera fluide et moins cher à maintenir ». Sa société fait partie du consortium d’entreprises composant NegaOctet, un projet de recherche subventionné par l’Ademe pour développer un référentiel d’évaluation des impacts environnementaux des services numériques, basé sur l’analyse du cycle de vie, en vue de leur écoconception.

D’autres entreprises mettent en avant la recherche d’impact liée à la partie logicielle, sans pour autant exclure le matériel. « On ne peut pas dire qu’un logiciel consomme de l’énergie, nuance Thierry Leboucq. Mais un logiciel fait consommer un matériel. Et à partir du moment où vous faites des instructions qui demandent plus de ressources, de CPU, de mémoire, de données, etc., on peut dire qu’il y a impact. Ou alors si le logiciel demande que le matériel soit plus performant pour faire le même traitement, et nécessite un remplacement. »

Et les mails ? Et les vidéos en ligne ?

De nombreux messages circulent sur internet : il faut nettoyer sa boîte mail, réduire la consommation de vidéos en ligne, vider son cloud, etc. « Derrière ces messages concernant les boîtes mails [ou des vidéos, ndlr], il s’agit avant tout de sensibiliser le public aux problématiques du numérique, explique Romain Rouvoy, chercheur dans l’équipe Spirals d’Inria qui a développé l’outil PowerAPI. Pour de nombreuses personnes, il est difficile de se rendre compte que le numérique consomme. Quand on fait une recherche Google par exemple, ce n’est pas juste la consommation du terminal qui est à prendre en compte, mais tout le réseau derrière qui va acheminer la requête, de l’ensemble des serveurs qui vont traiter la donnée – qui a été au préalable indexée – et le réseau qui va rapatrier le résultat de la requête. L’objectif est de faire prendre conscience que ça coûte. Il faut beaucoup de matériels pour avoir la recherche instantanée. »

L’Ademe a de son côté réalisé une sorte de guide intitulé « La face cachée du numérique : réduire les impacts du numérique sur l’environnement » destiné au grand public pour mieux percevoir la consommation de chaque acte numérique. Sans oublier que la partie matérielle est celle qui a le plus d’impact sur l’environnement. « Certains gestes individuels (augmentation de la durée de vie de ses terminaux, utiliser le wifi plutôt que la 4G, etc.) permettent de diminuer directement les impacts environnementaux de nos usages, explique The Shift Project. Nombre d’entre eux visent par contre un objectif différent, mais complémentaire : comprendre et identifier nos besoins réels. »

Plastic Odyssey : départ en juin avec un fablab contre la pollution plastique

Le départ se prépare. Bientôt, dix machines de recyclage de 500 kg chacune prendront place à bord. Des appareils « low tech » que les membres de l’expédition ont développés afin qu’ils soient simples à répliquer partout dans le monde et avec très peu d’outils. L’expédition ambitionne d’accueillir à bord des entrepreneurs pour créer des structures de collecte et de recyclage locales dans les pays traversés. Les déchets non recyclables seront quant à eux transformés en carburant grâce à la pyrolyse du plastique.

Plastic Odyssey vient de mettre à l’eau son bateau à Dunkerque / Plastic Odyssey

De juin à septembre, le navire Plastic Odyssey fera son Tour de France. Le rendez-vous est pris à Dunkerque, à Rouen, au Havre, à Brest, à Concarneau, à Nantes, mais aussi à La Rochelle, Bordeaux et Casablanca. L’arrivée est prévue à Marseille début septembre pour participer au Congrès Mondial de la Nature (IUCN). À son bord, divers porteurs de projets se succéderont entre juin et août 2021, la sélection est en cours. « On veut se servir de ce bateau qui peut accueillir 20 personnes comme un fablab qui accueillera en résidence des ingénieurs, des designers, des entrepreneurs pour travailler avec les machines à disposition sur une problématique précise », partage Simon Bernard, président de Plastic Odyssey.

Un programme d’incubation à bord du navire

Pendant 2 à 4 semaines, les porteurs de projets pourront expérimenter et développer leurs solutions de valorisation des déchets plastiques grâce aux machines embarquées, en collaboration avec les chercheurs, ingénieurs et autres experts à bord. « L’idée est de créer une filière de recyclage qui fonctionne et d’identifier le débouché qui répond localement à un besoin et qui pourra être vendu, précise Simon Bernard. En somme, l’objectif de ces expérimentations est de trouver des modèles économiques viables associés à un produit et un modèle. »

« Il peut s’agir par exemple de la création d’un objet à partir de déchets plastiques spécifiques ou du remplacement de certaines pratiques et usages de matériaux (plastiques vierges, matières polluantes, matières premières non-renouvelables, etc.) par des plastiques recyclés », peut-on lire dans l’appel à candidatures. L’atelier permet de traiter le polyéthylène haute densité (PEHD) ou basse densité (PEBD), rigide ou souple, le polypropylène (PP) rigide ou souple, et le polystyrène (PS) rigide.

Vers un vrai catalogue de solutions contre la pollution plastique

Plastic Odyssey souhaite ensuite proposer le plan des machines, les procédés, les modèles économiques en accès libre pour donner toutes les clés à un entrepreneur qui souhaiterait lancer son entreprise de recyclage avec cette preuve de concept. « Cela commence en France, mais on aimerait le faire à chaque étape, avance Simon Bernard. L’idée est que l’on ait ensuite des locaux qui viennent travailler dans le laboratoire flottant mis à disposition. À la fin du tour de monde, on aura un vrai catalogue de modèles économiques qui ne demandera qu’à être répliqué. »

Datacenters : des bâtiments ultrasécurisés où le risque zéro n’existe pas

Les datacenters sont d’énormes bâtiments répartis un peu partout dans l’hexagone. Ils sont constitués essentiellement de cinq types de locaux : des bureaux, des salles serveurs (ou salles blanches), des locaux techniques, des zones recevant les fibres locales et des espaces communs. Schématiquement, on peut les considérer comme des hangars contenant des milliers de disques durs sur lesquels sont stockées les données d’entreprises publiques et privées.

Autant dire que les datacenters sont devenus un maillon essentiel à l’activité d’un pays. Résultat, l’incendie qui a touché un bâtiment d’OVH a immédiatement impacté de nombreux secteurs. L’enquête en cours permettra de déterminer sa cause. Il pourrait s’agir d’un dysfonctionnement d’un onduleur qui avait subi une intervention le jour même de la catastrophe selon Octave Klaba, le président fondateur d’OVHcloud, dans une communication vidéo diffusée jeudi 11 mars.

« Les onduleurs utilisent des batteries avec des composants qui dégagent de la chaleur (lithium Ion, lithium, thyristors, transistors…). Et si cette chaleur n’est pas correctement dissipée, ces composants brûlent. Il est alors trop tard, car il s’agit d’équipements qui contiennent des produits inflammables, explosifs », explique, au site spécialisé LeMagIT, Franquelin Lopes, directeur technique du Jiliti, un prestataire expert dans la conception des datacenters.

Salles étanches

Les onduleurs de grosses puissances sont généralement associés à des dispositifs permettant de dissiper la température, lesquels comprennent une ventilation et un contrôle obligatoire lors de maintenances régulières. Une mauvaise ventilation, ou une maintenance défaillante peuvent provoquer une augmentation de la température de ces onduleurs. Et c’est cette chaleur qui est susceptible de provoquer l’incendie dans un datacenter.

C’est d’ailleurs la principale cause des incendies. Selon une étude du Laboratoire Lavoue (spécialisé depuis 1983 dans l’analyse des sinistres incendies et industriels), 22 % des incendies expertisés étaient d’origine électrique (installations ou récepteurs), répartis de façon égale entre les installations (11 %) et les récepteurs (11 %).

Pour parer à de nombreux risques naturels (orage, ouragans comme cela est fréquent au Texas…) et à des actes malveillants (tentative d’infiltration physique ou via un virus…), un datacenter doit respecter la réglementation en vigueur. Le cadre législatif, en matière de construction, dépend de la nature et du type du bâtiment et de son activité. Les textes applicables imposent des dispositions sur les principes de sécurité-incendie. Les objectifs sont de limiter la propagation de l’incendie ainsi que de faciliter l’intervention des secours et l’évacuation des occupants.

Parmi les systèmes d’extinction, on distingue les systèmes d’extinction automatique (eau, gaz, brouillard d’eau) et les extincteurs portatifs. Utilisables très rapidement, ces derniers permettent d’intervenir dès le début d’un incendie et d’attaquer les flammes dès leur formation. On peut également citer les Robinets d’Incendie Armés (RIA), les colonnes sèches (pour les zones sensibles, comme celles contenant des serveurs), colonnes humides, les rideaux d’eau et les accessoires (bacs à sable, couvertures…) qui sont des moyens d’extinction, mais moins courants dans ces types de locaux.

Les systèmes de sécurité comprennent également des systèmes audio-vidéo en circuit fermé, des systèmes biométriques et des systèmes de surveillance du périmètre. Selon OVH, 300 caméras étaient présentes dans le datacenter ravagé par les flammes. « Nous devons analyser les images pour comprendre exactement ce qu’il s’est passé avant l’incendie, au moment où l’incendie a démarré et comment le feu s’est propagé, mais aussi pour comprendre comment améliorer notre sécurité », a indiqué Octave Klaba.

Le cloud a des limites…

Les datacenters doivent intégrer différentes salles étanches pour protéger leurs serveurs, mais aussi pour éviter la propagation d’un feu dont l’origine serait des matériaux inflammables. Pour éviter cela, une pièce séparée doit être aménagée pour retirer les équipements des boîtes avant de les transporter vers le centre de données.

La conception de ces bâtiments revêt une importance capitale. Or, le datacenter (SBG2) d’OVH qui a brûlé était une tour autoventilée. Pour réduire l’impact environnemental, le refroidissement se faisait par la circulation naturelle de l’air, grâce à la différence de pression entre le bas et le haut de la tour. Or, le bâtiment voisin (SBG3), de conception entièrement différente, plus moderne et avec de nombreuses salles étanches, n’a pas été impacté par le feu, alors qu’il est accolé à celui qui a été détruit par les flammes.

Mais cet incendie doit être aussi l’occasion de rappeler aux entreprises que le risque zéro n’existe pas. Trop d’entreprises considèrent le cloud comme la solution idéale à tous les maux. En mettant « tous leurs œufs dans le même panier », elles s’exposent à une perte d’activité comme c’est le cas pour de nombreux sites ou services qui sont restés inaccessibles durant plusieurs jours à cause de l’incendie du datacenter d’OVH.

Même avec ses données dans le cloud, les entreprises doivent avoir un Plan B avec des sauvegardes hébergées chez d’autres prestataires…

Développement d’un capteur inertiel à atomes froids intégré à une puce

Avions, satellites mais aussi sous-marins peuvent avoir besoin de se localiser sans signal de référence de type GPS. Ils embarquent alors des centrales inertielles dotées d’horloges, de capteurs d’accélération et de rotation permettant de déterminer de manière autonome une position à partir de la mesure de forces inertielles. Situé à l’Observatoire de Paris, le laboratoire SYRTE (Systèmes de Référence Temps-Espace) étudie les possibilités offertes par l’interférométrie atomique afin de réaliser des systèmes de guidage d’une grande précision. Il développe en particulier des capteurs inertiels à atomes froids sur une puce. Cette technologie quantique pourrait ouvrir la voie à de nouvelles applications, notamment pour le secteur de la défense.

Pour ce travail de recherche, les chercheurs utilisent un interféromètre atomique qui fonctionne sur le même principe que l’interféromètre optique. En effet, à l’image des photons pour la lumière, les atomes possèdent également une onde associée et peuvent donc interférer. À partir d’une onde atomique, un laser va en générer deux ; ces ondes vont alors effectuer des trajets différents, puis se recombiner, créant ainsi des franges d’interférence. Ce mécanisme est à la base du mode de fonctionnement du capteur inertiel en cours de développement. « La source laser va émettre un faisceau qui est réfléchi par un miroir et les atomes vont se propager librement entre les interactions lasers dans une chambre à vide, explique Carlos Garrido Alzar, chercheur au SYRTE. Les atomes vont nous fournir ainsi un référentiel inertiel à partir duquel on va mesurer les déplacements des faisceaux laser ». Les scientifiques utilisent des atomes refroidis par laser, en l’occurrence du rubidium, afin de disposer de temps de mesure très longs.

Une technologie compacte pour intégrer des applications embarquées

Pour rendre cette technologie opérationnelle pour la navigation, il est nécessaire de l’intégrer sur une puce microélectronique. L’équipe de recherche est parvenue à créer des microcircuits à atomes froids de sorte à rendre cette technologie compacte et pratique pour des applications embarquées. « Pour franchir cette étape, une des difficultés est de réussir à fabriquer des microfils ayant des largeurs très différentes sur un même substrat, c’est-à-dire allant de quelques millimètres au micromètre, confie le chercheur. Nous y sommes parvenus en laboratoire, maintenant il faudrait réussir à le faire grâce à un procédé industrialisable. »

Microcircuit à atomes froids – Crédit Photo Laboratoire SYRTE

Le principal avantage de ce capteur inertiel à atomes froids sur puce réside dans ses très grandes sensibilité et stabilité. Elle s’explique par l’utilisation d’un nuage d’atomes préparé dans un état quantique bien défini. Contrairement aux capteurs inertiels actuellement en service, il est donc inutile de calibrer périodiquement ce nouvel instrument à l’aide par exemple d’un signal GPS afin de vérifier qu’il est sur la bonne trajectoire.

Ce nouveau capteur devrait trouver des applications dans le secteur de la défense, il est d’ailleurs développé en collaboration avec Thales Research & Technology (TRT).  Il pourrait par exemple être embarqué dans des avions afin que leur positionnement reste précis même en cas de brouillage des radars. « Une autre application potentielle concerne la réalisation de centrales de navigation autonomes hybrides pour des satellites impossibles à contrôler en temps réel depuis la terre. »

Une quinzaine d’années sera nécessaire avant de voir un nouvel instrument opérationnel sur le terrain ; il reste pour l’instant au stade de la preuve de concept. « En plus du microcircuit à fabriquer de manière industrielle, nous devons rendre compact tout l’environnement autour comme l’optique utilisée pour le laser, le système de détection ainsi que celui de contrôle et traitement de données », ajoute Carlos Garrido Alzar.

Ces quatre robots s’inspirent des capacités des plantes

Lorsqu’elles se tortillent pour atteindre la lumière, se referment sur leur proie ou se faufilent dans le sol, les plantes font preuve d’une remarquable « stratégie » pour se développer. Ces capacités intéressent la recherche en robotique, même si les exemples de réalisations sont bien moindres que pour les modèles animaux. Un déséquilibre confirmé par la Dr Barbara Mazzolai du centre de micro-biorobotique à l’Institut italien de Technologie (ITT), coordinatrice des projets européens Plantoïd et Growbot, que nous développerons dans l’article. « Ceci est probablement dû à leurs principes opérationnels, qui diffèrent radicalement de ceux des animaux, et aux difficultés à étudier leurs mouvements et caractéristiques, expliquait-elle dans le magazine Projet*EU en mars 2014. Par conséquent, les plantes sont souvent considérées comme des organismes passifs, incapables de se mouvoir, de communiquer et d’échapper à un environnement hostile ». Ce qui est loin d’être la réalité ; la preuve avec ces trois travaux de recherche que Techniques de l’Ingénieur a sélectionnés.

Plantoïd déploie ses racines

Commençons par le projet de recherche européen Plantoïd, dédié à la robotique inspirée des racines des plantes pour la surveillance des sols. Financé par l’Union européenne (programme-cadre) et coordonné par l’Institut italien de Technologie (ITT), il s’est déroulé du 1er mai 2012 au 30 avril 2015 (36 mois). L’objectif de ce projet consistait à mieux comprendre les principes permettant aux racines d’explorer et de s’adapter de manière efficace et efficiente aux environnements souterrains, mais également la communication entre les apex pendant la croissance adaptative et les informations sensorielles pour la prise de décision collective.

Deux prototypes ont été réalisés : des arbres, dont les troncs de plastique ont été imprimés en 3D et qui embarquent de l’électronique. Les feuilles capteurs mesurent différents paramètres comme la température, l’humidité, la pesanteur, les facteurs chimiques. Sur l’un des deux prototypes, explique Science et Avenir, « les racines peuvent se déplacer en réponse aux stimuli envoyés par les capteurs placés à leurs extrémités et ainsi éviter un caillou ou une zone polluée » et sur l’autre, « le système racinaire-robot est capable d’une croissance artificielle ». Parmi les applications possibles : la détection de la concentration de nutriments, polluants, minéraux, eau dans le sol.

Ce projet a abouti à différentes publications scientifiques sur la flexion et la force dans un corps souple inspiré des racines, une nouvelle génération d’actionneurs souples hygromorphiques contrôlables électriquement, un nouvel outil de suivi pour l’analyse des mouvements du méristème ou encore un système mécatronique miniaturisé pour l’exploration des sols.

Growbot grimpe sur les murs

Un second projet européen – toujours financé par l’Union européenne et coordonné par l’ITT – a débuté en janvier 2019 (pour 48 mois) et est dédié quant à lui aux déplacements des plantes grimpantes. Baptisé Growbot, son objectif est de développer des robots de faible masse et de faible volume capables de s’ancrer et escalader une surface, ainsi que « négocier le vide » (elles poussent, parfois en suspension dans le vide, jusqu’à rencontrer une surface à laquelle s’accrocher). L’objectif est de réaliser des robots plus agiles, capables de se déployer et de se mouvoir sur des surfaces non planes. Le projet donne l’exemple des robots d’escalade basés sur des roues, des jambes ou des rails, qui se coinceraient ou tomberaient.

Ce projet a fait l’objet de quelques publications en 2020, notamment sur la circumnutation (les mouvements de flexion lors de la croissance) des racines, ou encore sur les trichomes (les « poils ») à la surface des plantes pour s’accrocher (et se décrocher).

Un bras robotique extensible

MIT a développé un bras robotique qui peut s’étendre dans différentes directions, comme pour atteindre une hauteur ou un endroit difficile d’accès. Présenté en novembre 2019, il s’inspire de la croissance des plantes, notamment la façon dont une jeune pousse se développe depuis sa graine à ses premières feuilles. Contrairement à la plante, le robot peut revenir dans son état initial et se recroqueviller. Il ne s’agit pas ici d’un robot souple, comme on pourrait l’imaginer, mais d’une chaîne à pignon pouvant être commutée grâce à un actuateur (moteur électrique permettant d’actionner une fonction) entre un état flexible et un état rigide.

Selon les auteurs de la publication, il peut supporter une charge importante, dispose d’une plaque pour fixer un effecteur final (comme une pince, par exemple) et transporter un objet.

Le robot du MIT se déploie comme une jeune pousse. Crédits: Image fournie par des chercheurs, éditée par MIT News

Ces origamis réagissent à leur environnement

Loin de l’image traditionnelle du système robotique, ces robots plantes sont faits de papier. Les travaux réalisés par des scientifiques de l’Université de Bilkent (Turquie) ont été publiés dans Soft Robotics en août 2020. Ces origamis reproduisent deux propriétés d’autorégulation des plantes que sont l’héliotropisme et la nyctinastie. En d’autres termes, elles suivent le soleil et ouvrent leurs feuilles. Cette reproduction de la régulation biologique végétale a été obtenue grâce à un mécanisme de transpiration – de l’eau est injectée dans les origamis – en utilisant un hydrogel au niveau des jointures (zones préalablement coupées pour le dépôt d’hydrogel). Lorsque le gel est hydraté, l’actionneur reste plat (gonflé). A l’inverse, lorsque le gel est déshydraté, c’est-à-dire lorsqu’il s’assèche (transpiration) par l’éclairage (dans l’étude, avec une lampe infrarouge de 250 W), l’actionneur se rétracte en fonction de la quantité d’eau dans le gel (contracté) et fait basculer la plante de papier vers l’éclairage. Un tel système d’autorégulation pourrait être intéressant dans la conception de robots plus efficaces énergétiquement, par exemple.

Imprimer des pièces détachées pour les industriels, le pari de Spare Parts 3D

Lorsqu’il a créé Spare Parts 3D en 2016, l’objectif de Paul Guillaumot était de pouvoir fournir aux entreprises une solution de réplication de leurs pièces détachées. Grâce à la création d’un software, l’entreprise est capable de réaliser un inventaire numérique des pièces de leurs clients. Le fondateur et CEO de cette start-up affirme que cette solution a de multiples avantages.

Techniques de l’Ingénieur : Comment avez-vous eu l’idée de créer Spare Parts 3D ?

P. Guillaumot (c) Spare Parts 3D

Paul Guillaumot : Je me suis rendu compte du potentiel des technologies de fabrication additive. Mais surtout, j’ai eu une visibilité à la fois du niveau de maturité industrielle et du potentiel. Je me suis donc mis en quête d’une solution qui me permettrait de fournir un système d’inventaire numérique et de production à la demande de pièces détachées. Cela a été motivé par une envie de réduire les stocks, les délais d’approvisionnement et les problèmes d’obsolescence. En clair, mon but était de régler le problème de la pièce détachée. Or, ce n’est pas simple.

Quel est ce problème ?

Dans les entreprises, il n’y a jamais la bonne pièce au bon endroit au bon moment. Et malgré les stocks parfois faramineux de pièces détachées présents chez les industriels, les niveaux de services ne sont pas toujours optimaux.

Qui sont vos clients ?

Ce sont des grands industriels. Par exemple, nous comptons parmi nos clients des géants de l’électroménager. Nous travaillons avec eux depuis quelques années déjà. Pour eux, nous fabriquons des petites ou moyennes pièces à la demande. Ensuite, nous travaillons avec d’autres industriels qui exercent dans l’industrie lourde. Ils sont par exemple dans la pétrochimie ou l’aciérie. Nous pouvons aussi travailler avec des sociétés qui exercent dans des secteurs très réglementés. Mais nous ne sommes pas forcément en développement commercial sur ces secteurs-là, parce que les délais sont trop longs. Cela est lié aux certifications, aux approbations systématiques nécessaires pour ces secteurs, qui de fait bougent très lentement.

Pourquoi vous êtes-vous lancé dans le marché de la fabrication additive ?

Aujourd’hui, la fabrication additive représente environ 11 milliards d’euros de chiffre d’affaires annuel. Et selon les estimations du cabinet de conseil en stratégie américain McKinsey, ce chiffre pourrait même atteindre quelques centaines de milliards d’ici 2025. Mais personnellement, je placerais plutôt cette barre à 2030. Aujourd’hui, 14 % des industriels dans le monde ont fait imprimer des pièces détachées. D’ici les deux prochaines années, ils seront 46 %. Nous avons réussi à identifier pourquoi ils ne sont que 14 %. La grosse difficulté pour pouvoir faire des grandes quantités de pièces, c’est d’abord d’identifier les pièces qui sont productibles et de trouver quelles sont les technologies qui peuvent être utilisées. Parce que l’impression 3D, ce n’est pas qu’une seule technologie, mais plutôt plusieurs qui peuvent intégrer également plein de matières. À l’heure actuelle, nous avons 2 500 solutions techniques dans notre software.

Comment fonctionne votre solution ?

Nous digitalisons la chaîne d’approvisionnement de pièces détachées. Concrètement, nous nous rendons chez l’industriel et nous analysons les données issues des systèmes d’information sur des ensembles de plusieurs dizaines de milliers de pièces. Ensuite, nous leur présentons ce qui peut être imprimé et les technologies pour le faire. Au lieu d’avoir un circuit de production conventionnel avec des grosses usines, beaucoup de transport et de stockage, on crée des inventaires de pièces digitaux. Puis on fait de la production à la demande locale, à l’aide de machines d’impression 3D. Notons que nous n’effectuons pas ces tâches en interne. Nous gérons un réseau de production d’entreprises spécialisées dans la fabrication additive. Ce sont les services bureaux. Ces entreprises sont des spécialistes qui font beaucoup de prototypage. Elles travaillent localement avec les industriels de leur région. Nous leur achetons la capacité machine sur différentes matières, machines, technologies dont on a besoin et là où on en a besoin. C’est-à-dire dans plus de 25  pays dans le monde.

DigiPart – Analyse technique de pièce (c) Spare Parts 3D

Quels sont les avantages pour vos clients ?

Notre point fort est notre solution de software 3 en 1. À l’aide de cela, nous pouvons créer des inventaires digitaux beaucoup plus rapidement et efficacement. Et à moindre coût. De plus, cela permet d’avoir des inventaires prêts à l’impression 3D. Ainsi, nous regroupons toutes les infos nécessaires pour sourcer les pièces. Et derrière, nous allons jusqu’à connecter avec nos sous-traitants pour pouvoir demander et gérer en temps réel la production.

Comment parvenez-vous à créer des pièces d’une manière plus optimisée que vos clients ?

Nous réalisons une analyse d’imprimabilité des pièces. Par exemple, sur un catalogue de 20 000, nous sommes capables de dire lesquelles sont plus ou moins imprimables. Le client nous donne un inventaire numérique de ses pièces, et nous l’analysons pour vérifier s’il est possible ou non de les réimprimer. Notre avantage est d’avoir une démarche systématique, automatisée, qui peut être déployée sur un très grand nombre de pièces.

Sur quels critères se définit l’imprimabilité d’une pièce ?

Dans un premier temps, il faut savoir si la pièce peut entrer dans la machine. C’est important parce que chaque technologie a des limites sur la taille des pièces qu’elle peut produire. Il y a aussi des contraintes liées aux formes géométriques. Après, il faut vérifier ce qui a trait à l’analyse fonctionnelle, c’est-à-dire tous les besoins techniques de la pièce. Par exemple, les contraintes mécaniques attendues en termes de flexion ou en traction, l’élongation, la température d’utilisation ou encore l’absorption en eau. L’objectif pour nous est de rechercher une solution technique qui réponde à un maximum de critères. En règle générale, nous parvenons à respecter environ 80 % des critères. Un ingénieur vient ensuite vérifier si ces légères différences n’entravent pas le bon fonctionnement de la pièce.

Les pièces sont-elles imprimées dans le même matériau que la pièce originale ?

Ce n’est pas toujours le cas. Dans de nombreux cas, l’utilisation d’une matière différente n’a pas d’incidence négative sur le fonctionnement de la pièce détachée.

(c) Spare Parts 3D

Votre solution présente-t-elle des intérêts écologiques ?

Oui, à trois niveaux. Premièrement, lorsque l’on se trouve face à de l’obsolescence, la pièce détachée évite de remplacer la machine entière. Deuxièmement, nous réduisons le besoin en matière en imprimant directement la pièce à sa bonne forme. Cela permet d’économiser environ 40 % de matière. Enfin, notre solution permet de relocaliser la production. De ce fait, les transports sont drastiquement réduits.

Le Dark web : une nébuleuse composée de milliers de sites miroirs

Dark web, Dark net, Deep web… Ces trois termes font régulièrement la Une des médias lorsque des opérations menées conjointement par les autorités policières (mais aussi des entreprises privées comme Microsoft) de différents pays et Interpol démantèlent un réseau.

Mais ces trois termes ne caractérisent pas les mêmes univers. La partie immergée est constituée du Dark net et du Dark web. Le premier regroupe des réseaux privés et partagés uniquement entre amis (friend-to-friend).

Créé par la Marine américaine pour protéger ses activistes, le Dark web regroupe des sites qui ne sont pas référencés par les moteurs de recherche et qui nécessitent un navigateur spécifique pour se connecter au réseau TOR (les sites en .onion), comme Tor Browser et Brave.

Reste la partie invisible du web : le Deep web. Pas référencé par les moteurs de recherche, il est par contre accessible avec n’importe quel navigateur. Représentant près de 90 % du web selon différentes études, il regroupe des sites qui ne sont pas référencés par les moteurs de recherches. Il peut s’agir de sites privés ou qui nécessitent une authentification ou qui publient des publications scientifiques et universitaires, de forums de hackers…

Spécialisé dans les solutions de cybersûreté et d’intelligence stratégique, l’éditeur français Aleph-networks a publié récemment une étude sur le Dark web en s’appuyant sur les données collectées par Aleph Search Dark (son moteur de recherche maison sur le Deep et le Dark web) depuis octobre 2014.

 « On trouve même de tout sur le Dark web, y compris des choses insignifiantes comme un site géré par des amateurs d’une gare ferroviaire française ! On trouve aussi des sites de hackers, beaucoup de contenus pédopornographiques, des bibliothèques qui fournissent des œuvres dans tous les styles, des forums divers et variés, de l’activisme politique plus ou moins violent, des fuites de données, des espaces pour les lanceurs d’alertes, du journalisme d’investigation… », énumère Vincent Bougeant, responsable des études chez Aleph-networks.

« Les activités « commerciales » de type vente d’armes, drogues, données bancaires et de santé, etc. se font sur des plateformes très bien référencées sur les annuaires du Dark web. Ces plateformes cherchent au contraire un maximum de visibilité pour augmenter leur trafic », précise-t-il.

Mais contrairement à son image de créature tentaculaire insaisissable, le Dark web a un périmètre relativement restreint. « En décembre 2020, nous dénombrions « seulement » 76 300 sites actifs (sites accessibles) », insiste Vincent Bougeant.

« En prenant en compte la pratique du mirroring, qui consiste à créer des copies de sites à des adresses différentes, le Dark web se limite même à 18 000 sites. En effet, certains sites sont répliqués en de très nombreux exemplaires (ou « miroirs »). Ainsi, un site qui propose de multiplier vos bitcoins par 200 a été « cloné » sur plus de 5 000 adresses différentes. En additionnant tous les miroirs des sites disposant chacun de plus de 100 miroirs, nous arrivons à un volume de 54 000 domaines », lit-on dans cette étude.

Le Dark web n’est pas un univers figé. Entre le 1er mars 2020 et le 1er juillet 2020, plusieurs dizaines de milliers de nouveaux domaines ont été détectés par leur solution Aleph Search Dark. « Nous observons même un pic significatif durant la dernière semaine de mai 2020, avec la détection de 5 650 domaines. Il s’agit dans la très grande majorité de miroirs de sites qui proposent des opérations financières au caractère pour le moins douteux ».

« Ces miroirs servent également de copies de sauvegarde (en cas de panne ou surtout d’attaques informatiques) d’un site. Mais ils peuvent aussi servir pour des opérations malveillantes visant à récupérer du trafic et/ou des identifiants », explique Vincent Bougeant.

Crédit image : Aleph-networks

Ces très nombreux miroirs auront pour la plupart probablement disparu dans quelques mois, éventuellement remplacés par d’autres miroirs. « Une des caractéristiques propres au Dark web est en effet sa très grande volatilité : les sites ont une durée de vie moyenne très courte. Si nous nous basons sur les domaines actifs à ce jour, leur durée de vie moyenne n’est que de neuf mois », constate Aleph-networks.

Passer à l’écoconception dans le numérique, quels enjeux ?

L’écoconception est définie dans le rapport technique ISO/TR 14062 comme étant « l’intégration des aspects environnementaux dans la conception et le développement de produits ». Le terme « produit » fait référence à la fois aux matériels et logiciels nécessaires à un « service numérique » (consulter son compte en banque, réserver un train, regarder une vidéo, etc.). Pour mieux comprendre les enjeux liés à cette écoconception, nous avons interrogé Raphaël Guastavi, chef du service Produits et Efficacité Matières de l’ADEME (Agence de l’environnement et de la maîtrise de l’énergie).

Techniques de l’Ingénieur : Lorsqu’on évoque l’écoconception ou l’impact du numérique, les experts préfèrent utiliser « service numérique ». A quoi cela fait référence ?

Raphaël Guastavi : Parmi les principales briques du service numérique, nous avons l’usage qui fait appel au fonctionnement des datacenters et des terminaux. Ensuite, des logiciels qui viennent à différentes strates : au niveau des terminaux, mais également ceux qui pilotent l’organisation des clouds et de la diffusion des contenus, et ceux qui font le lien entre l’opérateur télécom, le datacenter et le terminal utilisateur. Et il y a également des couches logicielles qui viennent piloter les échanges au niveau intermédiaire. Par exemple, le edge computing, le peer-to-peer. Sur ces différentes strates, on peut avoir une approche écoconception pour avoir un meilleur fonctionnement.

Lorsqu’on parle d’écoconception, de quoi s’agit-il exactement ?

L’écoconception va permettre d’identifier les marges de manœuvres et leviers d’amélioration possibles pour diminuer l’impact environnemental tout en gardant une performance d’utilisation pour concevoir différemment les services. Pour cela, on va regarder l’ensemble du cycle de vie dans la conception des services numériques. On peut même parler de cycle de vie de la donnée. Si on parle de code, il s’agira de mieux le concevoir pour qu’il ait moins d’impact sur les étapes de cycle de vie.

Que comprend ce cycle de vie ?

Quand on parle d’un produit, on parle de conception, fabrication, distribution, utilisation, et fin de vie. En fait, il faut pouvoir appliquer ces différentes étapes de cycle de vie à des approches plus logicielles pour voir si leur fonctionnement ne va pas impacter – de façon majoritaire – telle partie de cycle de vie d’un datacenter, d’un terminal, etc. Et également se demander que devient la donnée : est-elle détruite ou perdure-t-elle alors qu’elle n’est pas utilisée ? Et tant qu’elle perdure, elle a un impact notamment par sa conservation car elle fait tourner des datacenters qui sont doublonnés [la donnée est copiée sur plusieurs serveurs, ndlr] pour la sécurité.

Quels sont les enjeux ?

L’enjeu est lié au risque d’accroissement quasi exponentiel de ce sujet numérique au niveau mondial, par le renouvellement d’équipements trop fréquents, des nouveaux produits qui apparaissent, les usages qui explosent, et le risque assez important d’augmentation très rapide du numérique. Même si le numérique peut être utilisé pour la transition écologique, il a quand même son propre impact. C’est pour cela qu’il est nécessaire d’avoir une vision de maîtrise et d’augmentation d’efficacité du matériel et des services pour limiter l’emballement.

On parle de plus en plus de sobriété…

Effectivement, mais il ne s’agit pas de tout arrêter. Il est plutôt question de maîtriser son impact par plus d’efficacité et de sobriété. Sobriété dans le sens de mieux concevoir et appliquer les principes de l’écoconception pour continuer de fournir des services avec moins d’utilisation  d’énergie et de matière [voir « 115 bonnes pratiques » de GreenIT, qui fait partie des références données par le Shift Project, NDLR]. La sobriété pourra freiner l’augmentation exponentielle de cet impact.

LEIA : un simulateur français pour mesurer les performances de machines intelligentes

La question est fondamentale : « une machine est-elle intelligente ? ». Beaucoup de discours marketing prétendent que leurs robots ou leurs caméras sont doués de cette faculté. Certains fabricants se contentent de l’affirmer sans apporter des preuves irréfutables.

D’autres pourront s’appuyer sur les résultats obtenus lors de simulations réalisées au sein des différentes plateformes LEIA (Laboratoire d’évaluation de l’intelligence artificielle) du LNE (Laboratoire national de métrologie et d’essais), adossés à une méthodologie de mesure, des procédures et des métriques parfaitement rodées et maîtrisées qui constituent le savoir-faire historique et unique de cette institution.

D’ici à 2022/2023, cet organisme disposera de trois plateformes, chacune correspondant à une typologie d’essais. Depuis 2008, le LEIA 1 ne fait que des essais complètement simulés, en particulier de systèmes automatiques de traduction ou de traitement la langue, de solutions de reconnaissance des images et de systèmes complets comme les robots agricoles.

La nature artificielle

Pour développer le LEIA2, le LNE a obtenu 390 000 euros dans le cadre du Plan de relance.

Ce financement s’inscrit dans le cadre du programme « soutien à l’investissement industriel dans les territoires », établi en lien avec la région Île-de-France. Prévue pour le premier semestre 2022, la plateforme LEIA (Laboratoire d’évaluation de l’intelligence artificielle) représentera un investissement total de 785 000 euros.

Logée dans une salle de 6 m de diamètre et de 3 m de hauteur, la plateforme LEIA2 sera constituée d’un système de vidéoprotection à 360°, permettant de reconstituer une « nature artificielle  » et de plonger les systèmes à caractériser (robots d’aide à la personne, caméras intelligentes, robots d’intervention civils et militaires, etc.) dans une réalité dynamique simulée.

/LNE

Pour Guillaume Avrin, responsable du département Évaluation de l’intelligence artificielle au Laboratoire national de métrologie et d’essais, cette « nature artificielle correspond à l’environnement de test simulé, mais qui sera le plus représentatif possible de la réalité. Nous allons pouvoir générer un certain nombre de scenarii de tests avec différentes conditions environnementales (différentes géométries d’obstacles, de luminosité…) pour confronter le système robotisé ».

Varier les scenarii

Étant donné le comportement complexe des solutions IA, il n’est pas possible de se contenter de faire quelques tests. « Si on veut mesurer les capacités d’un robot destiné à la lutte contre les incendies, on ne peut pas juste faire un essai de jour et un autre de nuit et en déduire qu’il est performant à l’aube et au crépuscule. Il est important de varier la luminosité et les obstacles notamment. Il s’agit de donner un très grand nombre de scenarii. Si on faisait tout en conditions réelles, cela coûterait très cher et prendrait beaucoup de temps. La simulation est plus pratique », explique Guillaume Avrin.

Une trentaine de partenaires dont Thales, Schneider, Dassault, des cabinets de conseils et des PME (pour des tests de caméras intelligentes et de robots en EHPAD) et des clusters français soutiennent ce projet.

Plus surprenant, Google et Huawei figurent également parmi les soutiens. « Ils ont les moyens de créer leur propre simulateur, mais ces géants ne souhaitent pas être juges et parties. Ils ont besoin de s’appuyer sur des tiers de confiance comme le LNE pour avoir un avis objectif sur l’évaluation », précise Guillaume Avrin.

À terme, la version 2.2 du LEIA2 sera un mixte entre essais réels (avec un robot qui sera physiquement présent au milieu de notre ensemble de vidéoprotections) et simulations avec des vidéoprotections à 360 degrés.

Le programme du LEIA 3, qui correspondra à des essais 100 % physiques, devrait démarrer en 2022.

Dix ans après Fukushima : la radioécologie, qu’est-ce que c’est et comment a-t-elle servi ?

À l’occasion des 10 ans de la catastrophe nucléaire de Fukushima, nous avons choisi de décrypter la science derrière le drame. Nous nous sommes intéressés à la radioécologie. Quels étaient les radionucléides relâchés suite à l’incident nucléaire de Fukushima ? Comment se propagent ces substances radioactives ? Et quelles sont les possibilités de remédiation ? Nous revenons sur ces éléments avec Philippe Renaud, chargé de mission à la direction de l’IRSN, spécialiste en matière de transfert de la radioactivité dans l’environnement et dans les populations.

Philippe Renaud est par ailleurs l’auteur des ressources documentaires « Influence des rejets radioactifs normaux des installations nucléaires françaises – Éléments de radioécologie opérationnelle », « Transferts des radionucléides dans l’air, les sols et les cours d’eau – Éléments de radioécologie opérationnelle », « Transferts des radionucléides dans les denrées alimentaires – Éléments de radioécologie opérationnelle » et coauteur de « L’accident de la centrale nucléaire japonaise de Fukushima Daiichi », chez Techniques de l’Ingénieur.

 

Techniques de l’Ingénieur : À quoi sert la radioécologie ?

Philippe Renaud : La radioécologie est l’étude des transferts des radionucléides dans l’environnement et des expositions de la population qui en résultent. Il s’agit d’un domaine pluridisciplinaire : c’est un regroupement de disciplines où l’on trouve la chimie, la physique,  la biologie, les statistiques, les mathématiques… Son objectif est de déterminer les concentrations des substances radioactives dans l’environnement et d’estimer les expositions de la population à ces radionucléides. Un exemple d’actualité est celui des sables chargés de radionucléides qui nous parviennent en ce moment du Sahara : c’est la radioécologie appliquée aux résultats de mesure qui permet de caractériser la situation et son évolution et estimer les conséquences sur les populations.

De même, l’année dernière, des incendies sont survenus dans la zone d’exclusion située immédiatement à côté de Tchernobyl : les particules contaminées en césium ont voyagé jusqu’à nous à cause de la propagation d’une masse d’air d’est en ouest. La radioécologie nous permet de comprendre comment cette zone boisée a brûlé, les quantités de radionucléides émises par ces incendies, comment certaines particules ont été transférées jusqu’en France, quelles conséquences cela a entraîné sur les végétaux qui poussent en France et donc quelles conséquences sur les denrées alimentaires.

Mais la radioécologie n’intervient pas qu’en cas d’incidents. Elle vise aussi à évaluer les conséquences des rejets normaux des centrales nucléaires. Les installations françaises sont autorisées à rejeter des radionucléides par voies liquide ou aérienne. La radioécololgie intervient dans les deux approches possibles et complémentaires pour estimer les conséquences des rejets : d’une part, déterminer les plans de mesure les plus adaptés à l’installation considérée puis exploiter les résultats de mesure et d’autre part, estimer les conséquences par calculs basés sur des modèles.

Quels sont les outils utilisés ?

La surveillance de routine ou spécifiquement mise en place en cas d’évènement, permet de disposer de résultats de mesure. Soit on mesure directement, sur le terrain, le rayonnement ambiant, soit on mesure en laboratoire les concentrations dans des échantillons divers (air, sols, végétaux, animaux…) prélevés dans l’environnement. Il s’agit le plus souvent de quantifier les rayonnements émis par les substances radioactives pour déterminer les concentrations dans ces échantillons.

L’un des domaines scientifiques les plus utilisés est l’agronomie car les mécanismes de transferts des substances radioactives sont soit similaires, soit découlent de pratiques agronomiques. En ce qui concerne le transfert aux animaux, cela dépend des pratiques d’alimentation par exemple. Quant aux mécanismes de captation des radionucléides, ou encore les effets des rayonnements sur les cellules vivantes, on fait ici appel à la biologie. Lorsqu’on parle de transfert de radionucléides et que l’on essaie d’estimer comment les masses d’air dispersent les substances radioactives, les méthodes utilisent des éléments météorologiques, similaires à ceux employés par Météo France. Nous avons aussi recours à la pédologie : le transfert des substances radioactives diffère selon la granulométrie du sol, de son pH, de la teneur en matière organique ou en potassium, etc. Le césium par exemple est un analogue chimique du potassium, il entre donc en compétition avec celui-ci lorsqu’ils sont captés par les plantes !

Cette compétition pour l’absorption par les plantes n’ouvre-t-elle pas la voie à la phytoremédiation ?

Le principal problème ici est que les transferts du sol vers les plantes sont très faibles !  Alors, pour retirer la radioactivité du sol, il faut que l’absorption racinaire des plantes soit plus grande et que les rendements agronomiques soient très forts. 

Quelles sont alors les méthodes de remédiation les plus utilisées ?

À Fukushima, après l’incident nucléaire, le Japon a choisi d’appliquer, uniquement dans le voisinage des écoles, une technique simple même si elle est assez brutale : enlever la couche superficielle du sol, soit les cinq premiers centimètres qui contiennent l’essentiel des dépôts radioactifs.

Une méthode moins drastique a été plus largement utilisée : le labour.  En labourant, on fait pénétrer le contaminant en profondeur. En enfouissant ainsi le césium, le rayonnement ambiant peut être diminué de 2 à 3 fois. On parle alors d’auto-absorption puisque le rayonnement gamma émis par le césium présent sous 20 centimètres du sol est absorbé par la couche du dessus qui fait donc écran.

Pour les surfaces artificielles, on utilise de l’eau sous pression, le brossage, éventuellement l’utilisation de solvants, pour enlever la couche superficielle sur laquelle les dépôts radioactifs s’étaient fixés.

Il fallait aussi diminuer la contamination des denrées alimentaires. Passées les premières semaines suivant l’accident durant lesquelles les plus hauts niveaux de contamination résultent du dépôt direct des radionucléides sur les feuilles, la contamination provient du sol, elle est beaucoup plus faible mais va durer très longtemps, des décennies ! Or, il fallait réduire cette contamination au maximum. L’une des méthodes a été d’utiliser des engrais potassiques : le césium est ainsi dilué et la plante prend alors surtout le potassium.

Mais attention, ces mesures ne doivent pas être utilisées de manière déterministe, car elles ne sont pas assez performantes pour transformer des denrées alimentaires contaminées en des denrées acceptables. Elles permettent de diminuer autant que possible les niveaux de contamination et c’est seulement à partir d’un certain seuil, avec le temps, que l’on pourra parler de niveaux de contamination acceptables. Heureusement pour le Japon, même avant le drame à Fukushima, le pays importait les fourrages de l’étranger. Et donc, comme les animaux d’élevage ont continué à ingérer des fourrages “propres”, leur contamination a été beaucoup plus faible.

Dans le cas de l’accident de Tchernobyl, du bleu de Prusse a été utilisé pour diminuer le transfert de la radioactivité du fourrage aux produits laitiers et carnés : lorsqu’il est donné aux animaux, le transfert des radionucléides au lait et à la viande peut être réduit de 4 à 5 fois, donc considérablement.

Toutes ces initiatives ont rendu possible le retour de la majeure partie de la population à Fukushima.  

Comment la dispersion des radionucléides diffère-t-elle entre les milieux terrestre et maritime ?

Lorsqu’ils sont dans l’air, les radionucléides se déposent à la surface du sol, où ils restent très longtemps, exposant les populations à leur rayonnement et contaminant les plantes. Le sol n’est pas du tout dispersif. En revanche, les milieux marins sont extrêmement dispersifs, quasiment autant que l’air : les radionucléides sont brassés et dilués dans ces immenses volumes d’eau.

À proximité de la centrale nucléaire à Fukushima, il y a eu une fuite sur une tranchée qui contenait de l’eau radioactive, générant un pic de radioactivité ; mais ce dernier a diminué rapidement grâce aux courants marins puissants. La radioactivité n’a toutefois pas disparu de l’eau et a été maintenue non pas en raison de cette fuite mais à cause des radionucléides conservés dans le sol ! Quand des intempéries, comme les typhons, frappent la région, elles emportent avec elles les particules radioactives arrachées aux sols et celles-ci alimentent alors l’eau. D’autre part, les sédiments mêmes ont été contaminés à la suite de la bouffée initiale de radioactivité dans l’eau. Et ces radionucléides fixés dans les sédiments sont relâchés régulièrement, maintenant une certaine activité radioactive dans l’eau.

Toujours est-il que l’exposition à la radioactivité du sol nous préoccupe beaucoup plus que celle dans l’eau puisque c’est du sol que provient l’essentiel des denrées alimentaires et que c’est sur le sol que nous habitons. L’eau nous gêne beaucoup moins.

Quels ont été les principaux isotopes radioactifs relâchés suite à l’accident de Fukushima ?

Les principaux radionucléides relâchés lors de l’accident de Fukushima et ayant contribué à l’exposition des populations ont été l’iode 131, et les césiums 134 et 137, mais aussi des radionucléides de période plus courte qui ont disparu rapidement.

Qu’en reste-t-il aujourd’hui à Fukushima ?

Actuellement, à Fukushima, il ne reste plus que le césium : surtout du césium 137, car avec sa période radioactive de 2 ans le césium 134 est devenu difficile à mesurer. Le césium 137 a une période de 30 ans ! Pour diminuer le niveau de césium 137 d’un facteur 1000, il faut donc 300 ans…

Des mesures supplémentaires doivent-elles encore être prises à Fukushima afin de réduire davantage les niveaux de radioactivité ?

Les mesures s’imposent beaucoup moins aujourd’hui car les niveaux de radioactivité dans les denrées alimentaires sont désormais très faibles, et quasiment partout en dessous des limites de commercialisation, y compris sur les zones les plus touchées. Après l’accident nucléaire de Fukushima, le problème principal a été la décontamination des surfaces artificielles pour diminuer l’intensité du rayonnement ambiant dû au césium 137.

Quel est l’impact environnemental du numérique ?

4 %. C’est la part d’émissions de gaz à effet de serre au niveau mondial liée à l’usage du numérique en 2019, estimée par le think tank The Shift Project dans son rapport « Déployer la sobriété numérique ». Ces gaz sont émis par la combustion des énergies fossiles (pétrole, le charbon, gaz). A titre de comparaison et pour montrer l’ampleur de l’impact du numérique, les experts utilisent les émissions des transports aériens « qui en génère[nt] 2,5 % si on se limite aux émissions directes des avions », précise Hugues Ferreboeuf, chef de projet au sein du Shift Project, dans un entretien accordé à Libération. En 2017, le numérique représentait environ 2,7 % de la consommation globale d’énergie finale au niveau mondial contre 1,9 % en 2013.

Dans ces 4 % de part du numérique sont compris à la fois l’utilisation des services et la fabrication des terminaux, ces derniers contribuant pour plus de la moitié des émissions comptabilisées selon The Shift Project. Ces terminaux – que sont les smartphones, ordinateurs, etc. – sont connectés entre eux par des infrastructures réseaux (câbles terrestres et sous-marins , antennes de réseaux mobiles, fibres, etc.) pour échanger des informations qui seront ensuite stockées et traitées dans les centres de données (datacenters). « Or chacun de ces éléments nécessite de l’énergie non seulement pour fonctionner (phase d’utilisation) mais également, avant cela, pour être produit. L’extraction minière des matières premières, les processus industriels puis les livraisons aux consommateurs et consommatrices nécessitent des ressources conséquentes, loin d’être négligeables » précise le rapport du Shift Project.

Accord de Paris et neutralité carbone

Même si l’impact du numérique est « multicritère », les émissions de gaz à effet de serre – notamment le dioxyde de carbone (CO2) – contribuent au réchauffement climatique. Et pour respecter l’Accord de Paris signé en 2015 (que les Etats-Unis viennent de rejoindre à nouveau) – dont l’objectif est de maintenir ce réchauffement sous les +2°C par rapport à la valeur préindustrielle –, il faudrait réduire les émissions de moitié. Avec une volonté de neutralité carbone à l’horizon 2050 incluse dans la feuille de route de la France pour lutter contre les changements climatiques.

A l’horizon 2025, « le numérique devrait représenter entre 6,9 et 8,8 % des émissions mondiales de gaz à effet de serre avec un scénario attendu à 7,6 %, soit un doublement de la part de ce secteur », publie France Stratégie, institution rattachée au Premier ministre. L’évaluation globale de la consommation énergétique du numérique, reposant sur les chiffres du Shift Project, est détaillée dans un document de travail réalisé en octobre 2020. Sont également mises en avant dans ce rapport deux technologies dites émergentes suscitant « de fortes craintes en termes énergétiques », à savoir les crypto-monnaies reposant sur des blockchains publiques et l’internet des objets, dont la consommation énergétique est peu étudiée.

« Les chiffres dont on dispose sont basés sur des modèles et contiennent forcément des approximations, explique Hugues Ferreboeuf à Libération. Il n’y a pas de mesure exhaustive à ce jour et l’évaluation de l’empreinte carbone du numérique est encore quelque chose de relativement nouveau. C’est très important de le dire car cela montre bien que l’on n’a pas pris à sa juste mesure l’ensemble des effets sur l’environnement de la révolution numérique, en s’imaginant qu’elle était surtout une solution et très peu un problème pour le climat. »

Le transport des substances radioactives sous haut niveau de sûreté

19 000, c’est environ le nombre de transports de substances radioactives réalisés chaque année en France en lien avec l’industrie nucléaire. Un chiffre qui peut paraître important, mais qui ne représente que 12 % du transport des substances radioactives. La majorité provient en effet de l’industrie et de la recherche non nucléaire ainsi que du secteur médical. Pour le secteur du nucléaire, ce transport est essentiel pour assurer le bon fonctionnement du cycle du combustible : arrivée de l’uranium sur le territoire français, transport jusqu’aux installations d’enrichissement, puis jusqu’à celles qui fabriquent le combustible. Ce dernier est ensuite acheminé jusqu’aux centrales nucléaires, puis est envoyé à l’usine de retraitement de La Hague lorsqu’il est usé ; une partie étant ensuite revalorisée et l’autre stockée. « Cette matière, qui sert à produire de l’électricité, représente un petit millier de transports chaque année, explique Fabien Féron, directeur des Transports et Sources à l’ASN. Tout le reste est beaucoup moins radioactif et concerne le transport d’outillage et d’équipements pour des opérations de maintenance ou pour la décontamination… »

Un arrêté français vient renforcer les mesures du plan d’urgence

Ces substances radioactives pouvant franchir les frontières, ce transport obéit à la réglementation internationale de l’AIEA (Agence internationale de l’énergie atomique). En France, l’arrêté TMD (Transport marchandise dangereuse) vient compléter certaines mesures. Depuis janvier 2019, à la demande de l’ASN, le plan de gestion des incidents et accidents de transport de matières radioactives a été renforcé. Il décrit notamment les critères de déclenchement du plan d’urgence, les modalités d’alerte et d’information des secours, l’organisation interne des entreprises assurant ces transports. Les moyens techniques et humains à déployer sont aussi précisés tout comme la formation des intervenants aux transports d’urgence. « Ce plan n’est pas une nouveauté, déclare Fabien Féron. Nous avons souhaité l’améliorer en relevant le niveau d’exigence sur le plan réglementaire, en passant par exemple de mesures incitatives à des recommandations. »

En moyenne, un peu moins d’une centaine d’événements significatifs sont déclarés chaque année, tous secteurs confondus. La majorité est classée au niveau 0 sur l’échelle de l’INES (International nuclear event scale), c’est-à-dire qu’ils correspondent à des anomalies sans importance du point de vue de la sûreté. Le dernier événement significatif, portant sur l’industrie nucléaire et classé au niveau 1, a été déclaré à l’ASN en avril 2019. Il concerne deux transports de substances radioactives dans des emballages non conformes au sein du centre CEA de Cadarache en Provence Alpes Côte d’Azur. « En termes de signaux, nous sommes plutôt dans une situation où nous notons essentiellement des problèmes de conformité à la réglementation, de non-respect de procédures mais qui n’ont pas d’impact réel. Dans son ensemble, la situation est plutôt maîtrisée. Nous sommes une autorité, donc nous avons forcément des motifs d’insatisfaction et des axes de progrès sont toujours possibles. »

En France, la route est très largement le mode de transport privilégié. Quelques colis sont acheminés par rail, air ou mer, mais quasiment toujours associés à une partie routière. Chaque année, plusieurs accidents de la circulation impliquant des véhicules transportant des substances radioactives se produisent et peuvent entraîner un endommagement du colis. Mais très souvent, seul l’emballage extérieur est abîmé.

Des séries d’épreuves pour simuler des conditions accidentelles

Comme c’est le cas dans les installations nucléaires, la sûreté de ce transport repose sur le concept de défense en profondeur. Il consiste à mettre en œuvre plusieurs niveaux de protection pour protéger les personnes et l’environnement d’une atteinte liée aux substances radioactives. À la différence des installations nucléaires, qui ne pondèrent pas les lignes de défense, ici, l’une d’elles a une importance cruciale : la robustesse du colis. On distingue cinq grandes familles de colis classés selon leur dangerosité. Ceux de type B, contenant les substances les plus radioactives comme des combustibles irradiés, doivent garantir un niveau de sûreté élevé, y compris en cas d’accident sévère de transport. Plusieurs séries d’épreuves sont donc réalisées pour simuler des conditions accidentelles. Comme par exemple, celle d’une chute de 9 mètres de haut sur une cible indéformable, ce qui signifie que toute l’énergie de la chute est absorbée par le colis. Ou alors, l’épreuve d’immersion sous 15 mètres d’eau pendant 8 heures afin de tester la résistance à la pression. Les colis de type B et ceux contenant des substances fissiles doivent obligatoirement recevoir un agrément de l’ASN et démontrer dans un dossier de sûreté la résistance de leurs colis aux épreuves réglementaires.

Les deux autres mesures de protection à mettre en œuvre concernent d’une part la fiabilité des transports avec notamment des exigences d’arrimage du colis dans le véhicule et de formations des personnels assurant le transport. Et d’autre part, la prévention et la gestion des incidents et accidents à travers un dispositif de gestion de crise. En fonction de la situation, il mobilise plusieurs acteurs aux compétences complémentaires comme les sapeurs-pompiers, les hôpitaux, l’IRSN (Institut de radioprotection et de sûreté nucléaire) et les DREAL (Directions régionales de l’environnement, de l’aménagement et du logement).