Trois peaux artificielles pour des sens plus humains

L’humain en est couvert de la tête aux pieds. La peau, notre plus grand organe sensoriel, permet grâce à ses différents récepteurs d’aborder le monde qui nous entoure. Des chercheurs se sont inspirés de la peau humaine pour la reproduire artificiellement avec des composants électroniques. Les objectifs sont divers : réparer les récepteurs humains endommagés, doter les robots ou les neuroprothèses de systèmes plus performants pour la manipulation d’objet, alimenter des systèmes sans batterie…

Des récepteurs somatiques critiques

Des chercheurs du Royal Melbourne Institute of Technology (RMIT) en Australie, ont conçu trois récepteurs cutanés du système sensoriel somatique : le corpuscule de Pacini pour le sens du toucher, le thermorécepteur pour la perception de la température et le nocicepteur pour la douleur. Grâce à une combinaison de capteurs de pression, de couches minces d’oxyde à changement de phase et de memristor, les récepteurs « détectent les stimuli, mesurent leurs niveaux et transmettent des signaux au cerveau, déclenchant ainsi des réactions », expliquent les chercheurs dans leur article publié le 1er septembre dans Advanced Intelligent Systems.

Les chercheurs ont ainsi démontré expérimentalement la capacité de concevoir des récepteurs cutanés artificiels permettant de remplacer des régions cutanées humaines endommagées, d’augmenter la sensibilité des individus dans certaines activités (comme la défense et le sport), ou encore de doter la robotique de sensibilité.

Une peau alimentée par la sueur

La sueur est une bonne source d’énergie pour les peaux artificielles. C’est ce que montrent les travaux d’une équipe de recherche du California Institute of Technology (Caltech), aux Etats-Unis, publiés en avril 2020 dans Science Robotics. Cette peau électronique sans batteries externes fonctionne grâce aux biocarburants contenus dans la transpiration humaine. Elle est dotée de capteurs multimodaux et de biopiles au lactate (comme celle du CNRS, dont l’étude a été publiée en septembre 2019) qui lui fournissent une densité de puissance de 3,5 milliwatts par centimètre carré (mW/cm²) pour une autonomie de 60 heures d’activité en continu.

Cette peau électronique, développée par des chercheurs de Caltech aux Etat-Unis, est alimentée par la sueur. Crédit : Caltech.

Cette peau permet de surveiller les biomarqueurs métaboliques clés, tels que l’urée (déchet azoté des protéines), l’ammonium (NH4+), le glucose, son pH, ainsi que la température durant une activité prolongée. L’ensemble de ces données sont transmises sans fil, par Bluetooth, à l’interface utilisateur. Le dispositif électronique permet également d’enregistrer les contractions musculaires pour contrôler, telle une interface homme-machines, une prothèse ou un bras robotisé. Une vidéo, publiée sur Twitter, en fait la démonstration.

Un système nerveux artificiel

Des chercheurs de l’université de Singapour ont mis au point un système nerveux artificiel pour peau électronique. Leurs travaux ont été publiés en juillet 2019 dans la revue Science Robotics. Cette peau est dotée de plus de 10 000 capteurs ultrasensibles permettant la transmission simultanée d’informations thermotactiles tout en maintenant des latences de lecture exceptionnellement faibles. « Pour démontrer le concept, nous avons développé un système prototype utilisant des composants standard pour caractériser les performances de notre architecture de communication ACES [pour Asynchronously Coded Electronic Skin, ndlr] », expliquent les chercheurs. Ils ont ainsi utilisé un réseau physique de 240 mécanorécepteurs artificiels qui transmettaient des événements de manière asynchrone à une latence constante de 1 ms, tout en maintenant une précision temporelle de < 60 ns. Une précision temporelle « exceptionnellement élevée » potentiellement réalisable avec plus de 10 000 capteurs, selon l’équipe.

Leur architecture ne nécessite qu’un conducteur électrique pour propager le signal. Les réseaux de capteurs sont reconfigurables et résistants aux dommages. Les chercheurs imaginent des applications robotiques, médicales (neuroprothèses) et informatiques (matériel neuromorphique) pour la manipulation d’objets et la perception somatosensorielle.

Cartographier les plantes aquatiques grâce à des images satellites et des algorithmes

Jusqu’ici, les gestionnaires de milieux aquatiques avaient le choix entre deux solutions pour suivre le recouvrement des herbiers dans l’eau. Équiper des avions ou des drones de capteurs aéroportés afin de photographier les cours d’eau, puis demander à un opérateur de dessiner manuellement les contours des herbiers sur les relevés photographiques. Ou alors, se déplacer sur le terrain afin de réaliser les observations directement sur place. Des chercheurs du laboratoire d’Écologie Fonctionnelle et Environnement (Université de Toulouse, CNRS) et leurs collègues de la société Adict Solutions, du G.E.T. (Toulouse) et de DYNAFOR (Université de Toulouse, INRAE) ont réussi à cartographier automatiquement les plantes aquatiques grâce à des images satellites à très haute résolution spatiale associées à des algorithmes d’apprentissage automatique. Ces travaux viennent d’être publiés dans la revue Water Research.

Pour parvenir à ce résultat, les scientifiques ont utilisé les données des satellites Pléiades, conçus par le CNES (Centre national d’étude spatiale), et qui fournissent des images avec une résolution 50 cm. Et pour paramétrer l’algorithme d’intelligence artificielle, ils ont réalisé des relevés de végétation sur un site de la Garonne.  « Nous avons disposé 60 placettes d’échantillonnage de trois mètres de côté sur le cours d’eau afin de mesurer le niveau de recouvrement des herbiers. Nous ne savions pas quelle était la surface pertinente pour réaliser les mesures. Alors, nous avons divisé ces placettes en quatre, puis encore en quatre », explique Arnaud Elger, maître de conférences à l’Université Toulouse III – Paul Sabatier et responsable de l’équipe Écotoxicologie intégrative au Laboratoire d’Écologie Fonctionnelle et Environnement.

Crédit photo D Espel CNRS

Utiliser un algorithme de régression linéaire

Ces mesures de végétation observées sur le terrain ont été données à l’algorithme, qui a appris à les associer aux caractéristiques spectrales des pixels sur les images satellites. Au final, sur les 880 placettes d’échantillonnage, seuls 100 à 200 ont été suffisantes pour paramétrer l’algorithme. L’application QGIS, un système d’information géographique en open-source, a été utilisée pour visualiser et analyser les données géospatiales. Tandis que le logiciel R, lui aussi en accès libre, a permis le traitement des données. Les chercheurs ont fait le choix d’utiliser un algorithme de régression linéaire qui, grâce aux informations obtenues à partir de chaque pixel présent sur les images satellitaires, est capable de prédire une valeur quantitative d’abondance de végétation. « Nous avons préféré utiliser cet algorithme qui nous permet d’obtenir un taux de recouvrement des plantes plutôt qu’utiliser un algorithme de classification, qui ne donne pas une valeur chiffrée mais une classe comprise par exemple entre 0 et 25%, puis entre 25 et 50%, etc. », ajoute le chercheur.

L’étude démontre que l’algorithme est capable d’estimer la biomasse totale de la végétation aquatique avec une marge d’erreur de 20 % en moyenne. Un chiffre qui peut paraître important, mais à l’échelle d’un tronçon de rivière, certaines erreurs s’annulent entre elles et au final la marge d’erreur se limite à 11 %. « La précision est moins importante que l’observation sur le terrain mais notre système présente l’avantage d’être capable de couvrir de très grandes surfaces de manière automatisée, analyse Arnaud Elger. Les gestionnaires de milieux aquatiques ont besoin de faire la différence entre des zones où il n’y a pas d’herbiers et celles où ils sont présents en abondance. Ils n’ont pas besoin de connaître très précisément le taux de couverture végétale ». Pour les chercheurs à présent, toute la difficulté est de réussir à faire fonctionner l’algorithme sur d’autres images que le site expérimenté ou alors à des dates futures. Car en milieu fluvial, les conditions de profondeur et de turbidité de l’eau varient beaucoup au cours du temps. En quelques jours, de fortes pluies peuvent faire remonter le niveau de l’eau et modifier fortement la réponse spectrale des images captées depuis l’espace. « Nous souhaitons donc coupler notre approche avec un modèle physique qui va corriger le signal du spectre des images en fonction de la profondeur de l’eau et sa turbidité, ceci afin d’évaluer de manière optimale la présence des herbiers. Il s’agit là d’une perspective de travail. »

Crédit photo D’Espel CNRS

Une prolifération excessive d’herbiers en milieux fluviaux

Rappelons que les herbiers représentent un maillon important des écosystèmes aquatiques, servant à la fois d’abri, de sources de nourriture, et de support de ponte pour de nombreux organismes. Ils contribuent également à maintenir une eau limpide en piégeant les sédiments fins. Par contre, les gestionnaires de milieux aquatiques sont souvent confrontés à leur prolifération excessive dans les milieux fluviaux.

Crédit photo D Espel CNRS

Des mesures d’arrachage de ces plantes sont alors prises par des moyens mécanisés sur des barges ou alors de manière artisanale par des personnes, les pieds dans l’eau. Le développement excessif de ces herbiers peut en effet gêner certaines activités humaines récréatives telles que l’aviron, le kayak ou la baignade. « Dans certains cas extrêmes, il peut aussi provoquer des problèmes sur des ouvrages de production électrique, alerte Arnaud Elger. En 2009 par exemple, un arrachage massif d’herbiers occasionné par un épisode de crue a provoqué un colmatage et entraîné une insuffisance d’alimentation en eau de la centrale nucléaire de Cruas. Il y a donc un réel besoin de suivre régulièrement l’évolution de ces plantes dans l’eau. »

5G : « L’installation des nouvelles antennes sera nécessaire à plus ou moins long terme »

Spécialisé dans les communications radio, les antennes et la propagation, Alain Sibille connaît très bien les enjeux des réseaux mobiles. Selon ce spécialiste des télécoms, les vraies novations de la 5G ne seront perceptibles que dans plusieurs années. Les avancées technologiques, ainsi que l’installation de nouvelles antennes-relais, se feront pas à pas, petit à petit.

Techniques de l’Ingénieur : l’arrivée de la 5G signifie-t-elle une augmentation des antennes-relais ?

Alain Sibille, professeur à Télécom-Paris, Institut Polytechnique de Paris. © Télécom Paris / Michel Desnoues

Alain Sibille : Pas dans un premier temps. À chaque fois qu’il y a une nouvelle génération de téléphonie mobile, les déploiements ne sont pas instantanés, pour des raisons économiques. Les opérateurs augmentent le nombre d’équipements en fonction de la demande. Ce sera le cas avec la 5G. Dans un premier temps, les opérateurs vont se contenter de faire des mises à jour logicielles et compléter les équipements déjà installés dans des antennes-relais 4G. C’est ce qu’on appelle un « greffon radio ». Cela permettra d’avoir plus de fréquences pour répondre à des besoins de capacités supplémentaires et éviter une saturation qui est annoncée comme relativement proche.

L’installation des nouvelles antennes sera néanmoins nécessaire à plus ou moins long terme ?

C’est exact. La 5G présente des spécificités par rapport aux précédentes générations, qui reposaient beaucoup sur l’augmentation des débits. La 5G va se traduire aussi par de nouveaux usages. Les premiers seront identiques à ceux de la 4G, mais avec un meilleur confort pour regarder, par exemple, une série vidéo dans un autobus.

Puis, progressivement, il y a aura des usages professionnels avec notamment des données émises par des objets connectés, la télémaintenance, la télémédecine… L’IoT exigera un « upgrade » important du réseau, car ces capteurs ont besoin de peu de connexions, mais exigent dans certains cas (par exemple pour la voiture connectée) une très grande fiabilité et une grande réactivité du réseau. Différentes classes de services permettront d’optimiser ces applications. Le mode URLLC (Ultra Reliable Low Latency Communications) et le mMTC (massive Machine Type Communications) permettront notamment de bénéficier d’une faible latence (quelques millisecondes). Il faudra donc installer un cœur de réseau 5G, ce qui impliquera des investissements importants étalés sur quelques années.

Il y aura donc une densification des antennes-relais ?

La bande de fréquence étant plus élevée (on passe d’environ 2,6 GHz à 3,4‑3,8 GHz), cela signifie qu’à puissance donnée, la portée est naturellement plus faible en 5G qu’en 4G. Cela impliquera une certaine densification des antennes-relais à plus ou moins long terme et pour certains usages. Mais la 5G s’appuie sur un certain nombre d’innovations avec notamment des antennes (au sens « objet » du terme) qui sont vraiment nouvelles comme le « MIMO massif ». MIMO signifie « multiple input multiple output », soit « entrées multiples sorties multiples » en français. Cela veut dire qu’une antenne réseau peut simultanément recevoir des données de plusieurs appareils, mais également en envoyer à différents destinataires en même temps. A la différence des systèmes MIMO courants (comme avec les boxes WIFI), qui peuvent utiliser environ 4 transmetteurs, le MIMO massif en comprendra une centaine. Ces panneaux d’antennes assez importants seront certainement installés dans des hotspots qui exigent de nombreuses connexions simultanées et du débit élevé. Fondamentalement, il faut optimiser le compromis entre la densité du réseau, la portée et la puissance.

La 5G permettra-t-elle de régler le problème des zones blanches ?

La fracture numérique créée des problèmes majeurs qui participent à la désertification. D’un côté, la 5G ne résout pas immédiatement la question, car à cause de ses fréquences, une excellente couverture est plus difficile à réaliser. D’un autre côté, on peut imaginer une petite boucle locale pour un hameau avec un point central (desservi par voie radio ou fibre optique) et des points dispersés de quelques kilomètres. Avec la 5G, on peut avoir du « débit agrégé », les ressources radioélectriques pourraient être distribuées avec plus de souplesse entre les utilisateurs d’un réseau. Encore faut-il que les pouvoirs publics jouent leur rôle et incitent les différents acteurs locaux à favoriser ce genre d’option…

Une méthode de fabrication plus simple pour les tissus piézoélectriques

Si les fibres textiles intégrant de l’électronique ne sont pas totalement une nouveauté, les deux problèmes majeurs de l’électronique embarquée restent à ce jour le coût de fabrication et la durée de vie. En effet, concevoir de tels tissus relève de la haute technologie et nécessite l’association de matériaux de nature différente, dont l’assemblage doit être durable, ce qui est loin d’être facile à réaliser. Actuellement, aucune solution simple et économique n’existe, ce qui a poussé l’équipe de chercheurs du Korea Advanced Institute of Science and Technology (en collaboration avec le Daegu Gyeongbuk Institute of Science and Technology) à chercher des alternatives.

Un procédé de fabrication simplifié

Pour diminuer les coûts de fabrication de ces dispositifs et améliorer leur durabilité, les chercheurs ont développé une méthode de fabrication simplifiée basée sur le coulage en bande et le pressage à chaud.

L’article publié dans le journal Nano Energy détaille la méthode permettant de fabriquer un tissu piézoélectrique :

  • un film de polymère ferroélectrique de 70 microns est préparé par coulage en bande à partir d’une solution de P(VDF-TrFE) à 30 %m ;
  • ce film est placé à l’intérieur de deux couches de tissu conducteur (polyester revêtu de nickel et de cuivre) ;
  • ces trois matériaux sont assemblés par pressage à chaud (14.7 Mpa, à 110°C, pendant 2 minutes) ;
  • recuit à 130°C pendant 2 h, sous vide (<0.1 Mpa) ;
  • polarisation des deux couches à 2.4 V, à 100°C pendant 1 h.
Illustration schématique du procédé de fabrication d’un tissu piézoélectrique obtenu par coulage en bande et pressage à chaud. Crédit : KAIST

Des propriétés mécaniques accrues

Le pressage à chaud du film polymère sur le tissu en dessous de sa température de cristallisation permet le passage en phase amorphe. Dans cet état, sous l’effet de la pression, le film s’infiltre parfaitement dans les espaces entre les trames transversales et les chaînes longitudinales du tissu, ce qui se traduit par une résistance interfaciale élevée.

Afin d’aller plus loin dans la caractérisation de ces matériaux, l’équipe de chercheurs a pour la première fois employé la méthode de caractérisation SAICAS(*) pour la mesure de la résistance interfaciale entre les films piézoélectriques et les électrodes tissées. Cette méthode a l’avantage d’être quantitative et bien plus précise que les méthodes conventionnelles comme le pelage, ou l’arrachement par adhésif.

D’après le professeur Hong, responsable de ces recherches, « cette étude pourrait permettre la commercialisation de dispositifs portables à haute durabilité, grâce à l’analyse de la résistance interfaciale. Notre étude pose de nouvelles bases concernant le processus de fabrication de dispositifs intégrant des fibres et des polymères, mais aussi pour leur caractérisation. »

Les résultats de cette étude ont fait l’objet d’un brevet national (République de Corée) et le professeur Hong espère voir bientôt arriver sur le marché des appareils électroniques portables utilisant ce type de technologie.

Source : d’après la story publiée le 17 septembre 2020

(*) système d’analyse de coupes superficielles et interfaciales

Les gazons synthétiques se recyclent en France

Techniques de l’Ingénieur : Comment est venue l’idée de créer une société de recyclage des gazons synthétiques ?

Eric Levresse, directeur et porteur de projet de Re-Match France

Éric Levresse : La société danoise a été créée par Dennis Andersen, qui a travaillé dans l’industrie du gazon synthétique aux États-Unis. Il s’est aperçu que, lorsque les clients venaient le revoir pour changer leur gazon, il n’existait aucune filière de recyclage. De retour en Europe, il a travaillé sur le process de recyclage avec une société allemande spécialisée dans ce domaine. Et depuis la construction de sa première usine en 2015 au Danemark, elle fonctionne 24h/24 et 6j/7. Les créateurs ont très vite été confrontés à un problème de capacité. L’usine était trop petite par rapport à la demande du marché. Après avoir ouvert deux autres filiales au Pays-Bas et en Allemagne, Re-Match arrive en France au travers d’une joint-venture.

Quels sont les enjeux du recyclage des terrains synthétiques en France ?

Un gazon synthétique génère environ 82 tonnes de CO2 pour être fabriqué. Il représente entre 220 et 250 tonnes de matériel. Quand il est incinéré, il rejette 336 tonnes de CO2, soit un total de plus de 417 tonnes. Avec Re-Match, l’empreinte carbone n’est plus que de 17 tonnes. Aujourd’hui, il n’existe pas de véritable filière de recyclage. Dans le meilleur des cas, les terrains sont déchiquetés, on récupère le sable et le caoutchouc non nettoyés, puis on brûle le tapis dans les cimenteries. Dans le pire des cas, c’est l’enfouissement ou la décharge. Les collectivités locales n’ont aujourd’hui pas de solutions. En créant Re-Match France, nous souhaitons leur en apporter.

Quel est votre process de recyclage ?

Le processus réduit, sèche, nettoie et sépare le gazon synthétique usagé des terrains grâce aux différentes densités des matières. L’air et les vibrations permettent de séparer les produits sans utiliser d’eau. Les terrains usagés sont recyclés en matériaux propres à 99 % (sable, caoutchouc, matériau support et fibre plastique), parfois plus propres que les matériaux de départ. Après quelques années sur le terrain, le caoutchouc SBR a par exemple perdu certains éléments chimiques présents lors de sa précédente production. Ces matériaux sont ensuite réutilisés dans de nouveaux cycles de production comme les gazons synthétiques, les revêtements sportifs, la construction, et bien d’autres applications industrielles. Il existe une multitude d’applications. Aujourd’hui, nous sommes capables de recycler à 96 % le gazon synthétique. Notre objectif est de fabriquer un gazon synthétique avec des matières 100 % recyclées.

96 % … Quels sont les freins pour atteindre les 100 % ?

En fonction de la densité des matériaux, qui a évolué après 10 ans d’utilisation, le sable de faible densité peut rester dans le caoutchouc. De plus, la difficulté est de recycler les fibres en polyéthylène pour produire du fil. Nous arrivons à produire des échantillons d’un mètre carré de gazon synthétique, testé en laboratoire, dont la résistance est identique au gazon classique et répond aux normes Fifa. La complexité est de pouvoir récupérer le polyéthylène propre, utilisable à grande échelle. Mais cet objectif entre dans le programme Horizon 2020 de la communauté européenne, qui subventionne la recherche pour créer une circularité complète.

Combien de tonnes recyclez-vous par an ?

Depuis la création de l’usine au Danemark, on recycle 35 000 tonnes par an soit plus de 100 000 tonnes. On considère qu’il existe dans le monde 224 000 terrains en gazon synthétique, qui ont une durée de vie entre 10 et 12 ans. On est sur une croissance du nombre de terrains depuis une quinzaine d’années. Chaque année, de plus en plus de terrains arrivent sur le chemin du recyclage. Et par rapport aux capacités des usines, le marché est énorme. Au Danemark, la capacité est de 150 terrains par an. La capacité de l’usine française sera plus importante avec une capacité de 250 terrains. Nous allons pouvoir travailler avec les pays autour du site industriel (environ 800 km).

Pourquoi une collectivité choisirait un terrain synthétique, et non naturel ?

Un terrain synthétique est plus écologique que le naturel. Imaginez 10 ans d’arrosage, d’engrais, de tracteur qui tond régulièrement… Un gazon synthétique peut avoir une utilisation 4 à 5 fois supérieure, qui demande moins d’entretien et moins d’eau. Le marché français est un petit marché. Ce qui n’est pas le cas des pays nordiques et du marché espagnol, beaucoup plus importants. Et pour une raison simple, en Espagne par exemple : le manque d’eau.

Quels sont les prochains challenges de la filière ?

L’un des principaux est d’aller plus loin au niveau législatif. Dans notre filière mais également dans d’autres domaines de recyclage, on espère que le texte sur l’économie circulaire soit plus coercitif. C’est un vrai challenge pour nous. C’est pourquoi nous avons également développé une application de traçabilité, pour les gestionnaires d’installations sportives souhaitant suivre leur terrain, de son enlèvement à son traitement dans notre usine de recyclage et ensuite à sa nouvelle vie dans l’industrie du gazon synthétique ou dans une autre application industrielle. Ainsi, ils pourront prouver qu’ils respectent les pratiques de fin de vie légales et respectueuses de l’environnement.

Est-ce que cela leur coûte plus cher ?

La solution proposée par Re-Match est dans les tarifs du marché. On arrive avec une solution écologique et tout à fait dans le prix d’enlèvement des terrains synthétiques. Nous générons des revenus avec les produits que l’on recycle. D’ailleurs, notre deuxième vision de l’avenir serait de pouvoir diminuer au maximum le coût du recyclage pour les collectivités locales grâce aux revenus générés par la revente des produits recyclés.

Dans cette vidéo de la Fifa, retrouvez les coulisses du recyclage.

Pour l’AIE, il faut accélérer dans les technologies propres et le marché ne fera pas tout !

« Aujourd’hui, je suis de plus en plus optimiste quant à l’avenir de l’énergie propre dans le monde, malgré les graves défis auxquels nous sommes confrontés. La PTE-2020 montre que nous savons ce qu’il faut faire pour développer et déployer les technologies qui peuvent placer les émissions sur une voie durable », indique Fatih Birol, le directeur général de l’AIE dans l’introduction du rapport.

Le rapport de l’AIE sur les nouvelles technologies de l’énergie insiste : « Pour parvenir à des émissions nettes nulles, il faut transformer radicalement la manière dont nous fournissons, transformons et utilisons l’énergie. La croissance rapide de l’éolien, du solaire et des véhicules électriques a montré le potentiel des nouvelles technologies d’énergie propre pour réduire les émissions ».

Néanmoins, « l’objectif d’émissions nettes zéro nécessitera le déploiement de ces technologies à une bien plus grande échelle, parallèlement au développement et au déploiement massif de nombreuses autres solutions d’énergie propre qui en sont actuellement à un stade de développement plus précoce, telles que les nombreuses applications de l’hydrogène et du captage du carbone. »

L’AIE présente un scénario « développement durable » qui permet d’atteindre ces objectifs pour le système énergétique à l’horizon 2070, soit 20 ans après les objectifs 2050 visés par l’accord de Paris. Mais elle passe également en revue quelque 800 options technologiques afin de voir ce qu’il faudrait faire pour atteindre cet objectif dès 2050.

L’électricité à la rescousse

« L’extension de l’utilisation de l’électricité à un plus grand nombre de secteurs de l’économie est le facteur qui contribue le plus à l’obtention d’émissions nettes nulles », rapporte l’AIE. Cependant, la transformation du seul secteur de l’électricité ne permettrait au monde de parcourir qu’un tiers du chemin vers des émissions nettes zéro.

Ce n’est pas sans enjeux, puisque dans le scénario de développement durable, « la demande finale d’électricité fait plus que doubler » pour répondre aux usages : alimenter les voitures, les bus et les camions, produire des métaux recyclés et fournir de la chaleur à l’industrie, et fournir l’énergie nécessaire au chauffage, à la cuisson et aux autres appareils dans les bâtiments, insiste le rapport.

En outre, pour atteindre des émissions nettes nulles en 2050, il faudrait déployer beaucoup plus rapidement la production d’électricité à faible teneur en carbone. Dans le scénario « d’innovation accélérée », la production d’électricité serait environ 2,5 fois plus élevée en 2050 qu’aujourd’hui, soit un taux de croissance équivalent à l’ajout de l’ensemble du secteur électrique américain tous les trois ans. Les ajouts annuels de capacité d’électricité renouvelable, quant à eux, devraient être, en moyenne, quatre fois supérieurs au record actuel, qui a été atteint en 2019.

Mais l’électricité ne peut tout seule

L’électricité seule ne pourra cependant pas répondre à tous les enjeux. Ainsi, l’AIE juge que l’hydrogène doit permettre d’étendre la portée de l’électricité. Là encore, avec une montée en puissance des besoins. « Une grande quantité de production supplémentaire est nécessaire pour l’hydrogène à faible teneur en carbone. La capacité mondiale des électrolyseurs, qui produisent de l’hydrogène à partir de l’eau et de l’électricité, passe de 0,2 GW aujourd’hui à 3 300 GW dans le scénario de développement durable ». Et pour atteindre le niveau nécessaire pour aboutir à des émissions nettes nulles, ces électrolyseurs consommeraient deux fois la quantité d’électricité que la République populaire de Chine produit aujourd’hui…

Développer le CCS et les bioénergies

L’AIE revient ainsi à la charge sur le captage et stockage du carbone (CCS) et les bioénergies qui doivent pouvoir jouer des rôles multiples. « Le captage des émissions de CO2 en vue de les utiliser de manière durable ou de les stocker est une technologie cruciale pour atteindre des émissions nettes nulles », insiste l’agence de l’OCDE.

« Dans le scénario de développement durable, le CCS est utilisé pour la production de carburants synthétiques à faible teneur en carbone et pour éliminer le CO2 de l’atmosphère. Elle est également essentielle pour produire une partie de l’hydrogène à faible teneur en carbone nécessaire pour atteindre des émissions nettes nulles, principalement dans les régions disposant de ressources en gaz naturel à faible coût et d’un stockage de CO2 disponible. », rappelle le rapport.

En outre, il faut dans le même temps multiplier par trois par rapport aux niveaux actuels le recours aux bioénergies modernes, à la fois pour remplacer directement les combustibles fossiles (biocarburants pour le transport) ou pour compenser indirectement les émissions par son utilisation combinée avec le CCS.

In fine, indique l’AIE, alors que « la sécurité du système énergétique mondial actuel repose en grande partie sur la maturité des marchés mondiaux des trois principaux combustibles – charbon, pétrole et gaz naturel – qui représentent ensemble environ 70 % de la demande énergétique finale mondiale », demain « l’électricité, l’hydrogène, les combustibles synthétiques et la bioénergie » doivent représenter une part de la demande similaire à celle des combustibles fossiles dans le scénario de développement durable.

Rôle des gouvernements

« Le succès spectaculaire de l’énergie solaire photovoltaïque, qui est devenue la source d’énergie la moins chère dans de nombreuses économies, et l’essor impressionnant de l’éolien en mer démontrent la capacité des technologies énergétiques propres à percer si les gouvernements mettent en place les politiques adéquates pour soutenir leur expansion », insiste le directeur générale de l’agence de l’OCDE.

Si les marchés sont essentiels pour mobiliser des capitaux et catalyser l’innovation, ils ne permettront pas à eux seuls d’atteindre un niveau d’émissions nettes zéro, martèle le rapport NTE 2020. Les gouvernements ont un rôle énorme à jouer dans le soutien des transitions vers des émissions nettes zéro. Et l’AIE d’estimer que « pour être efficaces, les outils politiques doivent porter sur cinq domaines essentiels : s’attaquer aux émissions des actifs existants ; renforcer les marchés des technologies à un stade précoce de leur adoption ; développer et mettre à niveau les infrastructures qui permettent le déploiement des technologies ; renforcer le soutien à la recherche, au développement et à la démonstration et enfin développer la collaboration technologique internationale ».

Optimiste, Fatih Birol signale que « de plus en plus de gouvernements dans le monde entier soutiennent les technologies énergétiques propres dans le cadre de leurs plans de relance économique en réponse à la crise Covid-19, comme l’ont clairement indiqué les 40 ministres qui ont participé au sommet de l’AIE sur les transitions en matière d’énergie propre le 9 juillet 2020. »

Capgemini participe au développement et à l’exploitation d’un spectromètre inédit pour MicroCarb

Depuis qu’elle a remporté l’appel d’offres lancé par le Centre national d’études spatiales (CNES), la société Capgemini prend activement part dans la réalisation du projet MicroCarb. Son objectif sera de réaliser une cartographie planétaire de la concentration en dioxyde de carbone (CO2) de l’atmosphère grâce à la mise en orbite d’un satellite.

Ainsi, de nouvelles données de haute précision permettront d’identifier les principales sources d’émission et les puits de stockage de ce gaz à effet de serre. Ce projet est également le fruit d’une collaboration européenne entre le CNES, UKSA (United Kingdom Space Agency) et EUMETSAT (Organisation européenne pour l’exploitation des satellites météorologiques, basée à Darmstadt en Allemagne). Le lancement du satellite MicroCarb est prévu pour la fin de l’année 2021.

Une haute précision, de l’ordre d’un ppm

« Capgemini est un partenaire reconnu pour nos activités de traitement de données satellites et de big data dans de nombreux projets scientifiques et environnementaux », affirme Simon Baillarin, chef du service en charge des développements de centres de mission d’Observation de la terre au CNES. Voilà pourquoi Capgemini, fort de trente années d’expérience dans le domaine spatial, participe à la mise au point d’un spectromètre à réseau inédit, spécialement conçu pour le projet MicroCarb. « C’est un outil très innovant », déclare Nicolas Fabre, chef de projet travaillant actuellement sur le pilotage du développement du segment sol de la mission MicroCarb pour le CNES.

« Ce spectromètre fonctionne par transfert radiatif, cela signifie qu’il évalue la quantité de rayons reflétés par la Terre », explique Jérôme Ponton, responsable du compte CNES chez Capgemini France. « Grâce à lui, nous pourrons estimer avec une grande précision les flux d’échanges de CO2 à la surface de la Terre », ajoute Jérôme Ponton. Selon le CNES, ce degré de précision sera de l’ordre d’1 ppm.

Une mission de quatre à cinq ans

Ainsi, les informations collectées dans le cadre du projet MicroCarb seront essentielles pour mieux comprendre les origines et l’impact du dérèglement climatique. « À l’heure actuelle, la concentration moyenne de CO2 dans l’atmosphère se situe aux alentours de 400 ppm, soit deux fois plus que durant l’ère préindustrielle », rappelle Jérôme Ponton. Et en plus de collecter des données sur les flux mondiaux de CO2, le spectromètre permettra aux scientifiques de mieux comprendre le cycle du carbone et les comportements des grands écosystèmes.

De ce fait, les zones de haute concentration de biodiversité, telles que l’Amazonie ou les océans, seront particulièrement surveillées. Ces observations devraient durer plusieurs années. « Nous devrions assurer la maintenance du segment sol nécessaire à l’analyse des données collectées par le satellite durant quatre à cinq ans », déclare Nicolas Fabre. À l’heure actuelle, Capgemini travaille sur le développement des premiers algorithmes qui permettront la calibration du spectromètre. Cette étape devrait durer encore plusieurs mois.

Article mis à jour le 13 octobre 2020.

Concilier alimentation mondiale et sauvegarde de la biodiversité sera-t-il possible ?

Selon le rapport « Planète vivante » publié par le WWF le 10 septembre dernier, 68 % des vertébrés ont disparu de la planète durant ces cinquante dernières années. Ce chiffre s’ajoute aux nombreux autres faisant état du déclin de la biodiversité. En parallèle, la population mondiale augmente, et pourrait atteindre, selon l’ONU, dix milliards d’individus d’ici 2050. De fait, les besoins en nourriture augmenteront dans les prochaines années. Or, cela a été rappelé durant la plénière de la Plateforme intergouvernementale pour la biodiversité (IPBES) qui avait eu lieu à Paris au printemps 2019, l’alimentation est la première cause de déclin de la biodiversité.

Dans le but de trouver une issue à ce paradoxe auquel l’humanité devra faire face à moyen terme, un groupe de 58 chercheurs ont établi plusieurs scénarios par modélisation informatique. « Le simple fait de nourrir la population humaine croissante sera un défi », affirme David Leclère, docteur en sciences environnementales, chercheur à l’International Institute for Applied Systems Analysis (IIASA) situé à Laxenbourg en Autriche, à la tête de cette équipe de recherche. Les résultats de leurs travaux ont fait l’objet d’une publication dans la revue scientifique Nature, également le 10 septembre.

Agriculture et nature « sur une trajectoire de collision »

« La première cause de la perte de biodiversité est le changement d’usage des sols, au profit d’une agriculture de plus en plus industrialisée et financiarisée, pour satisfaire un régime alimentaire de plus en plus mondialisé, de plus en plus carné, gras et sucré », constatait en 2019 Yann Laurans, directeur du programme Biodiversité et écosystèmes à l’Institut du Développement Durable et des Relations Internationales (Iddri). Si rien n’est changé dans les comportements alimentaires mondiaux, cette tendance sera accentuée par l’accroissement de la population et des richesses. Pourtant, rien n’indique que la proportion de terres agraires et de pâturages augmentera.

« Essayer d’équilibrer cette demande en augmentation rapide avec la quantité limitée de terres disponibles pour les cultures et les pâturages place l’agriculture et la nature sur une trajectoire de collision », constatent Brett Bryan et Carla Archibald, chercheurs au Centre for Integrative Ecology à l’Université Deakin de Melbourne (Australie), après lecture de l’étude publiée dans Nature. Ainsi, les différents modèles d’utilisation des terres réalisés par David Leclère et ses confrères sont autant de propositions pour dépasser ce blocage. Pour ce faire, trois projections ont été faites par rapport à un scénario de référence, dans lequel aucune action de sauvegarde n’est entreprise.

Jusqu’à 90 % de pertes de biodiversité évitées

Afin de préserver la biodiversité, les pistes avancées par David Leclère et son équipe sont les suivantes : l’extension du nombre de réserves naturelles protégées, la restauration des terres dégradées, une stratégie mondiale de la préservation des paysages. Si de telles mesures étaient mises en œuvre, 58 % des pertes de biodiversité seraient évitées. Néanmoins, si les pratiques alimentaires restent similaires à celles d’aujourd’hui, un tel modèle impliquerait inexorablement une hausse des prix. C’est pourquoi les scientifiques préconisent de combiner ces actions de conservations à des interventions sur le système alimentaire.

Ainsi, deux scénarios intègrent tout ou partie des idées suivantes : la régulation de l’offre et de la demande alimentaire, l’augmentation des rendements agricoles, la mondialisation du commerce de nourriture, la réduction de moitié de la consommation de viande, et la division par deux du gaspillage alimentaire. Dans le cas où toutes ces mesures seraient associées, l’étude affirme qu’entre 66 % et 90 % des pertes de biodiversité pourraient être évitées. De plus, l’application de mesures conjointes de conservation de la biodiversité et de régulation du système alimentaire permettrait d’endiguer la hausse des prix de la nourriture.

Des affirmations « excessivement optimistes » ?

Cependant, les projections effectuées par David Leclère et son équipe comportent des biais. Le plus grand est qu’elles ne tiennent pas compte des effets du réchauffement climatique sur la biodiversité. « Cela soulève une incohérence interne car le scénario de référence considère l’utilisation des terres, les changements sociaux et économiques sous environ quatre degrés de réchauffement climatique d’ici 2100. Mais, d’un autre côté, il ne tient pas compte de l’effet profond du réchauffement sur les populations végétales et animales et les écosystèmes qu’elles composent », déplorent Brett Bryan et Carla Archibald. Les conséquences liées aux espèces invasives et à la chasse ne sont pas prises en compte non plus.

De son côté, David Leclère reconnaît ces limites, et affirme que ces points doivent rapidement faire l’objet de prochaines recherches. Mais pour Brett Bryan et Carla Archibald, ces lacunes permettent de remettre en question certains points. « Malheureusement, pour nous tous, l’omission de ces menaces clés signifie probablement que les estimations des auteurs sur le sort de la biodiversité et l’efficacité de la conservation mondiale intégrée et de l’action du système alimentaire sont excessivement optimistes » déclarent-ils.

Techniques de l’Ingénieur participe à Euronaval

Depuis le début de la pandémie de COVID-19, les organisateurs du salon d’EURONAVAL travaillent d’arrachepied pour maintenir le salon, contre vents et marées. Face à la recrudescence du nombre de contaminations de COVID-19 en France, le gouvernement a récemment annoncé de nouvelles règles sanitaires. Celles-ci prévoient l’interdiction de tous les salons et évènements jusqu’à la fin du mois d’octobre. Suite à ces annonces, le GICAN et la SOGENA ont décidé de réorienter l’édition 2020 d’EURONAVAL vers un format entièrement numérique.

EURONAVAL Online, le double digital du salon EURONAVAL.

Conscients qu’un certain nombre de pays ne pourraient probablement pas, cette année, envoyer de délégations et d’industriels visiter le salon, les organisateurs travaillent depuis plusieurs mois avec leur partenaire J2C communication, à la création d’un espace numérique dédié au salon. Cet espace a été imaginé pour permettre aux exposants de présenter leurs produits et innovations par le biais de stands digitaux. L’objectif étant de pouvoir leur proposer un accompagnement sur mesure pour la prise en main de cet outil et la personnalisation de leurs stands. Durant cette période de conceptualisation de Naval Online, les préparatifs, en lien avec les services de l’Etat concernés et notamment la Préfecture, permettaient d’envisager un salon réussi dans le strict respect des règles sanitaires. Le Conseil d’Administration du GICAN a pris acte des annonces du ministre de la Santé du mercredi 23 septembre : la baisse de la jauge maximale autorisée pour les grands évènements, de 5 000 à 1 000 personnes, ainsi que la reprise désormais établie de l’épidémie de COVID-19, ne permettent plus de garantir un salon « en présentiel » satisfaisant, tant pour les 300 exposants que pour les 70 délégations officielles étrangères qui avaient déjà formulé le souhait de se rendre à Paris-Le-Bourget. Dans ce contexte, le GICAN et la SOGENA ont fait le choix de réorienter EURONAVAL 2020 vers une solution entièrement digitale. Avec le soutien de ses partenaires, l’édition 2020 du salon EURONAVAL se tiendra uniquement en ligne, grâce à la nouvelle plateforme EURONAVAL-ONLINE.

Jusqu’ici réservé aux délégations officielles et aux exposants ne pouvant se rendre à Paris-Le-Bourget, EURONAVAL-ONLINE est désormais ouvert à l’ensemble des visiteurs et exposants qui le souhaitent. Du 19 au 25 octobre, les délégations et visiteurs du monde entier pourront ainsi retrouver les exposants d’EURONAVAL 2020 sur le salon numérique EURONAVAL-ONLINE. Ils pourront organiser sur leurs rendez-vous BtoB en visio et suivre les workshops thématiques afin de mettre en valeur tout le savoir-faire des industriels navals.

Le programme d’EURONAVAL ONLINE

SEAnnovation :

L’espace SEAnnovation dédié aux start-ups a été lancé lors d’EURONAVAL 2018 en partenariat avec Starburst et le GICAN. Devant le succès rencontré par cette initiative, les organisateurs ont choisi de renconduire SEAnnovation pour cette nouvelle édition. Toutes les start-ups engagées dans les innovations technologiques de défense ou duales civil-défense sont invitées à exposer sur l’espace SEAnnovation. En réponse à l’appel à candidature lancé au mois de février, plus de 60 start-ups ont déposé leur dossier, et une trentaine a été sélectionnée, témoignant de l’enthousiasme que suscite ce projet. Suite à la réorientation du salon vers une édition entièrement digitale, toutes les startups se sont vues offertes la possibilité de créer leur stand digital. Les sessions de pitchs et de tables-rondes se dérouleront également online.

Le Cyber Naval Hub :

La cybersécurité est devenue un enjeu majeur pour tout le secteur de la défense. Dans un monde numérisé et interconnecté, la menace cyber est en augmentation sur l’ensemble du domaine maritime civil et militaire.

Les organisateurs d’EURONAVAL, en partenariat avec CEIS, spécialisé dans le conseil en Cyber Défense, ont donc décidé de créer un nouvel espace : Le Cyber Naval Hub. Workshops et rencontres sur cette thématique auront lieu toute la semaine. Parmi les sociétés présentes, six dévoileront leurs innovations sur le secteur.

Le Navire des métiers :

Le « Navire des Métiers, le road show » sortira, en ligne, le grand jeu pour informer et sensibiliser aux métiers et aux formations des industries de la mer ! Des webinaires en live comprenant différents ateliers animés par des professionnels (experts métiers, ressources humaines, représentants industriels et opérateurs de formation) seront proposés en accès libre du 20 au 22 octobre.

Mais aussi :

  • Des workshops thématiques organisés durant toute la semaine du salon
  • Une présentation de l’étude menée par Jane’s sur l’industrie navale dans le monde
  • Des prises de parole de la Ministre des Armées, de la DGA et du Secrétariat Général de la Mer entre autres
  • Une web-conférence de la Fondation pour la Recherche Stratégique (FRS)
  • Des rendez-vous quotidiens avec les industriels du monde entier pour échanger sur les dernières innovations et l’avenir de la filière

Un dispositif portable pour mesurer la pollution au plomb

Le plomb fait partie des métaux lourds les plus présents dans l’environnement et en particulier dans le fond des rivières. Actuellement, la détection d’une pollution aux métaux lourds nécessite la collecte d’échantillons par bateau puis l’envoi à un laboratoire d’analyse, ce qui prend plusieurs jours.

Un détecteur portable à base de graphène

La détection de plomb nécessite actuellement l’utilisation de techniques de caractérisation lourdes telles que la spectroscopie d’absorption atomique ou la spectrométrie de masse par plasma à couplage inductif (ICP-MS). Ces méthodes ne sont pas des techniques de terrain et elles ne sont ni rapides ni économiques.

L’équipe de chercheurs de l’université américaine Rutgers (State University of New Jersey) a donc travaillé sur le développement d’une méthode de détection électrochimique basée sur la voltamétrie. D’après l’étude publiée dans la revue “IEEE Sensors”, le fonctionnement de ce nouveau détecteur de plomb repose sur l’utilisation des propriétés électrochimiques de l’oxyde de graphène.

Ce détecteur a ainsi été développé, calibré, testé et sa performance analysée. Les résultats semblent prometteurs, car la sensibilité du détecteur est plutôt bonne :

  • 73 µA ppb-1 cm-2 sur la gamme 0-100 ppb ;
  • 9 µA ppb-1 cm-2 sur la gamme 100 ppb-20 ppm ;
  • limite de détection de 4 ppb.

Ce détecteur est ainsi capable de quantifier de faibles quantités de métaux lourds dans les sédiments.

Ce nouveau laboratoire portable peut détecter la pollution au plomb rapidement dans les sédiments collectés par le navire. Credit Azam Gholizadeh, Rutgers University–New Brunswick

Un champ d’application très étendu

Les sédiments de nombreuses rivières américaines sont contaminés par des déchets industriels déversés il y a des décennies. La gestion des déblais de dragage des canaux de navigation nécessite donc une identification rapide des zones contaminées, afin de limiter l’impact sur les écosystèmes et l’agriculture. Cette nouvelle technique de mesure pourrait donc permettre de réaliser des programmes de gestion économiques et efficaces.

Les prochains travaux devraient porter sur la miniaturisation, afin de créer un instrument portable qui soit capable de donner le taux de pollution simultanément de la collecte de sédiments.

Par ailleurs, au-delà de la détection de plomb dans les sédiments, cette méthode pourrait être utilisée pour analyser le taux de métaux lourds présent dans l’eau potable, voire dans les aliments.

Mehdi Javanmard, professeur associé au Department of Electrical and Computer Engineering, précise  : “Avec un outil comme celui-ci, un jour, vous pourriez aller dans un bar à sushi et vérifier si le poisson que vous avez commandé contient du plomb ou du mercure.”

D’après l’article de Todd Bates du 26 août 2020 pour Rutgers

Améliorer la durée de vie des piles à hydrogène par électro-catalyse sélective

Les arrêts et redémarrages répétitifs des véhicules fonctionnant à l’hydrogène provoquent de sévères réactions de corrosion au niveau de la cathode de la pile à combustible. Pour quelles raisons ? Parce qu’en cas d’arrêt du moteur, de l’air s’introduit à l’anode et la corrosion des éléments cathodiques s’accélère alors que le potentiel à la cathode grimpe instantanément.

Le catalyseur développé par l’équipe de chercheurs coréens favorise l’oxydation de l’hydrogène et supprime les réactions de réduction de l’oxygène (ORR) de manière sélective.

Une solution basée sur le phénomène de transition métal isolant

La transition métal isolant (en anglais, Metal Insulator Transition ou MIT), est un phénomène qui se produit lorsqu’un matériau passe de l’état conducteur à l’état isolant sous l’effet de modifications de son environnement. Le trioxyde de tungstène (WO3), par exemple, a la capacité d’augmenter sa conductivité lorsqu’il capte un proton et de repasser à l’état isolant lorsque la pression d’oxygène augmente.

Pour exploiter cette propriété, l’équipe de chercheurs de Pohang University of Science and Technology (POSTECH) a ainsi développé un catalyseur Pt/HxWO3 qui combine du platine et un bronze de tungstène et d’hydrogène.

Le mécanisme est le suivant :

  • en utilisation normale, l’état conducteur (H-WO3) est maintenu par l’insertion d’un proton ;
  • lorsque le contact est coupé, de l’air s’introduit, faisant augmenter la pression d’oxygène. L’état isolant WO3 réapparaît, ce qui stoppe la réaction à l’électrode et résout le problème de corrosion cathodique.
Illustration du mécanisme de “transition métal isolant”, appliqué au WO3. Crédit : Pr Yong-Tae Kim, POSTECH.

Des résultats encourageants

Ces travaux, développés en détail dans un article publié le 29 juin 2020 dans la revue Nature Catalysis [1] semblent encourageants. En effet, grâce à cette réaction d’oxydation sélective de l’hydrogène initiée par le catalyseur Pt/HxWO3, la durée de vie est multipliée par un facteur 2, en comparaison avec l’utilisation de catalyseurs conventionnels de type Pt/C.

Le professeur Yong-Tae Kim, responsable de cette étude estime ainsi que « ces recherches améliorent considérablement la durée de vie des piles à combustible destinées aux automobiles. »

D’après l’article du 13 juillet 2020, publié sur le site de POSTECH

Pour en savoir plus :

[1] Jung, S., Yun, S., Kim, J. et al. Selective electrocatalysis imparted by metal–insulator transition for durability enhancement of automotive fuel cells. Nat Catal 3, 639–648 (2020).

Des données de santé chez Microsoft : un hébergement sous haute tension

Les données de santé sont considérées comme des données à caractère personnel, car elles révèlent des informations sur l’état de santé d’une personne. La CNIL précise qu’elles « sont relatives à la santé physique ou mentale, passée, présente ou future, d’une personne physique (y compris la prestation de services de soins de santé) qui révèlent des informations sur l’état de santé de cette personne. »

Trois catégories de données entrent dans cette définition :

  • Les données de nature sanitaire (antécédents médicaux, maladies, soins réalisés,
    résultats d’examens…)
  • Les données qui suite à un croisement deviennent des données de santé, car elles révèlent une information sanitaire.
  • Les données à destination d’une utilisation médicale.

Leur hébergement dans le cloud est donc un sujet très sensible et délicat. La création en novembre 2019 du PDS (également appelée « Health Data Hub » (HDH)), a déclenché une bataille juridique menée par différentes associations françaises. Cette plateforme a pour objet de veiller à la qualité des données de santé et aux conditions générales de leur mise à disposition, garantissant leur sécurité et facilitant leur utilisation dans le respect de la protection des données personnelles sur l’ensemble du territoire.

Le PDS peut être considéré comme une bibliothèque renfermant de nombreuses bases de données (1) partagées et accessibles à des centres de recherche publics et des acteurs privés dès lors que leur projet est d’intérêt général et qu’ils y ont été autorisés par la CNIL.
Mais un collectif regroupant des médecins, des citoyens, des informaticiens et des journalistes estime que les missions (favoriser l’accès aux données, soutenir la collecte et consolider les données, accompagner la valorisation des données de santé…) de cette
plateforme nécessitent qu’elle soit hébergée chez un prestataire français.

Derrière ses différentes missions, il y a des considérations de recherche scientifique, de prestige et de souveraineté économiques. « Les avancées de l’IA en santé dépendent de nos capacités à croiser des quantités massives de données pour mettre en évidence des corrélations, qui ensuite font l’objet de recherches médicales », peut-on lire dans le rapport du député et mathématicien Cédric Villani sur l’intelligence artificielle et qui est à l’origine de la réflexion sur la création du PDS.

L’origine de la polémique est la décision du gouvernement français de faire héberger toutes ces données dans un datacenter de Microsoft aux Pays-Bas. Ce centre de données est donc soumis au RGPD qui n’autorise pas le transfert de données en-dehors de l’Union européenne. Ce n’est pas la sécurité informatique et physique de ce datacenter qui est en cause mais la confidentialité des données qu’il héberge.

Recours devant le Conseil d’État

Microsoft étant une entreprise américaine, elle est soumise au Cloud Act (Clarifying Lawful Overseas Use of Data Act). Votée en mars 2018, cette loi permet aux États-Unis d’accéder plus facilement aux données stockées sur des serveurs situés hors des États-Unis. Dans le cadre d’une enquête pénale, si elles ont un mandat ou par simple ordonnance d’un tribunal habilité, les forces de l’ordre américaines peuvent avoir accès à des données hébergées à l’étranger.

C’est la raison pour laquelle, un collectif de 18 organisations et personnalités avait déposé un recours devant le Conseil d’État. Mais le 21 septembre, celui-ci a rejeté ce recours. Dès le lendemain, les opposants à cet hébergement chez Microsoft ont écrit que la même requête sera déposée dans le cadre d’une procédure standard.

Cette nouvelle action risquant de prendre des années, ils réclament l’instauration d’un moratoire, « tant qu’il ne peut pas être assuré qu’aucune donnée de santé ne sera transférée aux États-Unis, en dehors de toute protection ou garantie adéquate pour les citoyens français ».

Cette bataille juridique est d’autant plus surprenante que la France est l’un des très rares pays à avoir mis en place une certification pour « Hébergeur de données de santé ». La HDS a été mise en place pour que les hôpitaux protègent mieux les données de leurs patients. Or, le diable se cache dans les détails de certains contrats.

Ainsi, les offres d’abonnement à Microsoft 365, mais aussi ceux concernant le stockage des données ne bénéficient pas de cette certification. Les établissements de santé qui souhaitent utiliser les solutions de cet éditeur américain doivent exiger les versions certifiées HDS.

Certification HDS

Or, l’éditeur se garde bien de préciser cette différence dans ses différentes communications. Il se contente d’indiquer que « les clients éligibles doivent contacter leur point de contact de licence Microsoft pour conclure les présentes conditions contractuelles spécifiques avant d’héberger des données personnelles de santé sur les services en ligne Microsoft ».

Pas simple pour les établissements de santé, d’autant que la réglementation est assez subtile. D’un côté, les hébergeurs de données de santé sur support numérique (en dehors des services d’archivage électronique) doivent être certifiés (HDS-Hébergeurs de données de santé). Cette certification remplace, depuis fin 2019, l’agrément.

D’un autre côté, un établissement de santé, qui décide de stocker en interne ses données, n’est pas tenu d’être certifié HDS, selon le décret du 26 février 2018. Ce qui n’exclut pas de respecter une obligation de sécurité de telles données (article 32 du RGPD).

Pourtant faire appel à un tiers certifié « Hébergeur de Données de Santé » (HDS) offre plus de garanties : chiffrement des données et des flux, traçabilité, réversibilité…

Toute la « chaîne » (de l’envoi ou la consultation d’un fichier à son stockage) doit être certifiée HDS.

Si ce n’est pas le cas, le traitement des données de santé ne respecte pas la réglementation. Et c’est l’établissement qui en serait tenu pour responsable en cas de fuite de données par exemple. Faire appel à un tiers certifié HDS apparaît comme une « assurance » pour un hôpital.

« C’est en effet ce sous-traitant qui prend en charge la sécurité des données, qui sont ainsi placées sous sa responsabilité. Étant certifiée HDS, notre structure recouvre la totalité des activités pour lesquelles un hébergeur peut être certifié, allant de la mise à disposition et au maintien en condition opérationnelle des sites physiques permettant d’héberger l’infrastructure matérielle du système d’information utilisé pour le traitement des données de santé, jusqu’à la sauvegarde de données de santé », explique Bertrand Servary, Directeur général de NetExplorer, une entreprise toulousaine spécialisée dans le cloud depuis 2007.

(1) Selon l’INSERM, il existe environ 260 bases de données publiques et 500 bases de données médico-économiques.

[Webinar] La fabrication additive dans tous ses états

La fabrication additive dans tous ses états – Partie 1

Cette web conférence s’inscrit dans le cadre de la journée technique organisée par Cetim Centre-Val de Loire : « La fabrication additive dans tous ses états – Partie 1 ».
Le Cetim Centre-Val de Loire propose aux industriels de partager et comprendre la vision de MBDA et de l’Armée de Terre sur les technologies de fabrication additive métallique ainsi que les enjeux liés à la structuration d’un écosystème français fort de recherche et développement.

Programme :

  • Introduction par Jean-Christophe Augé, directeur du Cetim Centre-Val de Loire.
  • Intervention d’un industriel du secteur de la défense, MBDA et de l’Armée de Terre sur les enjeux de la fabrication additive dans leurs secteurs d’activités respectifs.
  • L’écosystème de la recherche et développement en fabrication additive métallique, par Philippe Lubineau, directeur de la recherche et des programmes du Cetim.

Je m’inscris 

La fabrication additive dans tous ses états – Partie 2

Cette web conférence s’inscrit dans le cadre de la journée technique organisée par Cetim Centre-Val de Loire : « La fabrication additive dans tous ses états – Partie 2 ».
Le Cetim Centre-Val de Loire propose aux industriels deux interventions techniques présentant deux aspects de la chaine de valeur : la fabrication et le parachèvement.

Programme :

  • Les nouvelles technologies adaptées aux PME/PMI et à la grande série : plus accessibles, plus sécurisées, plus productives… pour lever les verrous actuels, par Maxime Fayolle, responsable d’activité fabrication additive au Cetim.
  • Les nouvelles solutions pour le parachèvement et la finition des pièces issues de fabrication additive métallique, par Stéphane Guérin, ingénieur procédés de fabrication et de finition au Cetim.

Je m’inscris

Souveraineté numérique : des espaces de données sécurisés et partagés entre les entreprises européennes

Le volume de données produites dans le monde augmente rapidement, passant de 33 zettaoctets (le zettaoctet étant égal à 1021 octets) en 2018 à 175 zettaoctets en 2025, selon une projection d’IDC parue en 2018.

Aujourd’hui, 80 % du traitement et de l’analyse des données ont lieu dans des centres de données, le reste étant produit par des objets connectés.

D’ici 2025, ces proportions seront probablement inversées selon un rapport de 2017 publié par le cabinet Gartner. « Outre les avantages économiques et de durabilité que cette évolution présente, elle offre aux entreprises des possibilités supplémentaires de développer des outils permettant aux producteurs de données de mieux contrôler leurs propres données », explique la Commission européenne.

« L’UE dispose de la technologie, du savoir-faire et d’une main-d’œuvre hautement qualifiée.  Toutefois, des concurrents tels que la Chine et les États-Unis innovent déjà rapidement et projettent leurs concepts d’accès et d’utilisation des données dans le monde entier », constate-t-elle également.

Création de valeur

En devenant le nerf de la guerre économique et politique, la donnée est devenue un enjeu de souveraineté alors qu’il y a une quinzaine d’années on évoquait plutôt cette problématique sous le terme « d’exception », rappelle à juste titre Étienne Drouard, avocat en protection des données et cybersécurité au cabinet Hogan Lovells.

À cause de l’évolution des technologies (le cloud devenant incontournable et la production de données explosant avec la multiplication des appareils), la position de l’Union européenne évolue.

Parmi les différents projets de souveraineté annoncés en Europe, l’un des plus ambitieux est la création d’un espace européen unique des données. « Les données personnelles et non personnelles, y compris les données commerciales sensibles, sont sécurisées et les entreprises peuvent avoir facilement accès à une quantité presque infinie de données industrielles de haute qualité, ce qui stimule la croissance et crée de la valeur », explique la Commission européenne dans sa « stratégie pour les données ».

En un mot, il s’agirait de datacenters créés et gérés par les Européens et dans lesquels les acteurs publics et privés pourraient piocher et intégrer de telles données. Objectif : profiter directement de ces richesses à la place des GAFAM notamment.

« Ce n’est pas la première tentative au sein de l’UE que nous voyons, avec notamment l’axe franco-allemand, pour créer des infrastructures d’hébergement souverain. Dans un premier temps, ces projets concernaient des activités de défense ou en lien avec des opérateurs d’infrastructures vitales. Aujourd’hui, le sujet revient sous une autre forme avec une dimension plus stratégique et sociétale destinée à agréger des acteurs et des intérêts publics et privés », explique maître Étienne Drouard.

La Commission européenne a en effet l’intention de financer la création de neuf espaces de données communs et interopérables à l’échelle de l’UE :

  • données manufacturières ;
  • données relatives au pacte vert ;
  • données relatives à la mobilité ;
  • données relatives à la santé ;
  • données financières ;
  • données relatives à l’énergie ;
  • données relatives à l’agriculture ;
  • données pour l’administration publique ;
  • données relatives aux compétences.

« Le commissaire européen Thierry Breton a indiqué cet été qu’il souhaitait que les données des Européens soient stockées et traitées sur le territoire de l’Union européenne. C’est la seconde fois que l’UE invalide ses propres décisions permettant de transférer des données librement vers des pays tiers. Cela renforce l’idée que nous n’avons pas confiance dans les autres pays du monde. La conséquence politique que Thierry Breton propose d’en tirer reste à débattre, mais elle pourrait devenir une réalité », précise maître Étienne Drouard.

Dilemme

Mais la réussite de ce projet ambitieux implique nécessairement de dépasser quelques tabous, en particulier celui sur la protection des données personnelles. Or le projet européen repose sur la dissociation entre données personnelles et données industrielles.

« Je ne vois pas comment, d’un point de vue technique et juridique, il est possible de les dissocier. Dans la directive « ePrivacy », on définit ce qu’est une donnée de trafic (redéfinie par « métadonnée »), c’est à dire une donnée générée par une communication électronique entre deux ordinateurs et on y intègre l’exigence du consentement d’une personne physique, lorsqu’un autre usage de ces données que l’acheminement d’une communication, est envisagé. Si on ne clarifie pas les cas dans lesquels une donnée de trafic n’a pas de lien avec l’individualisation d’une personne physique, nous ne serons pas près de mettre en commun les données industrielles, car aucune d’entre elles n’échappera à la définition de la donnée personnelle », insiste maître Étienne Drouard.

Le projet européen pourrait peut-être capoter sur ce dilemme : « Comment être exemplaire sur la protection des droits individuels sans qu’un aménagement soit perçu comme une atteinte aux droits des personnes ? Or, un aménagement n’est pas une atteinte inacceptable. En droit, on a toujours fait la différence entre les principes et les exceptions. C’est la différence entre une règle et un dogme », rappelle maître Étienne Drouard.

Enfin, la volonté politique ne suffit pas à financer des projets souverains. Ils doivent reposer sur des modèles économiques fiables et proposer une offre attractive en termes de logiciels et de services.

Jusqu’à présent, les projets de souveraineté numérique européens ou français n’ont pas vraiment convaincu le grand public et les professionnels…

Robots biomimétiques : entre promesses et obstacles

« La nature a trouvé des solutions très diverses et hautement optimisées, après des millénaires d’évolution, à un nombre incalculable de problèmes, remarque Antoine Cully, directeur de l’Adaptive & Intelligent Robotic Lab de l’Imperial College de Londres. Par exemple, comment marcher, nager, grimper, produire de l’énergie, comment affronter des conditions extrêmes, etc. ». Des problèmes que rencontrent également les ingénieurs en robotique, s’inspirant ainsi des facultés d’adaptation de la nature. S’inspirer, et non copier.

« Lorsqu’on souhaite copier le biologique, une démarche scientifique qui a beaucoup de sens pour la recherche, on parle de biomimétisme, explique Jean-Baptiste Mouret de l’équipe Larsen d’Inria. Cependant, lorsqu’on prend un bout de la biologie sans aller jusqu’à la copie de son ensemble, il s’agit de bioinspiration. Parfois, il est très intéressant de copier la nature pour savoir jusqu’où la science est capable d’aller pour mieux comprendre la nature. Et d’autres fois, on souhaite juste s’inspirer d’un phénomène particulier ». C’est le cas notamment des développements robotiques.

Quelques freins à échelle nanométrique

Les recherches en robotique bioinspirée sont nombreuses. Antoine Cully prend l’exemple du drone : « Une équipe de l’EPFL explore de nouvelles formes d’ailes pour permettre à des drones de voler plus longtemps. Dans la même direction, des chercheurs de Stanford étudient des ailes créées à base de vraies plumes pour améliorer la manœuvrabilité des robots ». D’autres recherches portent sur la dextérité des pieuvres, les pattes « ventouses » des geckos, la collaboration des fourmis, sans oublier les mains humaines… Le roboticien Festo a d’ailleurs dévoilé en août dernier son « BionicSoftHand 2.0 », un robot collaboratif doté d’une main. « Pour copier une main humaine, il faudrait beaucoup de moteurs, explique Jean-Baptiste Mouret. Ainsi, on étudie quels sont les mouvements les plus utiles pour l’être humain afin de les reproduire sur le robot. On simplifie le modèle biologique. »

Le cerveau et la capacité d’un individu à se repérer dans l’espace font partie des recherches en robotique. « Dans les drones, on retrouve beaucoup d’applications autour du bioGPS, explique Agnès Guillot, docteure en psychophysiologie et biomathématique, spécialiste en robotique bio-inspirée. C’est-à-dire comment un drone peut s’orienter seul pour faire une cartographie de son environnement. Dans les neurosciences computationnelles, les neurophysiologistes ont étudié les circuits nerveux pour faire fonctionner un robot ». Ce bioGPS a par exemple été utilisé chez AntBot, un robot fourmi capable de naviguer en extérieur, de manière autonome, sans GPS intégré.

Festo développe de nombreux concepts robotiques inspirés du vivant, comme BionicANTs, les fourmis robots coopératrices / Festo

Sans oublier l’intelligence artificielle neuromorphique, pour réaliser des algorithmes de prise de décision en temps réel. Une équipe de recherche du CNRS dirigée par la chercheuse Julie Grollier a même reproduit des neurones et synapses artificiels en « dur ».

« Les scientifiques réussissent à reproduire un certain nombre de choses, mais pas encore à imiter la nature à l’échelle nanométrique, affirme Agnès Guillot. Et c’est à cette échelle que se réalisent les progrès. Par exemple, on n’a jamais réussi à réaliser un muscle artificiel fiable. Cela est très compliqué ». Les robots sont plutôt équipés de moteurs – hydrauliques chez Boston Dynamics par exemple – et non de muscles artificiels. « La volonté de Boston Dynamics est de réussir à réaliser sur des machines l’agilité des animaux, précise Jean-Baptiste Mouret. Ils ont commencé par les pattes avec Big Dog mais ont surtout fait beaucoup d’ingénierie qui n’a rien à voir avec la biologie. »

Quand la recherche sort du labo

Les recherches en robotique bioinspirée intéressent l’industrie. Début 2020, les robots Spots ont par exemple fait leurs premiers pas dans des installations offshore. La Nasa s’est inspirée des pattes du Gecko pour développer Lemur (pour Limbed Excursion Mechanical Utility Robot), un robot capable de grimper sur la paroi externe de la Station Spatiale Internationale.

L’étude du flux optique – la vitesse de déplacement des objets sur la rétine – des insectes a permis à l’Institut des sciences du mouvement de Marseille de développer des capteurs intégrés aujourd’hui sur des drones. « En étudiant certains neurones des yeux d’insectes, les chercheurs ont analysé la stratégie utilisée par ces animaux pour voler dans des environnements très compliqués », précise Jean-Baptiste Mouret.

« Malgré tous les récents progrès en robotique de ces dernières décennies, on peine toujours à voir une grande diversité de robots fonctionnant en dehors des environnements très contrôlés des usines, à l’exception des robots aspirateurs, ajoute Antoine Cully. Mon opinion est que concevoir ce genre de robot demande de grands investissements afin de s’assurer que les robots pourront faire face à une grande diversité de situations ».

Photo de Une : La capacité adhésive des pattes de geckos intéresse les chercheurs.

Techniques de l’Ingénieur partenaire des Journées Annuelles Evolen 2020

« Transformations »

L’industrie de l’énergie est face à un défi planétaire : dans un monde en mutation fournir de l’énergie pour tous en assurant la préservation de notre écosystème.

Les transformations de cette industrie sont essentielles ; elles le sont dans les ressources, les technologies, l’exécution des projets, dans les entreprises, dans les compétences…

Les Journées Annuelles  d’EVOLEN vous propose pour cette édition 100% web un format inédit :

2 jours de conférences avec 4 plénières et 4 ateliers en direct et à revoir en replay.

L’intervention de grands acteurs de l’industrie comme Thierry Blandinières DIrecteur Général de InVivo, Catherine MacGregor Présidente de TechnipEnergies, Arnaud Breuillac Président E&P Total, Pierre Franck Chevet Président de l’IFPEN, Christophe Lecourtier Directeur Général de Business France

Et plus de 100 intervenants au cours de ces Journées

Le programme se prolonge avec 20 ateliers qui seront diffusés jusqu’en fin novembre

Retrouvez tout le programme sur Evolendays.org

Notre application mobile ou web SWAPCARD vous permettra de suivre et de participer en direct aux interventions, plénières, et ateliers. Elle vous offrira la possibilité de poser des questions, de rentrer en contact avec les participants et intervenants et vous permettra, si vous avez manqué le direct, de revivre tous ces débats qui seront enregistrés et disponibles sur la plateforme.

Elle vous offrira la possibilité de poser des questions, de rentrer en contact avec les participants et intervenants et vous permettra, si vous avez manqué le direct, de revivre tous ces débats qui seront enregistrés et disponibles sur la plateforme.

Un dispositif innovant pour transformer des avions de ligne en bombardiers d’eau

Il n’existe pas d’avions de ligne transformés en bombardiers d’eau en Europe. Ce constat, David Joubert, pilote de ligne dans une grande compagnie française, l’a fait en observant des Boeing 747 et des DC10 larguer des produits retardants sur des feux de grande ampleur en Californie. Pour pallier ce manque, il décide de développer un supertanker européen et crée sa société, Kepplair Evolution. Il fait appel à Dominique Legendre, un chercheur français ayant aidé les Américains à évaluer les performances de leurs engins, pour l’accompagner dans son projet. Ensemble, ils créent un nouveau dispositif, baptisé KIOS, permettant de transformer tout avion gros porteur en bombardier d’eau et en optimisant le mode de largage. Entretien avec Dominique Legendre, enseignant à l’ENSEEIHT (École nationale supérieure d’électrotechnique, d’électronique, d’informatique, d’hydraulique et des télécommunications) et chercheur à l’Institut de mécanique des fluides de Toulouse.

Techniques de l’Ingénieur : Présentez-nous le nouveau dispositif de largage de produit sur des avions de ligne ?

Dominique Legendre – Crédit photo : Institut de mécanique des fluides de Toulouse

Dominique Legendre : Notre système est le fruit d’une adaptation de deux dispositifs déjà existants sur des bombardiers d’eau aux États-Unis. Nous nous sommes inspirés d’un premier dispositif qui repose sur la gravité et se rencontre fréquemment sur les Canadair et les DC10. Il consiste à équiper les réservoirs d’une trappe qui s’ouvre afin de laisser tomber le produit sous l’effet de son propre poids. L’inconvénient d’un tel système est que la vitesse de sortie diminue avec la hauteur d’eau, comme décrit par la loi de Torricelli. Le produit s’écoule vite au début, puis de plus en plus lentement, entraînant une empreinte du produit au sol irrégulière. Pour remédier à cette difficulté, ce système est équipé de trappes qui s’ouvrent progressivement afin que la perte de vitesse soit compensée par une ouverture plus grande. La quantité de produits évacuée reste donc à peu près constante, mais j’ai constaté, grâce à des analyses au sol, que la largeur de l’empreinte au sol se réduit au fur et à mesure de la vidange du réservoir. Elle est en effet conditionnée par la vitesse à laquelle le fluide s’évacue. Autre inconvénient de ce dispositif : les réservoirs sont installés sous l’avion, pénalisant ainsi son aérodynamisme.

Face à ces inconvénients, vous êtes-vous inspiré d’un second système existant ?

Oui, il équipe des Boeing 747 avec cette fois, des réservoirs installés à l’intérieur de l’avion. Ce dispositif repose sur une forte pressurisation des réservoirs, de 7 à 8 bar, et qui permet de contrôler le débit et la vitesse à laquelle le produit sort. Par contre, l’inconvénient de ce dispositif se situe au niveau de cette forte pressurisation qui a pour conséquence de pulvériser le produit sur une très grande largeur comparée au système gravitaire. Ceci entraîne une moins forte concentration de l’empreinte au sol alors qu’il est nécessaire qu’elle soit élevée, surtout dans le cas de feux intenses.

Un prototype a été construit à l’échelle 1/3 afin de réaliser des essais et garantir une empreinte du produit au sol régulière.
Crédit photo : Institut de mécanique des fluides de Toulouse

À partir de ces deux dispositifs, quel système avez-vous inventé ?

Nous avons cherché à concevoir un dispositif le plus simple possible et avons conservé le système gravitaire qui permet de laisser le produit tomber sous son propre poids. Par contre, pour compenser la perte de hauteur d’eau, plutôt que d’ajuster l’ouverture de la trappe, nous procédons à une légère pressurisation du réservoir. Comparé aux 7 ou 8 bar du second système déjà existant, la pression de notre dispositif est très faible et peut atteindre au maximum 0,2 bar. Elle s’ajuste automatiquement au fur et à mesure que le réservoir se vide. Nous sommes ainsi capables de garantir une vitesse et un débit constant de sortie du liquide. Grâce à un prototype construit à l’échelle 1/3, nous avons validé notre dispositif avec une empreinte au sol qui s’étale régulièrement quelle que soit la hauteur du liquide dans le réservoir.

Quels sont les autres avantages de votre technologie ?

Dans des zones accidentées avec du relief, les avions sont rarement en position horizontale, ce qui perturbe l’évacuation du liquide des réservoirs dans les deux systèmes déjà existants. Lors d’essais dans notre laboratoire, nous avons réussi à conserver une vitesse de sortie du liquide constante alors que notre prototype était incliné de 15 degrés, et ceci en rajoutant 0,2 bar dans le réservoir.

Nous avons conçu un système facile à installer comme à démonter à l’intérieur de l’avion. Les grands feux en Europe se concentrent sur 4 mois dans l’année, l’avion pourra donc être affecté à d’autres missions le reste du temps. Il pourra par exemple servir à des opérations de rapatriement humanitaires ou au déploiement de secouristes comme à Beyrouth dernièrement. Il pourra aussi être transformé en avion-cargo afin de transporter des marchandises, comme le besoin s’est présenté pendant la crise du Covid-19 avec l’acheminement de masques. Grâce à ces rôles multiples, l’avion pourra être économiquement rentable.

Quelle suite allez-vous donner à ce projet ?

Notre dispositif est breveté et nous montons un projet afin de l’installer dans un avion à taille réelle pour réaliser des essais grandeur nature. Nous sommes aidés dans nos démarches par Toulouse Tech Transfer, un organisme qui accompagne les chercheurs vers l’industrialisation de leurs travaux de recherche. Nous avons besoin d’un budget de 8 à 10 millions d’euros afin de transformer un avion du type A330 ou A340 puis faire des tests en vol et mesurer l’empreinte du produit au sol. Ce type d’avion pourra embarquer jusqu’à 40 000 litres et larguer, à chaque passage, des produits retardant sur une longueur de 800 mètres et une largeur de 40 à 50 mètres. Nous allons prochainement répondre à un appel à projet d’un programme Européen nommé H2020 et dans lequel il y a une thématique sur la lutte contre les grands feux. Il n’existe aucun avion bombardier d’eau à grande capacité en Europe ; notre projet présente un réel intérêt face à la multiplication des feux de grande ampleur sur le continent. En complément des Canadair équipés de plus petits volumes, environ 6 000 litres, et qui déversent des quantités d’eau au sol afin d’attaquer directement les feux, notre avion embarquera des produits retardants pour limiter la combustion des végétaux et ainsi circonscrire l’incendie. Nous cherchons à travailler avec des avions Airbus mais notre dispositif peut aussi s’adapter sur des Boeing comme le 747 ou la génération suivante le 777.

Réseaux industriels : leur transformation numérique complique leur sécurité

Repéré en 2010 par une petite entreprise de sécurité biélorusse, Stuxnet a marqué les esprits.  En soi, le code de ce ver est relativement classique. Mais il est intéressant d’un point de vue technique. Il consiste en effet en un cheval de Troie doublé de technologies de type rootkit pour le rendre invisible (ce qui n’est pas le cas de simples virus).

Mais surtout, le monde entier découvre que les réseaux industriels ne sont pas à l’abri d’une cyberattaque. Introduit au sein de la centrale nucléaire iranienne de Natanz au moyen d’une clé USB piégée ou d’un ordinateur portable transporté par un employé,  ce virus a été le premier à attaquer des systèmes de contrôle industriels que l’on trouve sur des sites sensibles (usines, centrales nucléaires…).

« C’est Stuxnet qui a introduit la notion de cybersécurité dans l’industrie. Avant son apparition, les RSSI (Responsable de la sécurité des systèmes d’information, en anglais, Chief information security officer ou CISO), étaient cantonnés à la partie IT. Après 2010, les industriels ont compris que les risques étaient transverses. Aujourd’hui, les RSSI ont autorité sur la cybersécurité des réseaux industriels et des systèmes de vidéosurveillance », explique Faiz Djellouli, CEO Co-Founder d’Holiseum, une société de conseil et services en cybersécurité.

Selon Edward Snowden, ce code malveillant a été coécrit par la NSA et les services secrets israéliens pour ralentir le programme nucléaire iranien. Depuis la découverte de Stuxnet, il y a eu de nombreux cas de cyberattaques visant des systèmes d’OT (« operational technology »).

Dans la cyberguerre que se livrent de nombreux États, les industriels sont devenus des cibles déterminantes pour déstabiliser un pays ou un concurrent. « Après Stuxnet et Industroyer, voici venu le temps du ransomware Ekans. Conçu pour s’attaquer aux installations industrielles, et plus spécifiquement aux logiciels permettant le contrôle des automates et fonctionnant sous Windows, ce programme malveillant prend en otage ses victimes et exige en retour une rançon. Compte tenu du contexte, la moindre paralysie peut coûter très cher, conduisant les victimes à payer », affirme Fabien Lavabre, expert Cybersécurité chez Seclab, une entreprise de Montpellier spécialisée dans la cyber protection des systèmes industriels.

Ces réseaux industriels sont d’autant plus vulnérables que leurs organisations ont entamé leur transformation numérique.  Auparavant, les réseaux informatiques (IT – Information Technology) et industriels OT étaient gérés séparément. Mais depuis quelques années, la convergence entre ces deux sphères est de plus en plus forte.

Or, l’intégration progressive dans les systèmes OT de fonctionnalités informatiques innovantes est à double tranchant : elle permet de gagner en efficacité, mais elle augmente aussi la surface d’attaque.

« La digitalisation les a obligés à emprunter des solutions du monde de l’IT, mais le cycle n’est pas comparable puisqu’au bout de 5 ans environ, un OS n’est plus supporté alors que dans le monde industriel, le cycle de vie est plus important (entre 15 et 20 ans) », précise Faiz Djellouli.

À l’instar du grand public, les industriels exploitent de plus en plus l’Internet des Objets (IoT) pour optimiser l’automatisation et accroître leur productivité. Les constructeurs automobiles, les compagnies ferroviaires, voire l’industrie agroalimentaire, exploitent des réseaux de capteurs et de senseurs ainsi qu’une multitude d’autres appareils connectés permettant de collecter des données de production et d’alimenter le cloud, afin d’affiner l’analyse de l’efficacité de leurs systèmes.

IoT : maillon faible des industriels

Selon une étude de marché réalisée en 2019 par IoT Analytics, le total des investissements consacrés aux plateformes IT dans le secteur industriel devrait passer de 1,67 milliard de dollars en 2018 à 12,44 milliards de dollars en 2024. La majorité (43 %) des industriels destinent ces investissements à l’optimisation générale des processus.

Or, une étude de Forescout Technologies, spécialisé dans la visibilité et le contrôle des périphériques connectés au réseau, constate que les systèmes de contrôle d’accès physique et équipements médicaux sont très vulnérables.

Reposant sur l’analyse de 8 millions de dispositifs connectés (dans cinq principaux secteurs : finance, institutions publiques, santé, industrie et commerce), cette étude indique que le trio le plus sensible regroupe, dans un ordre décroissant en termes de risques, les systèmes de contrôles d’accès physique, les CVC (chauffage, ventilation, climatisation) et les caméras de surveillance.

Plus inquiétant, un peu plus de 30 % des équipements gérés sous Windows dans le secteur industriel utilisent des versions logicielles dont Microsoft n’assure plus le support !

Comme pour les entreprises, les industriels doivent renforcer leur niveau de sécurité afin d’assurer leur pérennité. « Des mesures simples (humaine, organisationnelle, technologique et physique) – comme des mots de passe durcis, la segmentation des réseaux, le contrôle des accès – ainsi qu’une approche par les risques permettent de couvrir la plupart des menaces. Il n’est pas nécessaire d’avoir un budget prohibitif », déclare Faiz Djellouli.

Le récap’ insolite du mois #6

Un alligator sous hélium récompensé par un prix en science

La 30e cérémonie des prix Ig Nobel récompense des recherches scientifiques insolites. Parmi les lauréats, une équipe internationale dont l’étude consiste à exposer un alligator à un mélange d’hélium et d’oxygène. Leur objectif est d’étudier les vocalisations du crocodilien en altérant leur fréquence grâce à l’hélium. Les résultats ont permis de conclure que les sons émis bénéficiaient bien d’un phénomène de résonance et donc qu’ils devaient varier en fonction de la taille de l’animal.
« Quand vous inhalez l’hélium d’un ballon de baudruche, vous commencez à avoir une drôle de voix parce que l’hélium est moins dense que l’air normal, et la vitesse du son plus élevée« , a expliqué Dr. Stephan Reber, principal auteur de l’étude. « Ce qui change avec l’hélium, c’est la résonance, pas les vibrations de nos cordes vocales. Donc un animal qui produit un son différent a de la résonance« .

Une peau robotique capable de ressentir la douleur comme la peau humaine

Des chercheurs australiens sont parvenus à concevoir pour la première fois une peau artificielle répondant aux stimuli douloureux de la même manière que le ferait une peau humain. Cette innovation ouvre la voie au développement de prothèses encore plus performantes et d’applications dans le domaine de la santé.
Les scientifiques du Royal Melbourne Institute of Technology ont annoncé avoir reproduit la boucle de rétroaction des stimuli douloureux avec un niveau de détails sans précédent. Cette peau électronique est non seulement capable de distinguer différentes formes de douleurs, mais également leur intensité. Elle intègre trois technologies de détection distinctes spécialement développées par l’équipe. On retrouve ainsi un matériau électronique extensible fait de silicone biocompatible aussi fin qu’un autocollant, des revêtements réactifs à la température qui se transforment en réponse à la chaleur, et des cellules de mémoire électronique conçues pour imiter la façon dont le cerveau stocke ces informations.
« Nous ressentons constamment des choses à travers notre peau, mais notre réaction à la douleur ne se déclenche qu’à partir d’un certain seuil, notamment lorsque nous touchons quelque chose de trop chaud ou de trop pointu », explique le professeur Madhu Bhaskaran, auteur principal de l’étude.

Découvrez la Game Boy pastèque !

Un étudiant de Singapour a décidé d’installer une Raspberry Pi dans une pastèque et son invention fonctionne très bien !
Dans le détail, cette invention se compose d’une carte à processeur de type Raspberry Pi reliée à des boutons et à un écran LCD, le tout incrusté dans le fruit préalablement vidé. La pastèque utilisée, relativement petite et légère, semble adaptée pour servir de boîtier au système. Elle est à la fois malléable et facile à prendre en main, et suffisamment dure pour maintenir les boutons en place.
Dans la vidéo ci-dessous, l’étudiant utilise son invention pour jouer à Pokémon en ville et dans les transports. Reste désormais à savoir combien de temps cette console organique fonctionnera avant de se mettre à pourrir ?

La valorisation des déchets thermiques très basse température enfin possible, grâce à la startup Entent

La start-up française Entent compte bien y remédier, grâce au moteur PULSE, qui s’inscrit comme une solution complémentaire aux technologies déjà en place. Créée en 2018 par Mathias Fonlupt et Stéfan Ré, elle vient d’être distinguée par le concours d’innovation i-Lab, organisé par le Ministère de l’Enseignement Supérieur de la Recherche et de l’Innovation, en partenariat avec Bpifrance. Stéfan Ré, co-fondateur d’Entent nous explique le fonctionnement de cette technologie de rupture.

Techniques de l’Ingénieur : Pourquoi peut-on considérer que le moteur PULSE est une technologie de rupture ?

Entent est une startup aixoise créée en 2018 par Mathias Fonlupt et Stéfan Ré (à droite).

Stéfan Ré : Le fonctionnement du moteur PULSE s’inspire de la technologie de moteur ORC (Organic Rankine Cycle) qui est en quelque sorte une machine à vapeur fonctionnant avec des fluides organiques.

Néanmoins, la technologie ORC a l’inconvénient de mal fonctionner en dessous de 150 °C, car elle a été développée avec un objectif de rendement à haute température. L’idée de départ de Mathias était la suivante : repartir d’une feuille blanche pour trouver une technologie viable à basse température. C’est comme ça qu’est né le concept du moteur PULSE.

Le cycle thermodynamique que nous avons développé est totalement nouveau. L’une des innovations consiste à utiliser la chaleur pour assurer la compression du fluide dans le cycle thermodynamique. Ceci permet notamment d’économiser l’énergie dépensée par les pompes mécaniques d’un moteur classique.

On peut dire que le moteur PULSE est vraiment une technologie de rupture, car à 100°C, le gain de rendement attendu est de l’ordre de 60 % par rapport à un ORC. Par ailleurs, l’efficacité de PULSE à 60°C équivaut à celle d’un ORC à 100°C.

Fonctionnement schématique du moteur PULSE, Crédit : Entent

Quels sont les autres avantages de cette technologie ?

Notre technologie a plusieurs atouts. D’une part, le moteur PULSE est relativement peu complexe au niveau de sa conception, car il utilise un système gravito-thermique, actionné directement avec la chaleur de l’industriel. Cette simplicité a un autre avantage : il n’est pas nécessaire d’apporter de l’énergie électrique supplémentaire pour faire fonctionner les pompes mécaniques, il y a donc un gain énergétique supplémentaire.

D’autre part, le moteur PULSE fonctionne sans turbine. Or, les turbines « high-tech » sont conçues pour être très performantes sur un point de fonctionnement particulier, mais dès qu’on s’en éloigne, le rendement chute fortement. L’organe piston que nous utilisons est beaucoup plus souple, car sa gamme de fonctionnement est élargie.

Cette relative simplicité nous permet également de réduire le coût de fabrication du moteur. En effet, nous visons à un temps de retour équivalent aux ORC sur les plus hautes températures, c’est à dire inférieur à 5 ans.

L’innovation vient-elle d’un laboratoire ?

Non, mon associé Mathias Fonlupt est l’inventeur de la technologie qu’il développe depuis maintenant huit ans. Le travail réalisé est énorme et correspond aux attentes d’un doctorat. En parallèle de sa fonction de président d’Entent, Mathias va d’ailleurs bientôt démarrer une thèse au laboratoire de thermodynamique de l’université de Liège, qui est également notre partenaire sur le développement du moteur PULSE.

Où en est le développement de cette technologie ?

Notre première machine pilote est en phase de finalisation et sa mise en service est prévue pour début 2021. Le démonstrateur PULSE sera ensuite instrumenté afin de recueillir le maximum de données.

Êtes-vous à la recherche de partenaires industriels ?

En effet, notre objectif à présent est de trouver un partenaire industriel qui souhaite accueillir ce pilote sur son site. Nous avons identifié de nombreux secteurs intéressants : la chimie, l’industrie du papier/carton, l’industrie agroalimentaire, les matériaux de construction, les data centers, etc.

TOP 5 : les articles les plus lus en #septembre2020

1. Comment Safran gère-il ses intrapreneurs ?

Safran a lancé un programme d’intrapeneuriat destiné à l’ensemble de ses collaborateurs, il y a deux ans. Une démarche récente, mais qui traduit la volonté du groupe de développer de nouvelles formes de travail et d’innovation.

2. La résilience fait la force de la New Space Factory

Nicolas Multan est directeur général d’Hemeria, une start-up toulousaine qui est devenue en quelques années une des pépites françaises de l’aérospatial.

3. Airbus dévoile ses concepts d’avion zéro émission à hydrogène

Airbus veut mettre sur les pistes le premier avion commercial zéro émission en 2035. L’entreprise fait le pari de l’hydrogène et dévoile trois concepts d’avions.

4. Les organes sur puce, à la croisée des disciplines

Faire pousser des tissus et des organes sur des systèmes microfluidiques miniatures, c’est à cela que se résument les organes sur puce. Sur ces surfaces qui font tout au plus un millimètre, sont ainsi mimées les fonctions physiologiques. Comment sont-elles construites et quelles en sont les applications ?

5. [Vidéo] Innovantes #2 : Lutter contre les biais de genre dans l’innovation

Dans sa série Innovantes, Techniques de l’Ingénieur rencontre des chercheuses, entrepreneuses, ingénieures à l’origine d’innovations technologiques. En tant qu’ingénieure et spécialiste des problématiques de diversité hommes-femmes, Marie-Hélène Therre intervient dans les entreprises pour les aider à lutter contre les biais de genre dans l’innovation.

Cyberpuissance : les pays montrent leurs muscles

« La première règle de la guerre hors limite est qu’il n’y a pas de règles, rien n’est interdit […]. Il n’y a rien dans le monde aujourd’hui qui ne puisse devenir une arme ». 21 ans après sa publication, le livre Unrestricted Warfare de deux anciens colonels de l’Armée de libération populaire, Qiao Liang et Wang Xiangsui, reste une référence en matière de cyber.

Cet ouvrage (traduit en français, La Guerre hors limites, Ed. Rivages) explique comment vaincre un adversaire technologiquement supérieur (en l’occurrence, les États-Unis) en s’appuyant sur divers moyens autres que la confrontation militaire directe.

Mais ce livre ne permet pas pour autant de définir ce qu’est une cyberpuissance. C’est en étudiant le National Cyber Power Index (NCPI) que l’on peut mieux appréhender ce terme. Selon les auteurs de ce rapport de 84 pages, « la cyberpuissance est composée de multiples éléments et doit être considérée dans le contexte des objectifs nationaux d’un pays. Nous adoptons une approche nationale pour la mesurer ».

Contrairement à une idée reçue, la cyberpuissance ne se limite donc pas à la destruction ou la mise hors service de l’infrastructure d’un adversaire. L’offensive n’est que l’un des sept objectifs que les pays poursuivent en utilisant des moyens cyber.

Pour mesurer les capacités cyber de 30 pays, le NCPI a en effet identifié sept objectifs nationaux que les pays poursuivent en utilisant des moyens cybernétiques :

  1. surveiller et contrôler les groupes nationaux ;
  2. renforcer et améliorer les cyberdéfenses nationales ;
  3. contrôler et manipuler l’information ;
  4. collecter des renseignements à l’étranger pour la sécurité nationale ;
  5. accroître les compétences nationales en matière de cyber et de technologie ;
  6. détruire ou désactiver l’infrastructure et les capacités d’un adversaire ;
  7. définir des normes internationales en matière de cybernétique et des normes techniques.

En s’appuyant sur des bases de données publiques, le NCPI a établi 32 indicateurs d’intention et 27 indicateurs de capacité. Si les États-Unis et la Chine sont respectivement à la première et à la seconde place, il est peut-être plus étonnant pour le grand public de trouver dans ce Top 10 des pays comme la France et les Pays-Bas.

En lisant ce rapport, on constate que les États-Unis sont réellement une cyberpuissance. Ils obtiennent les meilleurs résultats dans cinq des sept objectifs. La Russie est en tête de liste pour l’objectif 6 (Détruire ou désactiver l’infrastructure et les capacités d’un adversaire).

De son côté, la Chine est en tête du classement des capacités de cyberdéfense. Là aussi, ce résultat peut être une surprise pour le grand public, car les médias relatent régulièrement des cyberattaques (supposées ou réelles) orchestrées par les Chinois.

De façon globale, ce pays se trouve dans le Top 5 pour chaque objectif. « Ces dernières années, la Chine a investi massivement dans la recherche et le développement de technologies qui permettent d’atteindre de multiples objectifs dans le cyberespace », notent les auteurs de ce rapport.

« Depuis le début des années 90, la Chine développe ses capacités en cyberguerre. La doctrine militaire chinoise intègre la cyberattaque comme une composante de sa stratégie visant à défaire un ennemi mieux équipé ou supérieur en nombre. L’Armée de Libération Populaire a bien compris la dépendance sans cesse croissante des armées modernes vis-à-vis de l’informatique et de leurs besoins permanents de communiquer », nous explique sous couvert d’anonymat un expert militaire français.

Paradoxalement, les États-Unis concentrent les pouvoirs entre les mains de quelques personnes. Ainsi, le général Keith Alexander a été à la fois le directeur du U.S. Cyber Command, l’unité militaire de cyberopérations, et de la NSA, l’agence responsable du renseignement électronique et de la sécurité des systèmes informatiques du gouvernement.

« À l’inverse, en Chine, les rôles sont éparpillés. La cybersécurité civile implique à la fois le Parti communiste, plusieurs agences gouvernementales (ministère de la Sécurité publique, bureau d’État du chiffrement, bureau des secrets d’État…), l’Armée populaire de libération, le monde universitaire, les opérateurs d’infrastructures critiques ou encore les industriels des technologies de l’information », explique Frédérick Douzet, Professeure à l’Institut français de géopolitique de l’université Paris-VIII.

Un mois dans l’espace #9

A-t-on découvert de la vie sur Vénus ?

Tout est parti d’un article, publié le 14 septembre dernier, dans la revue Nature. Une équipe de chercheurs composée d’Américains, d’Anglais et de Japonais y relatent une découverte surprenante : la présence dans l’atmosphère de Vénus, à une altitude comprise entre 53 et 61 kilomètres, de phosphine (PH3).

Si la concentration en PH3, 20 molécules par milliard, est faible, sa présence pourrait avoir, selon les chercheurs de l’étude, une origine microbienne. Ou plutôt, toutes les hypothèses étudiées sur la possibilité que la phosphine mise en évidence soit d’origine non biologique mènent à une impasse.

Dès la publication de cette étude, leurs auteurs et la communauté scientifique ont, dans les médias, tenu à tempérer les ardeurs : non, cette découverte ne prouve pas que la vie existe sur Vénus. La conclusion de l’étude illustre la prudence des scientifiques : « Si aucun processus chimique connu ne peut expliquer le PH3 dans la haute atmosphère de Vénus, alors il doit être produit par un processus qui n’était pas auparavant considéré comme plausible pour les conditions vénusiennes. Cela pourrait être une photochimie ou une géochimie inconnue, ou peut-être la vie. Les informations manquent – à titre d’exemple, la photochimie des gouttelettes de nuages ​​vénusiens est presque complètement inconnue. Par conséquent, une source photochimique possible en phase de gouttelettes pour le PH 3 doit être considérée (même si le PH 3 est oxydé par l’acide sulfurique). Les questions sur les raisons pour lesquelles des organismes hypothétiques sur Vénus pourraient produire PH 3 sont également hautement spéculatives ».

Cette communication illustre la prudence qui accompagne désormais ce genre de découverte, alors que depuis quelques années un certain sensationnalisme était de mise dans la communication autour de ces sujets.

En savoir plus

L’observation de la fusion de deux trous noirs soulève des questions

En 2015, les observatoires LIGO et VIRGO détectaient des ondes gravitationnelles pour la première fois, permettant à cette occasion de confirmer plusieurs théories scientifiques sur la structure de l’univers.

5 années plus tard, les deux détecteurs ont de nouveau capté des signaux, issus de la fusion de deux trous noirs. Quatre vibrations, d’une durée totale inférieure à un dixième de seconde. Cette onde d’énergie, équivalente à huit masses solaires, a voyagé dans l’espace pendant environ sept milliards d’années avant de venir s’écraser sur les détecteurs LIGO et VIRGO.

Ce qui intrigue les scientifiques, ce sont ces huit masses solaires détectées. Les deux trous noirs ayant fusionné avaient des masses de 85 et 66 masses solaires, et ont donné naissance à un trou noir d’environ 142 masses solaires. Toutes ces données sont arrondies, mais ce que l’on observe, c’est une disparition d’environ huit masses solaires lors de cette fusion, l’équivalent de l’onde énergétique détectée par LIGO et VIRGO.

Il s’agit de la plus grosse fusion de trous noirs jamais détectée, et elle intrigue les scientifiques à plus d’un titre. En effet, cette observation remet en cause plusieurs plusieurs théories quant à la formation des trous noirs, mais permet d’en renforcer une : les trous noirs supermassifs seraient en fait issus de fusions successives de trous noirs de masse intermédiaire. Les chercheurs évoquent même la possibilité que les deux trous noirs ayant fusionné il y a plus de sept milliards d’années soient eux-mêmes issus de fusions de trous noirs.

En savoir plus

OneWeb n’a pas dit son dernier mot

OneWeb est un projet américain de constellation de 600 satellites de télécommunication, circulant en orbite basse, et censé fournir un accès haut débit à internet, dans les régions desservies par liaison terrestre, à partir de 2022.

La société, proche de la faillite au début de l’année 2020, vient d’annoncer la reprise des lancements pour placer en orbite les mini-satellites de la constellation. Une très bonne nouvelle pour ArianeEspace qui s’est vu confié par l’opérateur américain 16 missions d’ici à 2022. La première de ces 16 missions aura lieu en décembre 2020 et permettra de mettre en orbite 36 mini-satellites.

Il s’agit également d’une bonne nouvelle pour Airbus, qui à travers la co-entreprise OneWeb Satellites, est impliqué dans la construction des mini-satellites de la constellation.

La revue Science publie des images de vents stellaires d’une précision inégalée

Quand les étoiles – dont notre soleil fait partie – arrivent à un stade avancé de leur évolution, leur taille augmente, alors que l’astre se refroidit, pour finir par former des géantes rouges, puis des nébuleuses planétaires. L’étoile perd alors de sa masse, sous forme d’expulsion de vents stellaires. Ce sont ces phénomènes que le radiotélescope ALMA a permit de capter, avec une précision jamais égalée auparavant, et qui ont été publiés dans la revue Science.

Vents stellaires autour d’étoiles géantes froides évoluées, observés par le projet ALMA ATOMIUM. ©ESO/ATOMIUM

 

Des petits réacteurs nucléaires en développement partout dans le monde

900, 1 300, 1 400 et maintenant 1 700 MWe pour un EPR, la puissance des réacteurs nucléaires n’a cessé d’augmenter au cours des dernières décennies. À l’inverse de cette course à la taille, plusieurs pays, dont la France, développent des petits réacteurs modulaires, encore appelés SMR pour Small Modular Reactors, d’une puissance inférieure à 300 MWe. « Les réacteurs de grande taille se sont développés car ils permettent de réaliser des économies d’échelle, c’est-à-dire de réduire le coût d’investissement du KWe installé et donc le coût de production du KWh produit, explique Jacques Chénais, expert Senior SMR au CEA. Mais ces systèmes ont leur limite. Ils demandent un investissement initial important avant même d’avoir produit un seul KWh. Ils doivent aussi être installés au sein d’un réseau bien maillé, c’est-à-dire à l’intérieur duquel les centrales sont connectées entre elles afin que si l’une d’elles cesse de produire, les autres continuent d’injecter de l’électricité dans le réseau. »

Grâce à leur faible puissance, les SMR évitent ces inconvénients. Alors qu’un EPR de série coûte environ 8 milliards d’euros, cette nouvelle technologie devrait permettre l’accès au nucléaire à des pays primo-accédants en Asie du Sud Est, au Moyen-Orient et en Amérique du Sud. Elle répondra également aux besoins de pays dont le réseau est peu maillé comme le Canada, mais aussi les États-Unis dont les centrales de la côte Ouest et Est ne sont pas raccordées entre elles, au contraire de l’Europe où les pays sont connectés entre eux. Il existe aussi un marché important, dans les années à venir, afin de remplacer les centrales au charbon dont la puissance est souvent comprise entre 300 à 400 MWe.

Un système de sûreté passif intrinsèquement sûr

Afin qu’ils produisent de l’électricité à un tarif comparable à ceux de grande taille, trois leviers sont utilisés afin de réduire le coût d’installation de ces nouvelles unités. Le premier concerne la conception de ces systèmes. Comme les réacteurs à forte capacité, les SMR sont des réacteurs à eau pressurisée. Mais au lieu d’être équipés d’un système à boucles, avec une cuve pressurisée à 150 bars dans laquelle la réaction de fission nucléaire se produit et à l’extérieur, des générateurs de vapeur qui servent à évacuer la chaleur, le système est ici intégré. « L’architecture de cette technologie est beaucoup plus simple, analyse Jacques Chénais. Grâce à leur faible puissance, il est possible d’installer la totalité du circuit primaire à l’intérieur de la cuve, elle-même raccordée au circuit secondaire et son turbo-alternateur. Il n’y a par ailleurs plus besoin d’énergie extérieure pour évacuer la puissance résiduelle puisque le système de sauvegarde utilise la loi de la gravitation. L’eau qui s’échauffe dans le cœur va monter naturellement et être échangée dans un générateur de vapeur de sécurité dédié, situé lui aussi à l’intérieur de la cuve, et relié à un circuit intermédiaire équipé d’un condenseur dont la source froide est un bassin dans lequel est immergée l’enceinte de confinement du réacteur. Cette conception permet d’avoir un système de sûreté passif intrinsèquement sûr et il n’y a plus besoin de diesels de secours. »

Contrairement aux réacteurs de forte puissance équipés d’un système à boucles (croquis à gauche), les petits réacteurs modulaires (à droite) fonctionnent avec une architecture intégrée. Crédit photo : projet Nuward

Le second levier utilisé pour réaliser des économies se situe au niveau de la fabrication sous la forme modulaire. Les SMR sont conçus par sous-ensembles : cuve, enceinte métallique, turbo-alternateur, systèmes fluides et électriques montés sur berceaux au gabarit des containers standards… Une telle conception permet de les fabriquer en usine puis de les acheminer sur le site d’installation par la route ou sur des barges. Contrairement à une centrale de grande taille dont toutes les pièces sont montées sur place, il suffit ici d’assembler les sous-ensembles sur site. Enfin, le dernier levier employé pour réduire les coûts se situe au niveau de la conception standardisée permettant une fabrication en grand nombre de manière industrielle. « Au final, tous les modules sont fabriqués en usine, dans de meilleures conditions, ce qui est gage de qualité. Il n’y a par exemple pas de grosses soudures à réaliser sur le site à la différence des chantiers de centrales de puissance. »

Des mises en service à l’horizon 2030

Le déploiement des premiers petits réacteurs modulaires est attendu à l’horizon 2030. Même s’ils fonctionnent selon le même principe que les grandes centrales, plusieurs innovations technologiques doivent encore être réalisées avant leur mise en service, notamment le développement de composants capables d’intégrer cette nouvelle architecture intégrée. Le processus de certification par les autorités de sûreté prend également plusieurs années. Certains pays sont plus avancés que d’autres à l’image des États-Unis et leur projet NuScale qui prévoit l’installation de 12 réacteurs de 60 MWe chacun en 2029. La Corée, avec son projet Smart, prévoit aussi un déploiement la même année d’un réacteur de 100 MWe. Les États-Unis développent également un second projet porté par la société Holtec International afin de construire un réacteur de 160 MWe. Du côté de la Chine, la société CNNC travaille sur l’ACP100, un réacteur de 125 MWe. La mise en service de ces deux derniers projets est annoncée autour de 2030.

La France, à travers son projet Nuward qui regroupe EDF, le CEA, Naval Group et TechnicAtome, travaille au développement de son propre SMR. Crédit photo : projet Nuward

Depuis 2012, la France, à travers un partenariat qui regroupe EDF, le CEA, Naval Group et TechnicAtome, travaille au développement de son propre SMR. Après une phase d’étude de faisabilité, ce projet, baptisé Nuward, rentre dans sa phase de conception avec l’objectif de construire une centrale de deux réacteurs de 170 MWe chacun, soit une puissance totale de 340 MWe. « Nous pensons que cette puissance correspond à la bonne offre pour le marché, notamment celui du remplacement des centrales au charbon, ajoute Jacques Chénais. Nous considérons aussi que les mix énergétiques de demain proviendront en grande partie d’énergies renouvelables et donc présentant une forte intermittence de la production d’électricité. Le nucléaire permettra de pallier cet inconvénient, car il offre une production pilotable à tout instant à la différence des énergies vertes, avec en plus l’avantage d’être décarbonée, contrairement aux centrales au charbon ou au gaz. Nous misons sur une mise en service autour de 2030 ».  Ce projet, soutenu par l’État français, va bénéficier d’une partie du plan de relance du gouvernement, qui a annoncé à la rentrée une aide de 470 millions d’euros pour soutenir la filière nucléaire. La somme dédiée au projet Nuward n’a pour l’instant pas été dévoilée.

En avril dernier, la Russie a installé deux réacteurs de 35 MWe chacun sur une barge afin d’alimenter des sites industriels isolés en Sibérie. Mais il s’agit d’anciens réacteurs qui équipent déjà leurs brise-glaces depuis plusieurs années et qui développent de faibles puissances. Ce pays travaille aussi à la conception d’une nouvelle génération de SMR plus puissant et qui sera déployée dans la décennie à venir.

La filière électrique espère 200 000 nouveaux emplois d’ici 2030

« La filière électrique est l’ensemble des activités en amont du système électrique : la production d’électricité, les infrastructures, le réseau de distribution, la fourniture, rappelle Pascale Jean, associée énergie du cabinet PwC. Mais c’est aussi l’aval, avec l’ensemble des usages de l’électricité : les bâtiments tertiaires et résidentiels, toute l’industrie, ainsi que les infrastructures pour la ville comme l’éclairage et la mobilité électrique. »

La filière électrique, via ses Fédérations et associations professionnelles communique les résultats de son EDEC (Engagement de Développement de l’Emploi et des Compétences), mené par le cabinet PwC. Cette filière emploie aujourd’hui 600 000 personnes en France réparties sur l’ensemble du territoire national. Selon l’étude, le respect des objectifs fixés par la Programmation Pluriannuelle de l’Énergie (PPE), en accord avec la stratégie nationale bas carbone et l’ensemble des projets d’infrastructures envisagés, permettrait de créer plus de 200 000 emplois supplémentaires en France d’ici 2030. 80 000 emplois seraient ainsi créés dans la rénovation énergétique, 57 000 dans les infrastructures de la ville et la mobilité, 34 000 dans les énergies renouvelables électriques et 36 000 dans le système électrique dont 9 000 dans les réseaux électriques.

Des métiers en tension

Parmi les 100 métiers identifiés au sein de la filière électrique, le rapport en qualifie 23 « en tension » au regard de la transition énergétique. « Les métiers en tension sont ceux qui sont déjà en difficulté pour recruter, par exemple les techniciens de maintenance électrique ou les techniciens de réseau, partage Pascale Jean. Ce sont aussi des métiers sur lesquels on sait que l’on va avoir une forte augmentation en volume : typiquement les installateurs photovoltaïques. Mais ce sont aussi les métiers en transformation du fait de la transition énergétique et de la transformation numérique qui rendent ces métiers différents : les électriciens intégrateurs, les ingénieurs cybersécurité ou les data-analystes qui vont intervenir sur l’ensemble de la filière électrique. »

La filière identifie trois axes de réflexion pour pourvoir ces futurs emplois. En premier lieu, elle souhaite adapter l’offre de formation professionnelle continue à l’évolution des compétences. Elle défendra l’attractivité de la filière électrique et de ses métiers auprès des jeunes, des salariés et des demandeurs d’emploi, en particulier grâce à l’alternance, et enfin, elle confortera le rôle des territoires dans l’anticipation des besoins en emplois et compétences et la gestion des parcours professionnels.

Un état des lieux des emplois actuels

Le premier gisement d’emplois de la filière demeure le système électrique, avec 300 000 personnes dans la branche. La production électronucléaire arrive en tête (40% des emplois), devant le transport et la distribution d’électricité (33%) et la production renouvelable (16%). Le deuxième gisement est le bâtiment, avec 220 000 emplois. La rénovation des bâtiments résidentiels, tertiaires et industriels centralise 70% des postes. Les bâtiments neufs en rassemblent 20%, les data centers 2%.

Arrivent ensuite l’industrie avec 40 000 emplois et les infrastructures pour la ville et la mobilité avec 40 000 emplois également. Dans l’industrie, les trois premiers postes de métiers sont la fabrication d’équipements de l’efficacité énergétique industrielle (30% des emplois), l’installation d’équipements électriques (28%) et l’exploitation et la maintenance des procédés industriels (18%). Côté infrastructures pour la ville et la mobilité, 30% des emplois vont aux infrastructures urbaines, 28% aux infrastructures de transport ferroviaire et 20% aux infrastructures de transport routier et autoroutier.

Une méthode d’incorporation de nanotubes de carbone pour rendre plus résistants les composites à fibre de carbone

Si l’ajout de nanotubes de carbone apparaît, en théorie, comme un excellent moyen d’améliorer les propriétés des composites, en pratique, les procédés chimiques actuellement employés ont l’inconvénient de provoquer une répartition inégale de ces nanotubes. Ce manque d’homogénéité est un frein au développement de composites encore plus performants.

Cliché MEB montrant des nanocristaux de cellulose sur des fibres de carbone.
Crédit : Dr Amir Asadi

Les composites à fibre de carbone : des matériaux aussi exceptionnels qu’améliorables

Les matériaux composites ont un point faible : comme ils sont constitués de couches de fibres, ils sont sujets à la délamination, c’est-à-dire au décollement de ces couches sous l’effet de contraintes.

L’ajout de charges fonctionnelles dans la matrice polymère de ces composites est ainsi une voie d’amélioration potentielle des propriétés mécaniques. Par ailleurs, depuis les années 2000, les nanotubes de carbone apparaissent comme des candidats intéressants, du fait de leur faible densité massique, mais pas uniquement. En effet, les propriétés électriques et thermiques des nanotubes de carbone sont aussi un moyen de fonctionnaliser ces composites.

Malheureusement, les procédés chimiques actuellement utilisés pour incorporer les nanotubes de carbone dans ces composites conduisent souvent à la formation d’agrégats, ce qui réduit l’intérêt de ces matériaux.

Le Docteur Amir Asadi, professeur assistant au Department of Engineering Technology and Industrial Distribution (TAMU) explique ce phénomène simplement : « le problème avec les nanoparticules est similaire avec ce qui se passe quand on ajoute du café moulu dans du lait : les particules de la poudre s’agglomèrent ou collent entre elles. »

Uniformiser la distribution des nanotubes de carbone avec des nanocristaux de cellulose

Selon le Docteur Asadi, il existe une structure chimique permettant de construire des composites à l’échelle nanométrique : il s’agit des nanocristaux de cellulose. Ces molécules obtenues à partir du recyclage de la pâte de bois ont la particularité de posséder des parties hydrophiles et des parties hydrophobes.

  • La partie hydrophobe des nanocristaux a pour fonction de créer des liaisons avec les fibres de carbone et de les ancrer sur la matrice polymère.
  • Les parties hydrophiles, quant à elles, aident à disperser uniformément les fibres de carbone.

Une méthode prometteuse

Pour la partie expérimentale, détaillée dans une publication du 14 mai 2020, dans le journal American Chemical Society (ACS) Applied Nano Materials, l’équipe de chercheurs a procédé comme suit :

  • utilisation d’un tissu de carbone présent dans le commerce ;
  • élaboration d’une solution aqueuse contenant des nanocristaux de cellulose et des nanotubes de carbone ;
  • application de cette solution sur le tissu et utilisation de fortes vibrations pour garantir un mélange homogène ;
  • séchage du tissu ;
  • projection graduelle de résine pour former un composite à matrice polymère revêtu de nanotubes de carbone.
Schéma montrant comment les nanocristaux de cellulose peuvent aider à homogénéiser la répartition de nanotubes de carbone dans les composites à fibres de carbone.
Crédit : Dr Amir Asadi

La caractérisation du matériau obtenu leur a permis de faire les observations suivantes :

  • les nanocristaux de cellulose ont pour effet d’orienter les nanotubes dans une même direction ;
  • une augmentation de 33 % de la résistance à la flexion du composite ;
  • un gain de 40 % de la résistance au cisaillement interlaminaire.

La technique d’incorporation de nanotubes de carbone dans les composites développée par cette équipe de chercheurs semble donc prometteuse. Selon le Docteur Asadi, « c’est une voie à suivre pour le développement de composites hybrides, qui seront utiles pour de nombreux secteurs industriels comme l’aéronautique ou automobile. »

Pour en savoir plus :

Shadi Shariatnia, Annuatha V. Kumar, Ozge Kaynan, and Amir Asadi. Hybrid Cellulose Nanocrystal-Bonded Carbon Nanotubes/Carbon Fiber Polymer Composites for Structural Applications. CS Appl. Nano Mater. 2020, 3, 6, 5421–5436, Publication Date:May 14, 2020

Source : D’après l’article de Vandana Suresh, publié le 11 août 2020, Texas A&M University Engineering

Le secteur du recyclage veut résister à la crise

Le confinement a lourdement impacté la collecte des déchets, avec des baisses comprises entre -20 % et -80 % suivant les filières. En mars et avril, la collecte a ainsi chuté de 80 % pour les métaux et pour le BTP. La filière des métaux a été particulièrement touchée par la fermeture des déchetteries, des réseaux de distribution pratiquant la reprise des anciens équipements lors d’un nouvel achat et de 60 % des centres de véhicules hors d’usage (VHU).

La baisse des volumes de collecte a atteint 50 % pour le bois, 25 % pour les plastiques et 20 % pour les papiers. En plus, la collecte des textiles a été totalement à l’arrêt entre mi-mars et mi-juin. La filière du verre ménager est certainement celle qui a le moins souffert de la crise. La collecte n’a pas baissé, la hausse de la consommation des ménages ayant compensé la disparition du gisement des cafés-hôtels-restaurants.

Une reprise difficile, différenciée selon les secteurs

Depuis, la reprise est difficile. Les volumes de collecte restent plus faibles qu’avant la crise sanitaire. L’offre dépassant la demande, les entreprises subissent une baisse des cours des matières recyclées sur la quasi-totalité des filières. La demande des consommateurs baisse davantage que les volumes collectés, ce qui continue à entraîner une hausse des stocks. « La perte de chiffre d’affaires estimée sur le second trimestre 2020 est de l’ordre de 900 millions d’euros sur l’ensemble de la filière », partage la Fédération des entreprises du recyclage (Federec) dans une note de conjoncture. C’est près de 10% du chiffre d’affaires du secteur en 2019.

Le retour à la quasi-normale est désormais acté pour la collecte des déchets de bois. L’industrie aval reste néanmoins environ aux deux tiers des volumes d’avant la crise. La collecte des textiles a également repris depuis mi-juin. Mais les sites de recyclage connaissent des surstocks suite à la fermeture des principaux débouchés de la filière à l’export. Fin juin, l’activité de la filière BTP atteint environ 90 % de ses niveaux d’avant la crise. Mais les perspectives ne sont pas bonnes car les élections municipales et la crise ont entraîné un gel des nouveaux chantiers pour les prochains mois.

L’activité reprend pour la filière papiers-cartons et devrait retrouver son rythme d’avant crise dans les prochaines semaines. Ce n’est pas forcément une bonne nouvelle, car le secteur est en crise et l’offre est ici bien supérieure à la demande. Federec rappelle l’importance de relocaliser les activités papetières en France pour trouver des débouchés nationaux à nos papiers recyclés.

Une situation tendue pour les plastiques et les métaux

L’activité reprend aussi pour le recyclage des plastiques. Toutefois, la baisse du prix du pétrole et l’arrêt des industries consommatrices de plastiques recyclés, mis à part les emballages alimentaires, continuent à rendre les conditions difficiles. Le prix des résines vierges chute. Entre janvier et juin, les stocks sur les centres de tri et les usines de recyclage ont doublé. Pour assurer un avenir au plastique recyclé, Federec rappelle que « les travaux en cours sur la définition des taux d’incorporation minimal par filière sont essentiels ».

Pour les métaux, les taux de collecte se situent aujourd’hui entre 70 % et 80 % des niveaux précédant la crise. L’aéronautique et l’automobile en particulier continuent d’avoir des niveaux de production de déchets métalliques faibles. Concernant les débouchés sur les marchés français ou extérieurs, la demande reste faible. « En France, les aciéries, les fonderies et les affineurs fonctionnent à des taux de charge de 50 % à 70 %, en lien avec le niveau de production des industries manufacturières, notamment automobile », analyse Federec

Revue du Web #137 : les vidéos les plus étonnantes du mois

Les gants connectés anti-Covid19

Spécialisé dans les vêtements connectés, l’entreprise Spinali Design a mis au point une nouvelle solution pour se protéger du coronavirus. Plus besoin de gel hydroalcoolique, il s’agit de gants en tissu connectés qui utilisent le principe de la photocatalyse, c’est-à-dire de la dégradation des matières sous la lumière, pour se désinfecter au contact de la lumière. Les gants sont ainsi traités au dioxyde de titane, un composé chimique qui décuple les effets des rayons UV contre le virus.
Chaque paire est dotée d’un capteur qui mesure la quantité de lumière reçue. Ces informations sont ensuite envoyées directement sur le smartphone de l’usager, afin que ce dernier puisse consulter l’avancée de la désinfection. Notre interview de Romain Spinali, manager de l’innovation chez Spinali Design, est à lire ici.

Une imprimante 3D qui travaille à la verticale

L’entreprise américaine Thermwood Corporation a décidé d’adopter une nouvelle approche de l’impression 3D. Cette technique appelée Vertical layer print (VLP, impression par couches verticales) permet d’imprimer en une seule fois des pièces pouvait mesurer jusqu’à 12 mètres de long. Disponible en plusieurs gabarits, la machine est composée d’un portique mobile, sur lequel est fixé un bras robotique articulé qui se déplace verticalement.
La machine est capable de manier une extrudeuse ou une tête de fraisage. Une approche hybride, mêlant fabrication additive et soustractive, qui permet selon la marque de délivrer des pièces ne nécessitant pas de post-traitement.

Un nouveau matériau impossible à couper

Des ingénieurs de l’université de Durham au Royaume-Uni et de l’institut Fraunhofer en Allemagne ont créé un matériau qui utilise les vibrations provoquées par la scie pour les retourner contre elle. Inspiré de la peau de pamplemousse et de la nacre, il résiste à tous les outils de coupe ou de perçage utilisés dans les tests.
Ce matériau se compose de sphères en céramique disposées dans une structure en aluminium cellulaire pour résister aux meuleuses d’angle ou aux perceuses électriques, et sa densité ne représente que 15% de celle de l’acier. Il pourra avoir de nombreuses applications utiles dans les industries de la sécurité, par exemple dans les cadenas de vélo ou vêtements de protection.

Le robot Gundam a fait ses premiers pas

Au Japon, pour fêter le 40e anniversaire de la série animée Gundam, un robot géant a été testé dans la ville japonaise de Yokohama. L’énorme machine de 18 mètres et 25 tonnes a pu réaliser quelques pas, bouger les bras et s’agenouiller.
Les ingénieurs ont commencé à travailler sur cette mécanique il y a six ans. Ils ont dû composer avec de nombreuses contraintes quant au poids de chaque pièce afin que l’ensemble puisse interagir et bouger. En tout, ils ont assemblé 24 parties différentes, composées au total de 200 pièces fabriquées à partir d’un mélange d’acier de plastique renforcé de fibres de carbone.

Découvrez les plus belles vues du monde microscopiques

Depuis 2011, Nikon récompense chaque année les plus belles vidéos du monde microscopique. Cette année, Kazi Rabbi et Xiao Yan (université de l’Illinois, États-Unis) remportent le premier prix avec leur vidéo de micro-gouttelettes coalescentes.
Dans cette vidéo : des micro-gouttelettes coalescentes, une larve de ver marin, des cellules d’oignon, un ver noir et le neurone d’un rat.

Réformer le système des REP : un défi pour mieux recycler

Techniques de l’Ingénieur : Vous êtes assez critique à l’égard de cette organisation des filières à responsabilité élargie des producteurs. Comment les éco-organismes actuels se sont-ils organisés en France ?

Flore Berlingen : Le principe de responsabilité élargie des producteurs est entré dans la loi en 1975 mais les premières filières REP (à responsabilité élargie des producteurs) se mettent en place dans les années 1990. Les producteurs doivent s’organiser eux-mêmes sur la gestion de la fin de vie de leurs déchets. Le choix est fait de laisser aux producteurs les modalités d’organisation pour mettre en œuvre cette responsabilité.

Ce principe s’est traduit par la création d’éco-organismes en charge de collecter des écocontributions que versent les producteurs, les metteurs sur le marché d’objets ou d’emballages. Plusieurs filières couvrent une bonne partie des produits de consommation courante. Sur chaque produit, un éco-organisme collecte une écocontribution. Il va ensuite redistribuer cet argent soit directement à des opérateurs soit à des collectivités locales en charge de la collecte et du tri de certains flux de déchets, notamment les emballages des ménages.

Quelles sont les limites du système actuel ?

Cette auto-organisation se traduit par le fait que ces éco-organismes sont pilotés par les metteurs sur le marché eux-mêmes. Ils siègent aux conseils d’administration et sont actionnaires de ces éco-organismes. Cela entraîne des conflits d’intérêt inhérents à leur nature, malgré le fait que leur mission soit encadrée par les autorités publiques, par le biais d’un agrément et d’un cahier des charges. Tout devrait aller dans un sens incitatif à l’éco-conception, au recyclage et à la réduction des déchets, mais dans la réalité, certains malus ne sont pas assez efficaces, ce qui explique en partie pourquoi on n’atteint pas toujours des performances de recyclage excellentes.

Un véritable changement de cap et de pratiques est urgent. Une ultime tentative pour réformer les REP est en cours. L’autorité de régulation des filières REP doit être mise en place au sein de l’Ademe prochainement. Des moyens supplémentaires devraient permettre de mieux contrôler les éco-organismes et l’atteinte des objectifs fixés par leur cahier des charges. L’autorité aura aussi pour rôle de mieux appliquer les sanctions prévues par la loi. Est-ce que cette nouvelle autorité permettra de compenser un rapport de force qui n’était pas en faveur des pouvoirs publics ? On peut l’espérer mais ce n’est pas sûr.

Le rapport Vernier sur les filières REP* estime que la gestion des déchets coûte environ 20 milliards d’euros par an en France, dont plus de 14 milliards pèsent sur le budget des collectivités locales. La contribution des entreprises via les filières REP s’élève à 1,2 milliards d’euros. Est-ce suffisant ?

C’est logique que les deux chiffres ne soient pas équivalents car les filières REP ne concernent qu’une partie de nos déchets. Il n’y a par exemple pas de REP sur les biodéchets. Cela constitue une charge nette pour les collectivités locales. La question est de savoir si les montant collectés via les REP sont suffisants. Les opérateurs de la collecte et du tri et les collectivités locales rappellent régulièrement que les filières REP ne couvrent pas l’ensemble de leurs coûts pour les flux de déchets considérés.

Les collectivités locales demandent souvent la création d’une REP balais ou une taxe qui couvre tous les flux de déchets qui ne sont pas concernés par des filières REP mais pour lesquels ce sont tout de même des entreprises qui devraient être responsables de la fin de vie.  De nouvelles filières vont être créées suite à la loi anti-gaspillage du début de l’année pour les jouets, les articles de sport et les articles de bricolage. Cela va venir financer un peu plus les opérateurs du réemploi et du recyclage de ce genre de produits.

(*) Consultez ici le Rapport Vernier sur les filières REP