Des robots microscopiques contrôlés à l’aide de lasers

Ces robots microscopiques, dont les dimensions vont de 40 à 70 µm en longueur pour 5 µm d’épaisseur, contiennent des puces au silicium. Ce sont donc de petits ordinateurs, sur lesquels sont disposées 4 “jambes”, dont la création et le contrôle représentent un énorme défi pour l’équipe de chercheurs.

Voici quelques explications détaillées sur ces travaux publiés dans la revue Nature.

Microrobot en mouvement près d’une paramécie. Credit : Cornell University

Comment fonctionnent ces robots ?

Pour fonctionner, un robot a besoin d’un “cerveau” et d’une partie motrice. Grâce aux progrès de la microélectronique, la réalisation de circuits de petite taille n’a pas été un problème pour l’équipe de chercheurs.

En revanche, selon Paul McEuen, professeur de sciences physiques au College of Arts and Sciences (Cornell University), il n’existait jusqu’ici aucune technologie permettant de concevoir des jambes microscopiques :

“Nous ne pouvions pas utiliser de petits actionneurs pilotables électriquement. Nous avons dû les inventer et les combiner avec la partie électronique.”

L’équipe de chercheurs a ainsi utilisé deux technologies : le dépôt par couche atomique (ALD) et la lithographie, pour construire des jambes robotiques. Ces jambes sont constituées de bandes de platine de quelques dizaines d’atomes d’épaisseur, recouvertes à une extrémité par une fine couche de titane inerte. L’application d’une charge électrique positive au platine conduit à l’adsorption des ions chargés négativement, sur l’autre face. Ce phénomène contraint la fine bande de platine à se replier, ce qui crée un mouvement.

Le contrôle du mouvement du robot est obtenu grâce à des impulsions lasers, dirigées vers les cellules photovoltaïques disposées à l’avant et à l’arrière du robot.

Vers une production massive et rapide

Ces robots ont beau être de la haute technologie ils n’en sont pas moins robustes (pour leur taille) et économes en énergie (seulement 10 nanowatts de puissance, pour 200 mV). Et parce qu’ils sont conçus à partir de procédés standards tels que la lithographie, ils peuvent être fabriqués en masse. Ainsi, un wafer silicium de 4 pouces peut en contenir près d’un million !

Des applications médicales très prometteuses

Les potentielles applications médicales de ce type de robots, dont la taille n’excède pas celle d’une paramécie, sont nombreuses. Imaginons le cas d’un chirurgien dont le patient serait atteint d’une tumeur, placée dans une zone très sensible du cerveau. Plutôt que de réaliser une opération à risque, au scalpel, le chirurgien n’aurait qu’à injecter d’un seul coup des milliers de ces minuscules robots à l’aide d’une seringue.

Que se passe-t-il ensuite ? De tels robots peuvent par exemple entourer la tumeur, jusqu’à l’encapsuler et arrêter sa croissance.

Pour le moment, ces petites machines sont seulement capables de réaliser des tâches basiques et de se mouvoir. Les chercheurs vont maintenant travailler sur le développement de robots dotés d’une électronique plus complexe. Ils espèrent ainsi voir apparaître un jour des essaims de robots microscopiques capables de réparer des vaisseaux sanguins, de restructurer des matériaux ou même d’explorer de vastes zones du cerveau humain.

Pour en savoir plus, nous vous invitons à visualiser cette vidéo.

D’après l’article de David Nutt, 26 août, 2020 pour Cornell University.

Un programme européen pour valoriser les résidus de l’arboriculture et de la viticulture

17 000 tonnes, c’est le volume estimé de résidus issus de la taille de vignes, d’arbres fruitiers, de haies, d’écorces et de bourgeons dans le nord-ouest de l’Europe. Un programme européen de recherche baptisé AgriWasteValue a débuté pour valoriser ces coproduits qui sont actuellement jetés ou brûlés. Son objectif est d’ouvrir la voie à de nouvelles pistes de recyclage afin d’atteindre le « zéro déchet ».

Réunissant des chercheurs français, belges et suisses, le projet prévoit une cascade de valorisation. La première consiste à extraire des composés à forte valeur ajoutée. « Des molécules aux propriétés biologiques intéressantes sont naturellement présentes dans ces coproduits, explique Florent Allais, enseignant-chercheur à AgroParisTech et directeur de l’Unité de Recherche et Développement Agro-Biotechnologies Industrielles (URD ABI). Certaines ont des effets anti-oxydants, anti-âges et anti-rides. D’autres peuvent avoir des propriétés anti-pigmentant, c’est-à-dire qu’elles enlèvent les taches brunes sur la peau liée au vieillissement, ou alors ont un rôle anti-UV et sont capables d’absorber les UV ». La plupart de ces molécules sont des métabolites secondaires de type polyphénols comme la phlorétine et la phloridzine. Une fois extraits, ces composés bioactifs seront vendus à l’industrie cosmétique et nutraceutique. Ils permettront ainsi de réduire la dépendance de l’Europe aux importations car la majorité des actifs naturels utilisés dans les formulations des produits de beauté ou des compléments alimentaires sont actuellement importés.

Deux techniques pour extraire les molécules d’intérêt

Même si la littérature scientifique mentionne déjà la présence de ces molécules précieuses dans les résidus de l’agroforesterie depuis plusieurs années, aucun procédé n’avait jusqu’ici été exploité pour les extraire de manière efficace tout en les préservant. « La plupart du temps, lorsqu’on extrait ou manipule ces molécules, il y a un risque important de les détériorer, analyse Florent Allais. Notre travail de recherche consiste à trouver des procédés durables et suffisamment doux pour ne pas les dénaturer ». Deux techniques sont actuellement utilisées par les chercheurs. Tout d’abord, la technique membranaire, un procédé physique qui consiste à passer le mélange de coproduits à travers différentes membranes. Cette technique permet de récupérer de manière sélective les molécules à travers l’épaisseur de la membrane. Le deuxième procédé employé est celui de l’éco-extraction liquide-liquide. Dans ce cas, le mélange de coproduits est placé au contact d’un solvant vert comme de l’éthanol qui a la capacité à extraire préférentiellement les molécules d’intérêt. « Les deux étapes peuvent être séquentielles ou totalement séparées, ajoute le chercheur. Nous testons en ce moment différentes combinaisons pour évaluer laquelle est la plus efficace en matière de rendement et d’impact écologique. »

Une fois ces molécules extraites, un second niveau de valorisation est réalisé à moindre valeur ajoutée. Il consiste à séparer deux constituants présents dans ces résidus afin de les valoriser chacun de leur côté. Tout d’abord, les polysaccharides c’est-à-dire les sucres. Leur fermentation à l’aide de micro-organismes va permettre la fabrication de solvants comme du bio-éthanol ou du bio-butanol. « Ces bio-solvants pourront ainsi remplacer les solvants chimiques utilisés et qui sont pour la plupart toxiques et dangereux pour l’environnement comme pour l’homme », précise Florent Allais. Ensuite, la lignine est le second constituant extrait et est valorisée en biofertilisants pour les sols. Enfin, les résidus finaux restant après l’ensemble de ces procédés d’extraction sont valorisés pour alimenter des unités de méthanisation. Leur pouvoir méthanogène contribue ainsi à la production de biogaz. Une nouvelle filière de valorisation des déchets

Débuté en juin 2019, ce programme de coopération territoriale européen Interreg doit se terminer en juin 2023. Il concerne les régions transfrontalières à la France, l’Allemagne, la Belgique, le Luxembourg, les Pays-Bas, l’Irlande et le Royaume-Uni. Doté d’un budget de 3,2 millions d’euros dont une partie financée par l’Europe, ce projet regroupe une vingtaine de chercheurs. « Nous sommes encore au début de ce travail.  Après la validation scientifique et technique des différents procédés d’extraction, ce programme doit se poursuivre par la création d’une nouvelle filière de valorisation de ces déchets », conclut Florent Allais.

Techniques de l’Ingénieur devient interactif et présente les « Doc&Quiz »

Les offres de Techniques de l’Ingénieur deviennent Doc&Quiz. Vous pouvez désormais les découvrir en ligne. Didactiques et intuitifs, les articles et leurs quiz sont l’outil d’acquisition des savoirs techniques et scientifiques par excellence. L’occasion de revenir sur les points clés de ce nouveau virage ! Entretien avec Yves Valentin, directeur général de Techniques de l’Ingénieur.

Quel regard portez-vous sur la proposition de valeur Techniques de l’Ingénieur ?

photo d'Yves Valentin
Yves Valentin, directeur général de Techniques de l’Ingénieur.

Yves Valentin : À bien des égards, l’année 2020 a été exceptionnelle. Après le choc de l’arrêt brutal de l’économie remise en cause, agilité et innovation ont été les maîtres mots.

Chez Techniques de l’Ingénieur, nous avons décidé de maintenir les projets lancés, car ils sont fondamentaux pour nos clients. Cette crise a montré à quel point nous avons besoin de garder des savoir-faire stratégiques, de les entretenir et les développer pour créer des produits à forte valeur ajoutée.

La finalité de notre proposition est toujours la même depuis 1946 : apporter les connaissances scientifiques et techniques pour permettre à chaque ingénieur en poste de rester au meilleur niveau par un développement continu de ses savoirs.

Pour atteindre plus facilement cet objectif, nous avons testé, validé, développé un projet qui s’adapte aux usages d’aujourd’hui de ces ressources documentaires et anticipe ceux de demain ! Ainsi est né Doc&Quiz.

Doc&Quiz, une révolution ou une évolution ?

Une révolution pour l’usage, une évolution dans le concept !

Grâce à cette nouveauté, les articles deviennent interactifs.

Doc&Quiz garantit une lecture constructive car le lecteur peut désormais vérifier que les principaux éléments de l’article sont correctement mémorisés. Il est guidé par des quiz judicieusement portés sur les informations-clés.

En mettant ainsi à profit les dernières technologies disponibles pour améliorer la transmission des savoirs, Techniques de l’Ingénieur confirme sa mission historique et renforce son rôle d’outil-clé pour le développement des connaissances des ingénieurs.

De façon concrète, comment l’utilisateur valorise-t-il son acquis de connaissances?

Celles et ceux qui souhaitent aller plus loin et faire valoir ces acquis peuvent dorénavant passer une certification Techniques de l’Ingénieur et obtenir leur CerT.I., en se soumettant à un test de validation, proposé sur chaque article interactif ! Ces CerT.I. sont et font l’objet de badges officiels, utilisables pour enrichir un CV ou sur les réseaux sociaux professionnels, notamment LinkedIn.

Nous allons même au-delà puisque nous fournissons aujourd’hui aux entreprises des « parcours sur mesure » : des responsables de bureau d’études nous ont demandé « d’assembler » des articles pour créer un cursus interactif adapté à leur projet.

En parallèle, nous avons également pu proposer à quelques clients des parcours intégrant leurs propres ressources, sur lesquels nos experts réalisent des quiz. Cela leur permet d’avoir des contenus parfaitement adaptés à leur stratégie, contenant leur savoir-faire spécifique et confidentiel, mais complété de ressources réputées pour leur qualité.

Pour en savoir plus : consultez gratuitement un article interactif et réalisez les quiz d’entrainement.

La résilience fait la force de la New Space Factory

Ex Nexeya, Hemeria est aujourd’hui le leader de la filière française des nanosatellites, un secteur où la concurrence est rude.

Propulsé par le programme Angels développé en collaboration avec le CNES, Hemeria a choisi de diversifier son activité pour être plus solide et affronter au mieux les aléas du marché du spatial mondial. Un choix qui paie aujourd’hui.

Techniques de l’Ingénieur : Comment Hemeria, ex Nexeya, est-elle devenue le fer de lance de la filière nanosatellites française ?

Nicolas Multan : En 2009, nous avons vu que le monde du cubesat était en train de révolutionner une partie de l’accès à l’espace avec des petits systèmes. En effet, ces derniers sont peu chers, rapides à mettre en œuvre, standardisés… mais à l’époque personne ne pensait que ces petits modèles de satellites, développés par des passionnés, des étudiants, pourraient représenter un jour un véritable intérêt pour l’industrie.

Nicolas Multan, directeur général d’Hemeria

Nous nous sommes alors demandés s’il était possible de faire de ces petits objets des produits d’entrée de gamme pour le monde industriel.
Pendant 7 ans, nous avons travaillé, entre autres, sur deux programmes de recherche, financés par l’Etat et la région Occitanie, qui ont permis, localement, de constituer un consortium d’entreprises qui croyaient à cette idée.
A ce moment-là nous n’avions que peu de rapports avec le CNES et les grands industriels.

Qu’est-ce qui a changé la donne ?

En 2016, le CNES a fait évoluer sa position initiale, estimant que les petits objets que nous développions pouvaient représenter un potentiel industriel intéressant. A partir de là, le CNES a activement supporté notre démarche. Cela s’est matérialisé en 2017 par un contrat, Angels (démonstrateur opérationnel de la miniaturisation de la mission Argos). Le CNES a fait à cette occasion un investissement financier, mais pas que. La conduite du projet a vu une équipe d’experts du CNES intégrer les équipes d’Hemeria, pour former une seule et même équipe, qui a développé de A à Z le projet Angels, pour aboutir à la mise en orbite d’un satellite fonctionnel. Ce satellite, mis en orbite en décembre 2019, fonctionne aujourd’hui et donne satisfaction.
Plus que l’investissement du CNES, c’est ce travail d’équipe entre le CNES, Hemeria et son consortium de partenaires industriels, qui a permis le succès qu’est aujourd’hui Angels.

Aujourd’hui, sur quelles activités se répartit le chiffre d’affaires d’Hemeria, en France et à l’international ?

Une part non négligeable de notre chiffre d’affaires est générée par la fourniture, aux grands industriels du secteur type Airbus ou Thales, de « morceaux » de gros satellites. Cette partie de notre activité représente encore à date, plus de chiffre d’affaires que la partie nanosatellite.
A noter également que le domaine de la Défense est aussi largement présent puisqu’il représente 50% du chiffre d’affaire. Nous venons d’ailleurs d’acquérir l’entité « Eolane les Ulis » pour renforcer notre positionnement.
Pour ce qui est de l’international, cela dépend des marchés. La part de marché qui est adressable à l’international pour la fourniture de sous-ensembles aux primes, est assez limitée. Déjà, Airbus et Thales sont des acteurs majeurs du marché mondial. Il y a des opportunités, mais c’est assez résiduel pour le moment, les acteurs américains étant focalisés sur leurs enjeux militaires nationaux.
Nous avons toutefois des clients hors France comme OHB, IAI, SENER, RUAG, … et discutons avec des Indiens, des Canadiens ou encore des Russes.
Pour la partie nanosatellites en revanche, au-delà des marchés structurant comme la constellation KINEIS et d’autres missions Françaises militaires ou scientifiques que l’on discute avec la DGA et les CNES, le levier de développement de la filière est bien la vente « en masse » à l’international.

Vous parlez de diversification. Cela permet-il à Hemeria de conquérir de nouveaux marchés ?

Aujourd’hui par exemple, nous sommes en train de pousser une offre, à l’international, qui ne se limite pas à la fourniture de nanosatellites : c’est une offre plus globale, « packagée » si je puis dire, qui inclut des services, et qui peut intéresser un acteur nouveau dans le domaine du spatial. Cette offre globale lui permettra de passer plusieurs caps à la fois dans ce domaine d’activité.

Les pépites françaises du secteur sont-elles tributaires du soutien de l’Etat et des grands industriels aujourd’hui ?

Nous avons en France quelques « pépites », comme Kineis pour les services, Exotrail ou Anywaves pour les équipements, Hemeria sur la filière nanosatellites… et bien d’autres ! Toutes ces sociétés-là sont largement soutenues par les instances nationales. En France, développer des projets ambitieux qui n’auraient pas un regard bienveillant de l’Etat et des grands groupes comme Airbus ou Thales paraît, aujourd’hui, compliqué, voire illusoire.

Parlons de la New Space Factory. Cette démarche permet-elle aux entreprises membres d’être plus compétitives ?

La New Space Factory est un regroupement d’entreprises d’intérêt commercial. Cette approche commune sur l’aspect commercial n’enlève rien au fait que chaque entreprise membre évolue dans l’écosystème de manière autonome. Par contre, ce que l’on observe, c’est que les entreprises de la New Space Factory ont beaucoup misé sur la diversification. Elles sont donc plus résilientes.
Si je prends l’exemple d’Hemeria, sur un chiffre d’affaires de 35 millions d’euros, 7 à 8 millions d’euros sont liés à l’activité nanosatellites. Le reste du chiffre d’affaires va concerner, entre autres, le secteur de la dissuasion nucléaire par exemple, qui est un marché très structurant, sur de nombreuses années. Ainsi, pour Hemeria, la question de la pérennité de l’entreprise ne se pose pas aujourd’hui. Cette résilience fait la force de notre entreprise, et également de notre groupement.
Nous avons pu constater que la diversification des activités des entreprises de la New Space Factory avait permis à beaucoup d’entre elles de surpasser les crises contextuelles, quand d’autres entreprises, qui avaient tout misé sur une activité, rencontrent aujourd’hui de grandes difficultés.

Pour conclure, quel regard portez-vous sur les programmes engagés par le CNES, et notamment Ariane 6, pour rester compétitif sur l’activité des lancements de satellites ?

Le CNES a mis en place beaucoup d’initiatives, cela est très positif. Concernant le projet Ariane 6, celui-ci doit nous apporter le maintien de l’autonomie européenne d’accès à l’espace, c’est primordial. La volonté d’être plus compétitif est également une nécessité face aux nombreuses initiatives mondiales qui voient le jour et qui « challengeront » en partie Ariane 6 sur le volet commercial.
Pour ce qui est du contexte technique, je reconnais être admiratif de ce qui se passe de l’autre côté de l’Atlantique et j’aurais imaginé que nous soyons plus ambitieux au démarrage du programme afin de ne pas que rattraper notre retard, mais d’essayer de finir devant afin de définir de nouvelles règles au niveau business.

Propos recueillis par Pierre Thouverez 

Le Machine learning et le Deep learning optimisent les données des entreprises

De nombreuses entreprises constatent des avantages mesurables des déploiements de l’IA selon une étude de McKinsey. Certains professionnels indiquent même une augmentation des revenus supérieure à 10 %. L’impact est surtout positif dans les domaines du marketing et des ventes, du développement de produits et de services et enfin de la gestion de la chaîne d’approvisionnement.

Sous-catégories de l’IA, le machine learning et le deep learning sont très prometteurs. La première sert à faire des prévisions, de la classification et de la segmentation automatiques en exploitant des données en général multidimensionnelles. Le machine learning relève donc d’une approche probabiliste.

Cette solution est notamment utilisée par EasyJet pour optimiser la vente de produits à bord des avions, surtout les boissons et repas. La compagnie exploite des techniques de machine learning de prévision de la quantité de produits à embarquer en fonction de divers paramètres comme la météo et les caractéristiques du vol (de jour, de nuit).

Un temps de latence

De son côté, le deep learning permet d’aller plus loin que le machine learning pour reconnaître des objets complexes comme les images, l’écriture manuscrite, la parole et le langage. Le deep learning exploite des réseaux de neurones multicouches, sachant qu’il en existe de très nombreuses variantes.

« Le ML et le DL sont disséminés dans de multiples applications. Mais il faut faire la part des choses entre ce qui existe et ce qui est déployé à grande échelle. Beaucoup de solutions potentielles ne sont pas forcément intégrées à grande échelle, car cela prend du temps. Comme toute nouvelle technologie, il y a un temps de latence et par ailleurs, la mise au point des modèles d’entraînement de machine learning et de deep learning génère des allers et retours plus longs que la correction de bugs classique », explique Olivier Ezratty, consultant et auteur spécialisé dans les technologies numériques.

Ces allers et retours sont logiquement plus nombreux lorsqu’il s’agit de projets très complexes qui nécessitent d’intégrer de nombreuses données disparates à structurer et nettoyer. C’est le cas notamment du projet de prédiction des retards et d’information voyageurs associés expérimenté à la SNCF en 2019, s’appuyant sur du machine learning et des données d’entraînement.

Le machine learning et le deep learning n’apparaissent pas dans des solutions magiques ; ils sont disséminés dans un très grand nombre d’applications et qui sont utiles. Agissant de façon invisible pour l’utilisateur (combien de personnes savent par exemple que les selfies s’appuient sur l’IA…), le ML et le DL sont principalement déployés dans trois grandes catégories.

« Le DL est surtout déployé dans l’imagerie. Dès qu’il y a des images à analyser, il y a des applications déployées à grande échelle, que ce soit pour des usages grand public ou professionnels. Par exemple, le contrôle qualité dans une usine est réalisé par du DL avec une caméra. Le DL a amélioré la fiabilité des détections par rapport aux techniques antérieures qui s’appuyaient sur du machine learning », indique Olivier Ezratty.

Pas de miracles

Ainsi, pour l’inspection des lignes à haute tension et des caténaires avec des drones ou des caméras, EDF et la SNCF s’appuient sur du deep learning.

La seconde famille de solutions largement déployées est le traitement du langage, notamment dans les chatbots afin d’améliorer l’expérience client, les enceintes vocales, les smartphones et des solutions professionnelles (analyse de la jurisprudence avec des moteurs de recherche spécialisés par exemple).

« Mais beaucoup de solutions de traitements du langage sont survendues. Cela fonctionne mieux en anglais, car la majorité des développeurs parlent cette langue et les contenus d’entraînement y sont les plus abondants, mais dès que l’on passe au français qui est une langue plus ambiguë, les résultats sont moins bons, notamment dans le speech-to-text [convertit la voix en texte, NDLR] », constate Olivier Ezratty.

Le troisième domaine dans lequel le machine learning est largement déployé est celui des données structurées (mélangeant du texte et des données chiffrées). Il peut s’agir des logs de n’importe quelle machine ou de serveurs pour, par exemple, analyser des failles de sécurité ou des défaillances dans le réseau d’une entreprise. La maintenance préventive des ascenseurs fait ainsi appel au machine learning chez les grands ascensoristes du marché tels que Kone, Otis et Schindler.

Dans le domaine de la finance et de la comptabilité, des applications de machine learning sont utilisées pour détecter des anomalies ou des fraudes, et automatiser tout ou une partie d’un audit.

Mais il ne faut pas non plus attendre de miracles de ces technologies. « Il faut répondre à certaines problématiques éthiques et s’assurer que les données alimentant ces systèmes ne génèrent pas des biais », indique Olivier Ezratty.

Zephalto développe un ballon stratosphérique pour le tourisme spatial

Vincent Farret d’Astiès est fondateur de Zephalto. Ingénieur aéronautique, il a créé l’entreprise en 2016. Quelques années de recherche et de développement plus tard, il fait voler son prototype de ballon. Objectif : atteindre les 25 km d’altitude d’ici 2024. Entretien.

Techniques de l’Ingénieur : Vous venez de tester votre nouveau prototype, où en êtes-vous dans la conquête de la stratosphère ?

Vincent Farret d’Astiès : Le 21 août, nous avons effectué le premier vol durant 4 heures avec notre nouveau prototype de ballon pour le tourisme spatial. Nous avons décollé du Pouget dans l’Hérault, puis volé sur 300 km, avant d’atterrir à Sauviat, dans le Puy-de-Dôme. Il s’agissait de valider la technique du décollage et de l’atterrissage et de vérifier la structure et la robustesse du dispositif. Nous sommes restés en basse altitude, à 1,5 km, mais le prototype pourra voler jusqu’à 12 km. Le vol à cette haute altitude est prévu cet automne.

Notre objectif est de lancer en 2024 des vols à 25 km d’altitude dans la stratosphère avec des passagers pour voir la courbure de la Terre à l’œil nu et être plongé dans le noir de l’espace. À cette altitude, on voit le Soleil et les étoiles dans l’obscurité. Le vol durera au minimum 6 heures, avec une montée et une descente, mais il sera aussi possible de passer une nuit en l’air. En parallèle, nous proposerons dès 2021 des vols pour des applications scientifiques ou des développements industriels. Nous pouvons par exemple faire subir des tests à des matériaux.

Comment se présente ce nouveau prototype ?

Notre prototype, baptisé Odyssée 8000, comprend un ballon porteur doté d’une enveloppe réutilisable, d’un régulateur de vitesse et d’une nacelle. La première nacelle est ouverte et se situe entre le ballon porteur et le régulateur de vitesse. Pour le prototype final avec vol pour passager, la nacelle sera placée sous les deux autres éléments. En attendant d’avoir une nacelle pressurisée qui puisse s’adapter aux conditions spatiales à 25 km, une nacelle fermée en carbone permettra de mener les tests jusqu’à 12 km.

Pour aller plus haut, c’est la taille de l’enveloppe du ballon qui joue. Tous les 5 km d’altitude, la densité de l’atmosphère est divisée par deux et il faut donc un volume de ballon deux fois plus grand. Au final, on aura un ballon qui fera 130 mètres de haut, contre 70 mètres aujourd’hui.

Actuellement, les ballons stratosphériques qui vont à 25 km se déchirent en l’air et la nacelle descend sous parachute. Grâce au régulateur d’altitude et l’enveloppe réutilisable que nous avons développés, nous pouvons redescendre avec le même ballon jusqu’au sol. Nous avons développé un matériau polymère multicouches qui est plus résistant, un peu plus épais, mais qui reste léger. Il résiste au froid sans être cassant à très haute altitude et doit pouvoir traverser une couche à -80°C en restant souple.

Quels sont les gaz utilisés ?

Le gaz utilisé dans le ballon porteur peut être de l’hélium ou de l’hydrogène. L’hélium est plus cher, l’hydrogène est plus léger et plus efficace, mais inflammable, ce qui demande des précautions dans la conception de l’enveloppe. Un autre avantage de l’hydrogène est qu’il peut être obtenu par électrolyse de l’eau. Nous devrions plutôt partir sur l’hydrogène mais le choix final dépendra des étapes de certification à venir.

Le ballon régulateur est gonflé, l’équipe est en train de positionner le ballon porteur. La chaîne de vol total fait 70 mètres de haut – ZEPHALTO – CREDIT Camille Poirot

Le ballon régulateur est rempli d’air. À volume fixe, lorsque l’air est comprimé, il gagne de la masse, ce qui fait perdre de l’altitude au ballon. Lorsque l’on décomprime l’air, le ballon relâche de l’air, ce qui lui fait perdre de la masse et ainsi gagner de l’altitude. Des panneaux solaires associés à des batteries en lithium permettent d’alimenter de façon autonome les compresseurs qui font varier le ballon en altitude.

Quels sont les tests et développements à venir ?

Cet automne, nous testerons le ballon à 8 km d’altitude. Il sera sans doute capable d’aller jusqu’à 12 km. L’année prochaine, nous aurons un ballon plus grand qui permettra d’aller jusqu’à 15 km pour les premières activités stratosphériques. Puis, nous irons dès que possible à 25 km, sans passager, avant de proposer des vols habités en 2024.

Nous préparons notre prochaine levée de fonds qui s’élève à 6 millions d’euros pour poursuivre les développements, avec des possibilités d’investissement dès 10 000 euros. Cette levée de fonds permettra notamment la construction de la nacelle passager, en partenariat avec des industriels de l’industrie aérospatiale. Le prix sera de plusieurs dizaines de milliers d’euros par passager, le montant sera annoncé au lancement des préventes.

Ballon stratosphérique – ZEPHALTO

L’arctique fond beaucoup plus vite que prévu

Jusqu’à présent, les modèles climatiques prévoyaient que les températures dans l’océan Arctique entre le Canada, la Russie et l’Europe augmenteraient lentement et de manière stable. Elles augmentent en réalité beaucoup plus rapidement que prévu. Au cours des 40 dernières années, les températures ont ainsi augmenté d’un degré par décennie en moyenne. La hausse a même atteint 1,5°C par décennie sur la mer de Barents et autour de l’archipel norvégien de Svalbard, selon l’alerte lancée par une étude parue en juillet dans le journal Nature Climate Change.

« Nos analyses des conditions dans l’océan Arctique montrent que nous avons clairement sous-estimé le rythme d’augmentation de la température dans l’atmosphère au plus proche du niveau de la mer, ce qui a finalement fait fondre la glace de mer plus rapidement que prévu », explique dans un communiqué Jens Hesselbjerg Christensen, professeur à l’Institut Niels-Bohr de l’Université de Copenhague (NBI). Les chercheurs estiment qu’il est impératif de mieux étudier les conséquences que cela entraînera dans la région et appellent à respecter les engagements de réduction des émissions pris dans le cadre de l’Accord de Paris.

Un seul précédent durant la période glaciaire

Les chercheurs du NBI, en collaboration avec l’Université de Copenhague, des universités de Bergen et d’Oslo, de l’Institut de métrologie danois et de l’Université nationale australienne, ont analysé l’évolution des températures dans l’océan Arctique au cours de la dernière période glaciaire entre 120 000 ans et jusqu’à 11 000 ans et l’ont comparé à l’évolution actuelle. « L’augmentation brutale de la température qui se produit actuellement dans l’Arctique n’a de précédent que pendant la dernière période glaciaire, livre Jens Hesselbjerg Christensen. Pour cette époque, les analyses des carottes glaciaires ont révélé que les températures au-dessus de la calotte glaciaire du Groenland ont augmenté plusieurs fois, entre 10 et 12 degrés, sur une période de 40 à 100 ans. »

Les chercheurs appellent à mieux simuler l’impact d’un changement climatique brutal sur l’Arctique pour se doter de modèles capables de prédire avec plus de précision les augmentations de température mondiales. « Les changements se produisent si rapidement pendant les mois d’été que la glace de mer disparaîtra probablement plus rapidement que la plupart des modèles climatiques ne l’avaient jamais prédit », s’alarme Jens Hesselbjerg Christensen. Une autre étude parue dans la même revue en août estime ainsi que la glace de mer pourrait disparaître en été dès 2035. À cet horizon, la glace de mer occuperait moins d’un million de km² en septembre. Le minimum historique a été atteint en 2012, à 3,4 millions de km².

Une nouvelle méthode pour détecter les microplastiques dans les organes

C’est un article de The Guardian qui a engendré la mauvaise interprétation, reprise par plusieurs médias dont Les Echos. Selon l’article originel et l’information reprise, des chercheurs de l’Université d’état de l’Arizona ont découvert la présence de microplastiques et de nanoplastiques dans des échantillons de poumons, de foie, de rate et de reins. C’était la première détection de microplastiques dans différents organes humains. Certains médias ont alors évoqué la présence généralisée de microplastiques dans les organes humains.

En réalité, les chercheurs ont prélevé 47 échantillons d’une banque de tissus destinée à étudier les maladies neurodégénératives. Après publication, The Guardian a corrigé son article pour préciser que les particules de plastique avaient été ajoutées par les chercheurs dans ces échantillons de tissus humains. Trop tard, l’information avait déjà été reprise en l’état. Autrement dit, les microplastiques ne s’étaient pas naturellement accumulés dans les organes échantillonnés. Ils ont été sciemment ajoutés par les chercheurs pour développer une nouvelle technique de détection des microplastiques dans ces organes. Une différence de taille.

Détecter la présence potentielle de microplastiques dans les organes

Les résultats ont montré que les microplastiques pouvaient être détectés dans chaque échantillon. C’est bien là le vrai résultat de l’étude en cours. Par spectrométrie de masse, les scientifiques sont parvenus à détecter les microplastiques dans chaque échantillon. La méthode analytique développée permet aux chercheurs d’identifier des dizaines de types de microplastiques, dont le polyéthylène téréphtalate (PET) utilisé dans les bouteilles de boissons en plastique et le polyéthylène utilisé dans les sacs en plastique.

Les chercheurs testent désormais des tissus pour trouver des microplastiques qui se sont réellement accumulés au cours de la vie des donneurs. Les donneurs aux banques de tissus fournissent généralement des informations sur leur mode de vie, leur régime alimentaire et leurs professions, ce qui aidera à déterminer les principales façons dont les personnes sont exposées aux microplastiques. « Une fois que nous aurons une meilleure idée de ce qui se trouve dans les tissus, nous pourrons mener des études épidémiologiques pour évaluer les résultats sur la santé humaine », confie Varun Kelkar, membre de l’équipe de recherche à The Guardian.

La nouvelle méthodologie développée par l’équipe pour extraire les plastiques des tissus et les analyser sera partagée en ligne afin que d’autres chercheurs puissent rapporter leurs résultats de manière standardisée et construire une base de données mondiales sur l’exposition au plastique et leur présence dans les organes humains.

Un mois dans l’espace #8

Le centre spatial guyanais reprend du service

Aucune fusée n’avait décollé de Kourou depuis le début du confinement au mois de mars dernier. C’est chose faite, puisque Ariane 5 s’est élancée le 15 août dernier, après deux reports successifs liés à la crise sanitaire mondiale.

Décollage d’Ariane 5 ©esa

Le lancement, destiné à mettre en orbite géostationnaire deux satellites de télécoms (pour le compte d’Intelsat) et un ravitailleur, s’est parfaitement déroulé. Le constructeur européen a une nouvelle fois démontré sa fiabilité, dans un contexte de concurrence accrue. Pour ce vol, la capacité de transport de charge utile a d’ailleurs été augmentée de 85 kg, pour être portée à 10 468 kilogrammes.

Le prochain lancement, qui aura lieu le 1er septembre 2020, sera opéré par le lanceur Vega et sera chargé de mettre en orbite pas moins de 53 satellites, pour le compte de 21 clients.

100ème vol pour SpaceX

L’entreprise spatiale créée par Elon Musk, SpaceX, a opéré le 18 août dernier son 100ème lancement : un chiffre vertigineux quand on pense que SpaceX n’existe que depuis 2002, et que les lancements tentés jusqu’en 2008 se sont révélés être des échecs. Le lancement, opéré par le Falcon 9, permettra de continuer la mise en orbite des satellites de la constellation Starlink, destinée à assurer un accès mondial à internet pour tous.

La constellation Starlink, qui devrait théoriquement voir la mise en orbite de 12 000 satellites pour être totalement opérationnelle, se met en place depuis plusieurs années. Aujourd’hui, ce sont 595 satellites qui sont déjà actifs en orbite. L’objectif affiché est de placer en orbite le dernier maillon spatial de Starlink en 2025.

Le projet suscite cependant de plus en plus de critiques. En termes d’encombrement spatial déjà. Un sujet encore émergent mais dont la réalité peut aujourd’hui s’observer à l’oeil nu. A cela viennent aujourd’hui s’ajouter les risques, de plus en plus importants au fur et à mesure des lancements successifs, de collisions. Un incident a été évité de peu il y a tout juste un an, et la multiplication des engins mis en orbite laisse craindre que ce type de cas de figure ne se répète inévitablement à l’avenir.

Un grand rebond plutôt qu’un big bang ?

Cela fait des années que régulièrement, des théories émergent pour expliquer la naissance de l’univers. Le big bang a aujourd’hui des concurrents. Et le plus sérieux est aujourd’hui le rebond.

Cette théorie, qui n’est pas nouvelle, prend de l’ampleur depuis quelques années via des simulations. Selon la théorie du rebond, l’univers n’aurait ni début, ni fin. Il serait le fruit d’une suite de contractions et d’expansions. Les contractions permettraient à l’univers de se charger en énergie, et l’expansion – la phase que nous connaissons aujourd’hui – serait liée au déchargement de cette énergie. Chacune de ces phases durerait plusieurs milliards de milliards d’années !

Une théorie séduisante pour une partie de la communauté scientifique, mais qui ne fait pas encore l’unanimité. En clair, le big bang a encore quelques beaux jours devant lui.

Des bactéries terrestres pourraient-elles contaminer Mars ?

Deinococcus radiodurans : c’est son nom. Cette bactérie, la plus résistante connue, pourrait résister à un voyage vers Mars. En effet, elle peut résister au vide, à la sécheresse, aux températures extrêmes… En fait, elle résiste à tout ce qui d’ordinaire tue un organisme vivant.

En 2015, des chercheurs ont placé ces bactéries à l’extérieur de l’ISS, les exposant au vide spatial et aux rayons cosmiques. Les bactéries ont été exposées pour des durées variant de un à trois ans. L’expérience, qui a pris fin en 2018, confirme ce que les chercheurs pressentaient. Si les couches de bactéries exposées directement – au vide, au froid spatial, aux rayons cosmiques – sont mortes, elles ont protégé les couches inférieures, qui sont elles restées vivantes, assurant la pérennité de la colonie.

La forme circulaire de leur ADN permet même à ces bactéries de se remettre de dégâts extrêmes causés par des radiations par exemple, puisque le matériel génétique Deinococcus radiodurans a une capacité extraordinaire à s’autoréparer.

Cela dit, même avec ces capacités extraordinaires de résistance, rien ne dit que cette bactérie pourrait arriver vivante sur Mars, ce qui est la grande crainte pour les prochaines ambitions des agences spatiales mondiales. En effet, le décollage, la sortie de l’atmosphère et l’atterrissage constituent également des épreuves redoutables, même pour cette super bactérie !

 

TOP 5 : les articles les plus lus en #Août2020

1. Explosions à Beyrouth : le nitrate d’ammonium, le drame avant et après

Le mardi 4 août, deux immenses explosions détruisent le port de Beyrouth et dévastent en partie la capitale libanaise. L’enquête se poursuit et la piste de l’accident est privilégiée. En cause : la détonation de 2 750 tonnes de nitrate d’ammonium stockées depuis près de sept ans dans un entrepôt portuaire, et provenant d’une cargaison saisie en 2013. Elles étaient transportées sur un navire en direction du Mozambique, depuis la Géorgie, qui faisait escale au port beyrouthin.

2. 44 bactéries pathogènes et 78 contaminants dans les huîtres

Une nouvelle étude révèle des résultats inquiétants : la présence généralisée de bactéries pathogènes et de microdébris d’origine humaine dans les huîtres en Birmanie. Ces résultats pourraient s’appliquer à d’autres parties du monde et suscitent des inquiétudes pour la santé humaine et l’environnement.

3. Un chauffeur VTC a tout intérêt à passer à l’électrique à Paris

Selon l’ONG Transport & Environnement, les chauffeurs VTC ont tout intérêt à passer au plus vite à l’électrique. Ils pourraient économiser ainsi jusqu’à 3000 euros par an à Paris.

4. Le génome du SARS-CoV-2 analysé grâce à un logiciel étudiant

Empêchés de faire un stage à cause de la crise sanitaire provoquée par la Covid-19, deux étudiants de Polytech Grenoble ont mis au point un logiciel capable d’analyser le génome de du coronavirus SARS-CoV-2 responsable de cette maladie. Construisant ce logiciel à l’aide de bases de données déjà existantes, Xavier Pilastre et Guillaume Langlois ont comparé l’ADN du SARS-CoV-2 à celui de quatre autres virus : le VIH, la grippe espagnole, le H1N1 et le rhume saisonnier. Ainsi, ils ont pu mettre en avant les caractéristiques génomiques singulières du coronavirus.

5. Ariane 6, réponse européenne à un marché spatial de plus en plus concurrentiel

Carole Deremaux, cheffe du service Architecte Ariane 6 au CNES, a expliqué à Techniques de l’Ingénieur les raisons pour lesquelles Ariane 6, la nouvelle fusée européenne à venir, a été développée si rapidement.

A retenir :

[Dossier] La métrologie, clé de valorisation pour l’industrie du futur

La métrologie permet de garantir la qualité des mesures dans l’industrie. La responsabilité des entreprises qui fabriquent ces appareils est donc immense vis-à-vis des utilisateurs, présents dans tous les secteurs de l’industrie. L’avènement de l’usine du futur bouleversant les usages, les technologies de mesures deviennent ou vont devenir une clé de valorisation importante pour beaucoup d’entreprises. Voyons comment.

[Dossier] L’intelligence artificielle en entreprise : une force tributaire des données

Début 2019, plus d’un tiers (37 %) des organisations mondiales annonçaient avoir mis en œuvre l’IA sous une forme ou une autre, selon le cabinet d’analystes Gartner. Soit un bond de 270 % par rapport à il y a quatre ans. Dans ce dossier, Techniques de l’Ingénieur explore le déploiement de l’IA dans divers secteurs d’activité – ressources humaines, supply chain et expérience client – ainsi que les obstacles s’opposant à sa démocratisation.

Les centrales nucléaires doivent s’adapter aux températures de l’air extrêmes

Cet été, une nouvelle fois, EDF a dû cesser la production d’électricité de certaines de ses centrales nucléaires en raison des fortes chaleurs. À Golfech, dans le Tarn-et-Garonne, le réacteur numéro 2 a été temporairement arrêté tandis que la production du site de Chooz dans les Ardennes est totalement interrompue pendant quelques jours. Les températures de l’air très chaudes ou très froides perturbent le fonctionnement des centrales nucléaires et notamment leur niveau de sûreté. Olivier Dubois, directeur adjoint de l’expertise de sûreté à l’IRSN (Institut de radioprotection et de sûreté nucléaire) nous explique quel est l’impact des conditions météorologiques sur les centrales et comment elles doivent s’adapter pour y faire face.

Techniques de l’Ingénieur : Quel est l’impact de la canicule sur les centrales nucléaires ?

Olivier Dubois, directeur adjoint de l’expertise de sûreté à l’IRSN (Institut de radioprotection et de sûreté nucléaire). Crédit photo : IRSN

Olivier Dubois : Les réacteurs nucléaires doivent en permanence être refroidis grâce à de l’eau froide pompée dans un cours d’eau ou la mer. Le circuit de refroidissement peut être ouvert, dans ce cas, une fois pompée, l’eau est rejetée un peu plus chaude, entre 3 et 4 degrés de plus, dans le fleuve ou la mer. Les centrales équipées de tours aéroréfrigérantes fonctionnent en circuit fermé et les calories sont alors évacuées par l’évaporation de l’eau grâce aux panaches de vapeurs qui se dégagent au-dessus de ces grandes tours. Les deux systèmes peuvent cohabiter sur un même site, comme à Bugey dans l’Ain. Il s’agit d’un choix de construction qui dépend de son implantation. La réglementation, à travers des arrêtés, fixe des limites de température de l’eau à l’aval des centrales afin de préserver la faune et la flore aquatiques.  Quand ces températures s’approchent trop près de ces limites, EDF arrête certains de ses réacteurs comme à Golfech. Ce site est équipé de tours aéroréfrigérantes et même s’il contribue peu au réchauffement de la température de la Garonne, la réglementation l’oblige à arrêter la centrale.

L’arrêt de la centrale de Chooz dans les Ardennes n’est-il pas lié à un autre problème ?

Oui, son arrêt est lié au faible débit de la Meuse qui a atteint la limite inférieure fixée par des accords avec la Belgique. Si le débit descend en dessous de 22 m3/seconde, l’un des deux réacteurs est arrêté. En dessous de 20 m3/seconde : les deux réacteurs sont arrêtés. De manière générale, les réacteurs en circuit ouvert, c’est-à-dire sans tours aéroréfrigérantes, ont besoin de plusieurs dizaines de m3 par seconde pompés puis rejetés dans le fleuve ou la rivière pour leur refroidissement. Si le débit devient trop faible, il faut arrêter ou réduire la puissance des réacteurs du site. Les réacteurs en circuit fermé, comme la centrale de Chooz, ont besoin d’un débit beaucoup plus faible pour fonctionner (quelques m3/seconde) mais ce débit est prélevé et n’est pas rejeté dans le fleuve car l’eau s’évapore dans les tours aéroréfrigérantes.

En dehors de Chooz et du cas particulier de la Meuse qui traverse la Belgique, les réacteurs de Civaux sur la Vienne sont sensibles à ces problèmes. De même, il pourrait y avoir des tensions sur les réacteurs en bord de Loire en cas de très basses eaux du fleuve. Le débit du Rhône est par contre trop grand pour imaginer un problème d’étiage pour les réacteurs de ce fleuve.

La canicule peut-elle avoir un impact sur la sûreté de ces installations ?

Les réacteurs ont été conçus dans les années 70 et au début des années 80 avec des hypothèses de températures de l’eau et de l’air maximales. Lors de la canicule de 2003, ces hypothèses ont été dépassées et depuis, EDF a été obligé d’évaluer jusqu’à quelles températures les fonctions de sûreté de ses centrales pouvaient être assurées. Les hypothèses de températures maximales de l’air ont été relevées de 5 à 10 degrés avec, en fonction des sites, une température moyenne maximale sur une journée qui peut aller de 38 à 44 degrés. Des modifications ont dû être réalisées sur certains équipements, comme le dimensionnement des circuits de ventilation, le conditionnement thermique des locaux, les pompes de secours…

Les modifications apportées par l’exploitant sont-elles suffisantes ?

Nous avons demandé à EDF de réaliser des tests sur les diesels de secours utilisés pour alimenter en électricité les centrales en cas de panne du réseau. Dans un premier temps, seuls des modèles mathématiques pour tester des températures extérieures élevées avaient été effectués. Aujourd’hui, EDF profite des grandes chaleurs l’été pour tester ces diesels et vérifier qu’ils fournissent la bonne puissance électrique attendue. Une dizaine de moteurs sont testés chaque année en sachant que le parc français en possède 112, à raison de deux par réacteur. Ce travail se fait progressivement lorsqu’il fait très chaud l’été, tout en veillant à le réaliser dans des conditions de sûreté optimales.

Des procédures spécifiques ont-elles été mises en place ?

La canicule est une agression prévisible et, depuis 2003, des règles de conduite graduées ont été mises en place pour y faire face. Elles se divisent en quatre phases. La première, nommée « veille », consiste à préparer des matériels spécifiques pour lutter contre la chaleur et à surveiller les conditions météo. Lors de la phase de « vigilance », des rondes sont réalisées afin de mesurer la température dans les locaux sensibles. Dans la troisième phase dite de « pré-alerte », des appareils supplémentaires sont installés comme des climatiseurs mobiles et certains systèmes non essentiels à la sûreté mais produisant beaucoup de calories sont arrêtés. Enfin, la dernière phase, appelée « alerte », se déclenche lorsque la température du circuit qui sert à refroidir tous les circuits essentiels à la sûreté dépasse le seuil de 45 degrés ; dans ce cas, le réacteur est arrêté.

L’arrêt des centrales peut-il avoir un impact sur l’approvisionnement en électricité ?

Pour l’instant, cela ne met pas en difficulté l’équilibre entre la production et la demande car cela se produit l’été et durant de très courtes périodes. L’été, la consommation d’électricité en France est faible car l’industrie est en grande partie à l’arrêt à cause des congés et il n’y a pas de demande de chauffage. Comparés aux États-Unis, les besoins en électricité pour la climatisation en France sont faibles.

Inversement, le froid a-t-il un impact sur les centrales ?

Des températures minimales sont aussi à respecter en cas de grand froid. La source froide dans laquelle l’eau est prélevée ne doit pas geler sinon il n’est plus possible de pomper l’eau pour refroidir la centrale. Les hivers les plus rudes se sont produits au début des années 80, si je me souviens bien. À cette époque, certaines modifications ont aussi été réalisées sur des systèmes de sécurité afin de s’adapter à des températures très froides. Mais aujourd’hui, ce sujet n’est plus d’actualité car les hivers sont plus cléments.

L’Euro digital : une monnaie adaptée aux transactions numériques

Galitt est spécialisée dans les conseils et les services en systèmes de paiement et de transactions électroniques sécurisées. Cette entreprise fournit des logiciels de test de renommée mondiale et développe des solutions de paiement spécialisées. CEO de Galitt depuis novembre 2019, Pierre Lahbabi connait bien les problématiques de paiement et de sécurité. Diplômé de l’École Polytechnique et de L’École des Mines, il a acquis une solide expérience dans la stratégie et l’innovation dans les domaines du paiement et la sécurité numérique, au sein du groupe BNP Paribas puis comme directeur de la stratégie chez MORPHO, une ancienne filiale de sécurité et d’identité du groupe Safran.

Techniques de l’Ingénieur : pourquoi les Banques centrales se lancent-elles (ou y réfléchissent) dans des projets de monnaies numériques ?

Pierre Lahbabi : Il y a deux raisons. La première est la multiplication des initiatives de certaines banques centrales – dont les premières remontent à déjà cinq ans – mais aussi de Facebook avec son projet Libra qui les a fortement incitées à accélérer leurs réflexions et projets concernant cette thématique et les enjeux de souveraineté. Elles ne peuvent pas accepter qu’une entreprise privée, d’envergure internationale comme ce réseau social, lance une monnaie numérique. La seconde est une raison de fond. Les institutions financières se demandent quelle est la meilleure solution pour échanger de la monnaie dans un monde numérique où les échanges sont instantanés, transfrontières et dématérialisés. Or, tous les systèmes classiques comme la monnaie fiduciaire n’ont pas été conçus pour ce type d’échanges ; ils ont juste été adaptés. Le but d’une monnaie numérique, comme l’Euro digital par exemple, est de concevoir dès le départ une solution adaptée à tous les échanges numériques.

Visa a également déposé fin 2019 une demande de brevet auprès de l’Office américain des brevets et des marques (USTPO) pour une « monnaie fiduciaire numérique » (« Digital fiat currency »). Quel est son objectif ?

Visa mais aussi MasterCard se positionnent sur tous les projets disruptifs qui pourraient remettre en cause leur business model. À long terme, la monnaie numérique sera peut-être une menace pour eux. Mais pour l’instant, leur principale crainte concerne l’usage des API et l’open banking, avec des paiements qui se passent de cartes bancaires. Une « Application Programming Interface » (interface de programmation applicative) agit comme un ensemble de fonctions informatiques par lesquelles deux logiciels vont interagir. Elles peuvent permettre de se connecter directement à son compte bancaire via une application et réaliser une transaction, sans passer par l’utilisation d’une carte.

Sur quelles technologies les Banques centrales peuvent-elles s’appuyer ?

Toutes les initiatives s’appuient sur une blockchain qui est une technologie de registre distribué. Elle permet d’avoir une trace de toutes les transactions enregistrées dans une blockchain. Mais concernant les paiements, cette blockchain devra avoir des caractéristiques précises pour être en temps réel et accepter un nombre très élevé de transactions.

L’Euro digital pourrait-il être utilisé par le grand public ?

Oui. Le recours à une blockchain sera transparent. L’objectif est de permettre des achats sur des sites de e-commerce ou de transférer de l’argent à un membre de sa famille. Comme pour l’Euro classique, ce seront les banques centrales qui définiront les règles pour l’Euro digital. Mais on ne sait pas encore si des acteurs privés (outre Facebook, on peut penser à Amazon et à Alibaba, son équivalent chinois, NDLR) lanceront eux aussi de telles monnaies. Leur présence pourrait être problématique sauf si leurs monnaies virtuelles sont limitées à un écosystème précis. Par exemple pour le Libra, son usage pourrait être restreint à des achats sur Facebook, ses filiales (Instagram, Whatsapp) et quelques partenaires.

Lorsqu’on évoque les transactions électroniques, on pense immédiatement à leur sécurité. Les fraudes ne seront-elles pas plus importantes ?

Les fraudes existent déjà avec les moyens de paiement actuels, surtout sur Internet. L’objectif d’un projet comme l’Euro digital serait de mettre en place une approche capable de limiter la fraude. Il s’agirait de concevoir, dès le départ, un instrument présentant toutes les garanties de sécurité et pour la protection des données. À titre d’exemple, l’environnement des paiements par carte en magasin est bien maîtrisé :  on utilise un terminal de paiement très sécurisé et le consommateur doit taper un code. Pour revenir aux monnaies numériques, il s’agirait aussi de mettre en place un écosystème maîtrisé. La blockchain est au final une technologie assez fiable. Toutes les affaires de fraudes aux bitcoins étaient dues soit à des plateformes peu scrupuleuses ou pas assez professionnelles pour assurer les transactions. Autre maillon faible : des portefeuilles de Bitcoin qui étaient mal sécurisés. Avec l’Euro digital, il y aura des plateformes agréées.

« Il nous paraît très probable que la réutilisation des lanceurs devienne la norme »

Depuis 2015, ArianeGroup et le CNES collaborent au développement d’un moteur-fusée à faible coût et réutilisable : Prometheus.

Objectif, rester concurrentiel sur le marché des lancements de satellites. Elon Musk, en réussissant le pari de produire des lanceurs réutilisables, a  bousculé certaines certitudes. De nouveaux acteurs du spatial, privés ou étatiques, développent chacun de leur côté des solutions de lancements financièrement intéressantes.

Prometheus est la réponse française et européenne à ce contexte en pleine évolution.

Techniques de l’Ingénieur : Quel contexte a abouti à la genèse du programme européen Prometheus, visant à développer un moteur-fusée à ergols liquides réutilisable ?

Christophe Bonhomme : Le contexte, aujourd’hui, est forcément international. Les services de lancements spatiaux se sont développés un peu partout principalement au niveau des grandes puissances, pour les besoins propres des pays, ce qu’on appelle les charges utiles institutionnelles – militaire, recherche … -, mais également sur le secteur commercial.

Christophe Bonhomme est expert senior Propulsion spatiale au CNES.

Arianespace a longtemps été leader sur le marché commercial des lancements de satellites, notamment devant les Etats-Unis, qui avaient misé sur leur navette spatiale. Celle-ci s’est avérée être un gouffre financier et n’était pas du tout concurrentielle pour ce type de missions.
Malgré tout, la concurrence s’est développée, notamment avec les Russes, qui avaient des moyens de lancements intéressants financièrement, avec quelques problèmes de fiabilité tout de même. Les Japonais, les Indiens et les Chinois également – qui ont longtemps développé des moyens de lancement uniquement pour répondre à leurs besoins internes, mais qui se projettent aujourd’hui sur le marché mondial – imposent à l’Europe une concurrence de plus en plus intense.

Comment a été prise la décision de s’orienter vers des modèles réutilisables ?

Elon Musk, qui a d’abord été considéré comme un OVNI dans le milieu du spatial, a changé la vision que nous avions sur certaines technologies de lancements. Auparavant, le développement de lanceurs réutilisables était considéré chez nous comme une fausse bonne idée vis-à-vis du bilan financier. Cela ne valait pas la peine de ramener nos lanceurs, économiquement parlant. Elon Musk, avec SpaceX, a réussi à prouver qu’avec des concepts technologiques bien particuliers, et plutôt rustiques d’ailleurs, il était possible de développer des lanceurs réutilisables. Et que cela était économiquement compétitif.
La particularité de SpaceX vient du fait qu’il s’agit d’une entreprise privée, sans contrainte de retour financier entre plusieurs Etats (comme c’est le cas en Europe). C’est la grande différence par rapport aux projets européens, qui sont réalisés par des consortiums, où il faut dans chaque temps du développement des projets mettre tous les partenaires d’accord… Cela peut s’avérer long et difficile. SpaceX, en tant qu’entreprise privée, n’a pas ces contraintes, et a réussi, en validant son concept de lanceurs réutilisables, à casser les prix du marché.
Tous ces paramètres ont participé à faire baisser drastiquement le coût d’accès à l’espace. Dans ce contexte, la compétitivité d’Ariane 5 n’est plus ce qu’elle était, et il est aujourd’hui bien difficile pour notre lanceur européen de s’adjuger des parts de marché à l’international.

Comment le secteur spatial européen peut-il s’adapter à ce nouveau contexte ?

Notre logique consiste à répondre en 2 temps : une réponse « coup de poing », avec Ariane 6 et ses technologies maîtrisées, pour redevenir compétitif à court/moyen terme, puis, un peu plus tard, pour nous laisser le temps de développer la technologie, un lanceur réutilisable.
Ariane 6 reste basée sur des concepts assez proches de ceux d’Ariane 5, avec quelques évolutions : au niveau des boosters à propergols solides par exemple qui remplacent leurs corps en acier par des corps en composite carbone ou au niveau de l’étage supérieur qui devient versatile, c’est-à-dire qu’il sera en mesure de remplir plusieurs missions différentes avec sa capacité de rallumage.

Mis à part cela, le concept de la fusée copie celui d’Ariane 5, avec un étage principal cryotechnique (à oxygène et hydrogène liquides) intégrant un moteur Vulcain 2 optimisé et un étage supérieur également cryotechnique avec le moteur Vinci. Les efforts se sont concentrés sur l’organisation et les coûts d’industrialisation (intégration lanceur à l’horizontal, par exemple), afin de les faire baisser le plus possible. Sur ce dernier point, la création d’ArianeGroup a permis de faire des économies d’échelle.
Après Ariane 6, il nous paraît très probable que la réutilisation des lanceurs devienne la norme. D’où l’émergence d’un projet de nouveau moteur à ergols liquides, Prometheus, qui pourrait équiper des lanceurs réutilisables. 

Pour le développement des moteurs Prometheus, le couple oxygène liquide/méthane liquide va remplacer le traditionnel couple oxygène liquide/hydrogène liquide. Pourquoi ? 

Nos analyses de comparaisons d’ergols (le carburant et le comburant) nous montrent qu’un couple oxygène liquide/méthane liquide s’avère avantageux pour réduire les coûts du système global, et pour la réutilisation.
En effet, pour un incrément de vitesse donné par le lanceur à la charge utile, le volume que va représenter la quantité d’oxygène et de méthane sera inférieur au volume d’oxygène et d’hydrogène liquides. Cela permet donc de réduire la taille de cet étage de la fusée, et in fine facilite la problématique de la récupération.
En termes de coût, le fait d’avoir une molécule de méthane (CH4), plus grosse que la molécule d’hydrogène (H2), permet d’éviter certains problèmes de fuites. C’est un argument supplémentaire en faveur du couple oxygène/méthane.
De plus, ces ergols sont stockés sous forme liquide pour prendre moins de place : à 90 kelvin (K) pour de l’oxygène, 110 K pour du méthane, et 21 K  pour l’hydrogène. Il y a donc moins d’écart de température entre le carburant et le comburant que nous développons et il y a besoin de descendre moins bas en température, autant d’aspects privilégiant la simplicité et les coûts.
Enfin, au niveau du moteur, pour une pression de la chambre de combustion donnée, l’hydrogène nécessite une puissance de la pompe presque 2 fois supérieure à celle pour le méthane, du fait de sa densité beaucoup plus faible. Ce besoin supplémentaire de puissance se traduit directement par des contraintes plus élevées sur la structure et les matériaux, notamment au niveau de la turbopompe. Ce choix, oxygène/méthane, pour le couple carburant/comburant fait donc sens, dans l’optique d’une réutilisation. Nous ne sommes d’ailleurs pas les seuls à aboutir à cette conclusion-là. SpaceX travaille sur son moteur Raptor avec le même couple d’ergols, et le moteur BE4 de Blue Origin est également développé sur ce modèle-là. 

Quelle est la finalité du programme Prometheus ?

Notre ambition est de faire une démonstration par rapport à la réutilisation et à la réduction des coûts de production. C’est la raison d’être de Prometheus.
Nous avons commencé une première phase, franco-française pour maturer le projet et montrer à nos partenaires européens l’intérêt d’un tel développement. Nous avons donc travaillé, entre le CNES et Ariane Group, pendant quelques années à développer l’avant-projet, établir un concept et monter un dossier pour emmener avec nous nos partenaires européens. Ce qui a fonctionné, puisque aujourd’hui Prometheus est un projet développé sous l’égide de l’ESA (l’Agence spatiale européenne) et regroupe la France, l’Allemagne, l’Italie, la Suède, la Belgique et la Suisse.

En plus de la réutilisation, quels sont les spécificités du moteur Prometheus ?

Le moteur Prometheus est en quelque sorte un couteau suisse : un coût de production très bas, 10 fois plus faible que pour celui d’un moteur Vulcain 2 pour une poussée comparable, et la possibilité d’être réutilisé plusieurs fois. De plus, la configuration de réutilisation que nous envisageons, très similaire à la technique du « toss back » (décollage et retour sur terre du lanceur à la verticale et en utilisant la propulsion principale) utilisée par SpaceX, nécessite des moteurs régulés permettant une poussée modulable. En effet, il ne s’agit pas juste de développer un moteur qui va fournir un boost à poussée maximum pendant 10 minutes, comme c’est le cas pour Vulcain 2. Pour faire redescendre l’étage, il faut que le moteur puisse se rallumer pour faire demi-tour, après la première phase de boost ascensionnel et la séparation avec l’étage supérieur, se rallumer un peu plus tard pour un boost de freinage et enfin moduler sa poussée pour accomplir le boost d’atterrissage à la verticale. Chacune de ces manœuvres nécessite une poussée différente. Il n’est pas aisé, sur ces moteurs dont l’utilisation pousse les structures et les matériaux à leurs limites, de trouver le bon équilibre.

Comment l’impression 3D, utilisée pour fabriquer la quasi-totalité des pièces du moteur Prometheus, vous permet-elle de diminuer les coûts de production ?

La fabrication additive métallique est un atout extrêmement important pour le développement de Prometheus, car elle nous permet d’obtenir des pièces très rapidement, et d’optimiser beaucoup de paramètres du point de vue du design. On développe aujourd’hui une seule et unique pièce là où avant on en assemblait plusieurs. On gagne ainsi en termes d’innovation, de temps de développement, de fabrication, de mise au point et de coût. 

Aujourd’hui, quel est l’état d’avancement du projet ?

Nous en sommes au stade de la fabrication du premier moteur à l’échelle 1, qui sera tiré au banc. En parallèle, nous modifions un banc d’essai existant situé en Allemagne, auquel nous ajoutons un réservoir méthane, pour tester la performance, la modulation de poussée, et lui faire subir des cycles de fonctionnement afin de vérifier que tous ces paramètres sont conformes à ce que nous attendons.
En parallèle à ça, le démonstrateur de premier étage, Themis, qui sera propulsé par trois moteurs Prometheus, permettra de valider le principe du toss back, à savoir le décollage et le retour sur terre du lanceur.

Combien de fois ces moteurs pourront-ils équiper des lanceurs avant d’être remplacés ?

Des études technico-économiques sont en cours pour évaluer le nombre optimal de missions pour un lanceur réutilisable. C’est ce qui va guider le dimensionnement des pièces du moteur. Il faut trouver un équilibre entre le nombre de fois que sera utilisé le lanceur et sa cadence de fabrication (qui influe directement sur son coût de fabrication unitaire). Il y a donc eu un gros travail de projection, qui nous permet aujourd’hui d’établir à 6 le nombre de décollages/retours sur terre pour chaque moteur, idéalement. C’est donc vers cet objectif là que nous tendons à l’heure actuelle. 

Après ces 6 missions, qu’advient-il des moteurs ?

Plusieurs scénarios sont envisagés. Dans la configuration prévue pour ce nouveau lanceur, on utilise le même moteur à l’étage supérieur, qui lui ne sera pas réutilisé. On pourrait donc imaginer utiliser un moteur Prometheus ayant effectué ses 6 cycles pour propulser cet étage. A la suite de quoi il serait désintégré lors de son retour dans l’atmosphère.
Il est également possible – et cela est en cours d’étude – de recycler les composants du moteur, qui sont principalement des alliages à base de nickel. On pourrait imaginer les refaire passer à l’état de poudre pour les réutiliser dans les machines de fabrication additive (impression 3D). Il faut valider la faisabilité technique et économique de ce type de solution.

Propos recueillis par Pierre Thouverez

Image d’illustration de l’article : le moteur Prometheus ©CNES

Le numérique révolutionne le domaine de l’étalonnage

L’activité d’étalonnage, fondamentale pour créer la confiance autour des procédés de fabrication, est bouleversée par les ruptures technologiques en cours : numérisation, automatisation, internet des objets, intelligence artificielle…

Gautier Triboulloy, Support Engineer chez Beamex.

Dans ce contexte, la digitalisation des mesures et en particulier de l’étalonnage permet non seulement d’éviter de répéter les erreurs, mais ce n’est pas tout.

L’exploitation des données liée à la digitalisation permet aujourd’hui une amélioration en continu de la fonction d’étalonnage, et donc une amélioration substantielle de la qualité des produits et de la performance industrielle en général.

Gautier Triboulloy, Support Engineer pour la société Beamex, spécialisée dans l’étalonnage, explique pour Techniques de l’Ingénieur en quoi la digitalisation révolutionne l’activité d’étalonnage.

Techniques de l’Ingénieur : Pouvez-vous nous présenter la société Beamex et son domaine d’intervention dans l’univers de la métrologie ?

Gautier Triboulloy : Beamex est une société Finlandaise qui a été créée en 1975 par les instrumentistes Eero, Krister, Veijo et Nils-Erik, qui étaient à l’époque frustrés par les calibrateurs de process existants.
Depuis, notre raison d’être est d’offrir des manières d’étalonner toujours plus innovantes et efficaces dans le domaine de la métrologie industrielle.

Pourquoi l’étalonnage est une activité fondamentale dans l’industrie d’aujourd’hui et de demain ?

Les nouvelles réglementations appliquent une pression constante sur les opérations de fabrication afin de préserver un niveau élevé de sécurité de l’usine et de qualité du produit.
Le rôle de la métrologie (et donc de l’étalonnage) est donc capital. La métrologie permet de gérer le risque d’obtenir des résultats de mesure incorrects, pouvant avoir un impact sur la qualité des produits ou sur la sécurité.
Elle permet d’avoir confiance dans les résultats des mesures, ce qui est fondamental.

En quoi le numérique révolutionne-t-il le domaine de l’étalonnage ?

Historiquement, les vérifications périodiques des instruments de mesure sont réalisées sur le terrain en environnement industriel et les données d’étalonnage sont renseignées sur papier. Grâce aux nouvelles technologies et aux nouveaux outils, l’ensemble du process d’étalonnage peut désormais être digitalisé. Le papier disparaît complètement du processus, ce qui permet de gagner du temps et d’éliminer les erreurs de recopie.
Mais le principal changement concerne l’exploitation des données d’étalonnage. Comme celles-ci se trouvent désormais au format numérique, elles deviennent facilement accessibles pour la consultation et l’exploitation.

Comment se projeter sur l’usage dans le futur des capteurs ?

Les capteurs vont jouer un rôle capital désormais. Ils constitueront l’interface entre le monde numérique et le monde réel.
Dans le futur, les capteurs seront utilisés bien au-delà des procédés de production eux-mêmes. Ils ont aussi un rôle à jouer dans les sous-procédés parallèles aussi bien ascendants que descendants comme la maintenance préventive.

Pourquoi l’étalonnage est il une clé fondamentale dans la conception des usines du futur ?

Comme on l’a vu précédemment, les mesures réalisées tout au long d’un processus de fabrication vont être de plus en plus nombreuses afin d’avoir une meilleure connaissance de ce dernier. Or, il est nécessaire d’avoir confiance dans ses données, et cette confiance ne peut être obtenue que grâce à l’étalonnage.

Propos recueillis par Pierre Thouverez

Le LNE, pilier de l’expertise en métrologie

Créé en 1901, comme laboratoire d’essais du CNAM, le LNE a été transformé en EPIC (établissement public à caractère industriel et commercial) en 1978 pour répondre aux problématiques de la protection et de la sécurité du consommateur face aux nouveaux produits arrivant sur le marché français.

En 2005, l’Etat a confié au LNE le pilotage de la métrologie française, afin de définir une stratégie nationale en métrologie et animer un réseau de 10 laboratoires au plus haut niveau scientifique en métrologie (dont des laboratoires au CEA, au CNAM et à l’Observatoire de Paris).

Maguelonne Chambon, directrice de la recherche scientifique et technologique du LNE, explique pour Techniques de l’Ingénieur le fonctionnement actuel du LNE.

Techniques de l’Ingénieur : Pouvez-vous nous présenter l’activité du LNE et son spectre d’intervention au niveau français et européen ?

Le LNE apporte aux entreprises, industriels, institutions et collectivités, les solutions techniques dont elles ont besoin pour répondre à leurs enjeux de performance, compétitivité, santé, sécurité et développement durable. Son expertise se décline en prestations de recherche, métrologie, essais et analyses, certification, formation, et assistance technique. Avec un effectif de plus de 800 collaborateurs, dont plus des deux tiers d’ingénieurs et techniciens, le Groupe LNE déploie son savoir-faire à l’international avec des filiales implantées en Amérique et en Asie. Il se positionne aujourd’hui entre autres sur les domaines émergents des nanotechnologies, de la fabrication additive et de l’intelligence artificielle.

Au niveau européen, le LNE est membres des associations et réseaux majeurs comme EURAMET (association européenne des laboratoires nationaux de métrologie), EUROLAB Aisbl (association des laboratoires d’essais) et WELCMEC (association des organisations travaillant en métrologie légale).

Pouvez-vous détailler les compétences et les interventions du LNE sur les contrôles qu’il effectue sur la validation de la conception, de la fabrication et de l’utilisation ?

Le LNE est désigné par le ministère en charge de l’industrie pour délivrer les certificats d’examen de type des instruments de mesure mis sur le marché et réglementés par le décret français du 03 mai 2001. Il est également notifié pour la directive 2009/23/CE IPFNA (instrument de pesage à fonction non automatique). Donc le service de métrologie légale du LNE fait des examens sur des produits soumis à ces directives.
Sinon, le LNE ne participe pas à la conception de produits, ni à la fabrication, ni à leur validation, c’est de la responsabilité du fabricant, et lui seul. De plus, pour des raisons de propriétés industrielles, les entreprises ne font pas participer le LNE à ces différentes étapes.

Quelle est la relation du LNE avec les industriels du secteur de la mesure ?

Que ce soit en tant qu’entreprise commerciale ou comme organisme de recherche, le LNE noue de liens très forts avec le monde industriel.
Sur la partie recherche, nous participons à des Pôles de compétitivité, réseaux thématiques, IRT (instituts de recherche technologique, sur le véhicule autonome par exemple), UMT (unité mixte technologique, sur le domaine du contact alimentaire par exemple) pour mieux connaître et appréhender les besoins en mesures et essais des industriels.
Nous développons de la recherche partenariale, comme dans le cadre de l’AFH par exemple (Additive Factory Hub), pour la fabrication additive. Nous organisons également des « challenges » avec différents partenaires (privés, publics) sur l’évaluation de systèmes d’intelligence artificielle.
En 2017, le LNE a créé l’Institut LNE-nanotech pour répondre aux problématiques aussi bien de R&D que de prestations sur les nano-objets.
Pour la partie commerciale, le LNE effectue des prestations, pour la majeure partie à haute valeur ajoutée : prestations d’étalonnage, d’essais, d’audits, d’expertises, de formation et d’accompagnement des entreprises sur les sujets d’infrastructure qualité (métrologie dans l’entreprise, système de management de la qualité…).

Pourriez-vous nous donner des exemples d’interventions du LNE au sein de l’industrie sur l’aide à l’innovation ?

Le souci du LNE est qu’il fait souvent des prestations « à la demande » sur des sujets les plus divers comme sur le contact alimentaire (étude de migration chimique entre le contenant et le contenu), la dose d’absorption spécifique (DAS) en électricité haute fréquence (pour veiller aux limites imposées par l’UE sur les objets connectés) ou la fabrication additive (pour voir comment répondre aux besoins de mesure en ligne).

Par exemple, dans le secteur de la mesure de la qualité de l’air, en 2019, le LNE a accompagné une start-up développant des micro-capteurs connectés, apprenants et auto-calibrés via des algorithmes d’intelligence artificielle. Le but est d’accélérer la lutte contre la pollution de l’air. En l’absence de certification, cette start-up a demandé au LNE d’évaluer leurs performances métrologiques. Dans le cadre d’un contrat de recherche partenariale, le LNE a évalué les performances métrologiques des capteurs, en ce qui concerne les particules fines, le dioxyde d’azote, le dioxyde de carbone et l’ozone. Les résultats de cette évaluation ont permis à l’entreprise de faire un état des performances de sa solution. Alors que le marché des petites stations de qualité de l’air est en pleine croissance, ces résultats obtenus par le LNE constituent un atout concurrentiel indéniable et pourront être mis à profit dans le cadre de futures améliorations de la solution de la start-up.

Autre exemple, dans le domaine du médical : le LNE appuie de nombreux fabricants dans leur démarche d’innovation, en accompagnant leur analyse de risques et en développant des essais sur mesure. L’enjeu est de soutenir le développement de dispositifs inédits. On peut citer en exemple l’évaluation d’un exosquelette externe pour les paraplégiques, particulièrement innovant en raison de son autonomie et de son autostabilisation. En complément des essais conventionnels de sécurité électrique et de compatibilité électromagnétique, les essais mécaniques ont constitué un vrai challenge : pour estimer la durabilité du dispositif, il a fallu imaginer des protocoles répétables de vieillissement accéléré et concevoir des bancs d’essais associés pour simuler des contraintes d’utilisation proches des situations de terrain.

Plus généralement, par quels biais le LNE accompagne t-il les industriels du secteur ?

Le LNE met au service des industriels tout son savoir-faire pour accompagner au mieux l’innovation. De la recherche partenariale aux essais (évaluation des performances des produits à tous les stades de leur cycle de vie…), en passant par la formation (e-learning, webinars, journées techniques…), l’assistance technique (aide à la conception, audit et diagnostic, solutions sur mesure) ou l’information (publications scientifiques, recommandations dans le cadre de travaux de normalisation, guides techniques), les différents métiers du LNE permettent d’accompagner les entreprises dans leurs stratégies d’innovation et de croissance.

Propos recueillis par Pierre Thouverez

Contrôler la fatigue des matériaux par émission acoustique

Extrait de l’article Contrôle de la fatigue des matériaux par émission acoustique, par Stéphanie DESCHANEL et Jérôme WEISS

L’idée d’un contrôle non destructif de l’endommagement et la fissuration par fatigue à partir de la détection des émissions acoustiques induites est ancienne. Ce type d’analyse classique, relativement aisé à mettre en œuvre dans le principe, est confronté à divers problèmes :

  • un problème classique de rapport signal/bruit, exacerbé en situations réelles ou industrielles pour lesquelles les sources de bruit ambiant sont nombreuses et mal caractérisées. Ceci rend la localisation des fissures sources à partir des émissions acoustiques extrêmement difficile ;
  • un manque de spécificité vis-à-vis des mécanismes sources ; même en considérant un rapport signal/bruit très favorable, divers mécanismes physiques peuvent générer des émissions acoustiques lors de la fatigue des matériaux.

Des essais de fatigue oligocyclique ont été effectués sur de l’aluminium pur, un acier austénitique 304 L, un alliage de cuivre-cobalt-béryllium et du cuivre pur. Cette campagne a révélé la présence systématique de signaux d’EA quasi identiques, récurrents, lors de ces essais de fatigue. Provenant d’une source unique et se déclenchant à chaque cycle pratiquement au même niveau de contrainte, ces multiplets acoustiques constituent une signature spécifique à la propagation de fissures de fatigue.

Ces signaux peuvent être facilement différenciés à la fois du bruit environnemental, mais également des autres sources d’EA. Leur détection peut donc être considérée comme un signal d’alarme fiable et précoce de la fissuration et de la rupture par fatigue des matériaux, bien avant toute modification décelable des propriétés macroscopiques du matériau et/ou de la structure. Cette méthode de détection permet ainsi de relativement bien s’affranchir des problèmes de rapport signal/bruit. Jusqu’à présent, uniquement des essais de laboratoire ont été effectués, dans des conditions et sur des machines où le bruit était minimisé au maximum. Le passage aux situations industrielles représenterait certainement un challenge supplémentaire ardu, du fait des sources de bruit mécanique et/ou acoustique ambiant, ou d’histoires de chargement plus complexes. Il est à noter toutefois que, dans ce contexte, la nature particulière de ces signaux acoustiques, et en particulier leurs propriétés de corrélation, sera un atout important pour les discriminer du bruit ambiant, qui peut être cyclique dans le cas d’un bruit machine, mais qui est par nature toujours décorrélé.

Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 9 septembre !

Contrôle de la fatigue des matériaux par émission acoustique un article de Stéphanie DESCHANEL et Jérôme WEISS

La métrologie : une clé pour gagner et transmettre la confiance

Pour cela, le CFM organise des Journées Techniques, édite des publications dédiées sur des thèmes d’intérêt en métrologie, avec des contributeurs, experts en métrologie de différents domaines (industriels, fabricants de systèmes de mesure, prestataires, laboratoires de recherche…).

Jérôme Lopez est directeur technique du Collège Français de Métrologie

De plus, le CFM organise le Congrès International de Métrologie regroupant les experts et utilisateurs mondiaux du domaine. Enfin, le CFM vient de lancer un label (Trust MEtrology) visant à attester des bonnes pratiques métrologiques de l’entreprise ou la structure qui en fait la demande.

Jérôme Lopez, directeur technique du CFM, a répondu aux questions des Techniques de l’Ingénieur quant à l’importance de la mesure dans l’industrie, à la fois pour les entreprises et pour les clients.

Techniques de l’Ingénieur : Quelle est a place de la métrologie aujourd’hui dans la performance d’une entreprise industrielle ?

Jérôme Lopez : Toute entreprise industrielle fabriquant des produits matériels le fait selon des spécifications de performances. Par exemple, un sous-traitant mécanique doit usiner des pièces selon des plans, en respectant des côtes, des tolérances, des états matières, des états de surface… Un sous-traitant électronique doit développer des cartes électroniques à partir de composants pour réaliser des fonctions de traitement de signaux, de données, avec des tensions d’alimentation, des fréquences, des débits de données, des capacités de traitements, qui toutes doivent être spécifiées. Un intégrateur doit assembler différents sous-systèmes afin de réaliser des fonctions globales dans un contexte opérationnel et dans des contraintes environnementales particulières. Chaque entreprise est donc un maillon d’une chaîne, la chaîne de valeur, qui selon une approche processus opère une transformation à partir d’éléments d’entrée (matière première, composants…) pour produire un produit.
Pour cela, l’entreprise doit mettre en place en particulier un processus de fabrication visant à réaliser cette opération et d’autres processus pour les fonctions supports. Parmi ces processus, il en est un qui est la clé de voûte de la qualité des produits : le processus de mesure. En effet, le responsable métrologie ou la personne qui endosse ce rôle – responsable qualité parfois dans certaines PME ou responsable ingénierie – doit s’assurer que le processus de mesure permette de mesurer efficacement la qualité des produits avec un parc d’instruments adaptés et à tout moment opérationnel lorsque c’est nécessaire.
Le processus de mesure peut intervenir aussi à toutes les étapes du processus de fabrication, depuis la réception des composants ou pièces (contrôles d’entrée), en passant par les contrôles en cours de process jusqu’aux contrôles finaux.

Quels vont être les éléments clés du processus de mesure ?

De manière non exhaustive, on peut en identifier 4 principaux. D’abord, la définition d’un responsable du processus. C’est la première étape indispensable. On doit s’assurer que la personne a la compétence requise et peut assurer un « contre-poids » efficace par rapport à une production qui a ses propres objectifs de fabrication.

Ensuite, il est fondamental de valider le fait que chaque instrument de mesure est adapté à la mesure qu’on veut effectuer. Il s’agit par exemple de répondre à la question « Quelle erreur de mesure suis-je prêt à accepter pour réaliser une mesure donnée ? ». On verra ici intervenir la notion de capabilité, c’est-à-dire le rapport entre l’erreur acceptable et l’incertitude de mesure réelle.

Troisièmement, le raccordement métrologique : pour les instruments dits critiques, c’est-à-dire ayant un impact direct sur la qualité finale du produit, il faut s’assurer que les instruments de mesure sont étalonnés (ou vérifiés) de manière régulière afin de garantir que leurs performances sont conformes aux attentes (confirmation métrologique).

Enfin, la gestion du parc d’instruments : une gestion adaptée aux besoins, qui doit permette d’assurer le suivi de tous les instruments de mesure tout au long de leur vie, depuis la mise en service jusqu’à la mise au rebut. Les fiches de vie sont des outils adaptés. Elles permettent notamment de suivre les différentes étapes de maintenance, réparation, étalonnage…

La mesure tient donc une place importante au niveau d’une entreprise industrielle en externe (pour les clients), mais aussi en interne ?

Le processus de mesure porte la responsabilité de définir la conformité – ou non-conformité – des produits fabriqués. Il permet donc de mieux contrôler la qualité des produits et du processus de fabrication. Il est donc in fine un outil donnant de la confiance dans le processus de fabrication et dans les produits fabriqués. Cette confiance peut effectivement se diffuser en interne à l’entreprise et en externe vers les clients et les sous-traitants.

Au-delà, le rôle de la métrologie est de proposer des méthodes permettant de définir un processus de mesure efficace et adapté aux besoins. Elle est donc le référentiel, le cadre dans lequel le processus de mesure peut s’établir.

La métrologie est très transversale. Quelles sont les normes mises en place pour entourer l’usage de la mesure dans l’industrie ?

Au niveau normatif, pour l’ensemble des entreprises, on retrouve la mesure dans l’ISO 9001 : 2015, avec des paragraphes dédiés au processus de mesure (par exemple §7.1.5 – Ressources pour la surveillance et la mesure). Dans certains domaines, on la retrouve dans les normes spécifiques (IATF 16949 dans l’automobile, ISO 15189 pour les laboratoires médicaux). Enfin, une norme dédiée à la métrologie est applicable aux laboratoires d’étalonnage et d’essai ; il s’agit de l’ISO 17025 : 2017. Ces normes sont complétées par des fascicules de documentation (par exemple FDX 07-014 pour l’optimisation des intervalles de confirmation métrologique). Tous ces textes s’appuient sur deux textes fondateurs : le VIM (Vocabulaire International de Métrologie) et le GUM (Guide pour l’estimation des incertitudes de mesure), tous deux produits par le JCGM, un comité regroupant plusieurs instances internationales spécialisées, dont le BIPM, le Bureau International des Poids et Mesure, qui porte la responsabilité de la définition et de la diffusion des étalons internationaux.

Propos recueillis par Pierre Thouverez

Quelle métrologie pour l’usine du futur ?

Aujourd’hui, la métrologie est avant tout affaire de normes. Deltamu, une entreprise du secteur de la métrologie créée en 1998, veut faire évoluer ce mantra. De la métrologie des normes, elle veut passer à la métrologie des usages. Nuno Dos Reis nous explique les origines et les ressorts actuels de cette transformation.

Techniques de l’Ingénieur : Comment est né Deltamu ?

Nuno Dos Reis : Deltamu est né d’un constat fait tout au long d’une première expérience de 10 ans de son fondateur, Jean-Michel Pou, dans un laboratoire d’étalonnage. On était alors au tout début des certifications ISO 9001. A cette époque (1990), les clients sollicitaient le laboratoire pour savoir si leurs instruments étaient « conformes », sujet toujours au cœur de l’activité des prestataires d’étalonnage. Or, cette conformité n’a de sens que si les clients sont en mesure d’exprimer leurs propres besoins ce qui était (très) rarement le cas. A la grande surprise de notre fondateur, ils se contentaient donc de faire confiance aux normes existantes sur les instruments alors que lesdites normes ne prétendent en aucun cas répondre à toutes les situations industrielles. De plus, la norme ISO 9001 impose des vérifications métrologiques périodiques et là encore, sans trop se poser de questions, les industriels suivaient les « préconisations » le plus souvent implicites du laboratoire.
Jean-Michel Pou a alors créé Deltamu en 1998, pour accompagner les industriels vers une approche plus technique : définir la conformité à partir du vrai besoin de chacun et définir des périodicités adaptées à chaque situation. Ainsi est né Optimu, le logiciel développé depuis plus de 20 ans par la société. Il s’agit de pouvoir calculer des périodicités et des incertitudes de mesure dans le cadre d’une gestion optimisée d’un parc d’instruments de mesure.

Comme ces démarches étaient innovantes, il était important de les faire reconnaître par la communauté et Deltamu s’inscrit donc depuis sa création dans toutes les actions qui permettent de faire évoluer le métier. Nous sommes notamment présents dans les comités de normalisation de l’AFNOR et à l’origine de nombreuses normes et documents techniques : FD X 07-014 (Optimisation des périodicités), FD X 07-041 (Comparaisons inter-instruments), modélisation des résultats d’étalonnage (Guide CFM)…

Comment définiriez vous la smart metrology ?

Notre Smart Metrology, est très différente de la métrologie « traditionnelle ». Dans cette dernière, un accord tacite entre auditeurs et audités a fini par faire admettre comme « conforme » une métrologie qui se contente de déclarer la conformité d’un instrument de mesure à une norme, sans tenir compte, le plus souvent, de son contexte d’utilisation et de le faire à des dates arbitraires. A l’inverse, Deltamu recherche l’efficience, c’est-à-dire à gérer le parc d’instruments « au juste nécessaire ». Il s’agit de s’intéresser aux incertitudes de mesure qui permettent de savoir si l’instrument est important ou non dans la qualité d’une mesure et de définir des stratégies qui permettent d’étalonner « si nécessaire ». En choisissant une date, arbitraire ou calculée suivant une méthode d’optimisation, pour la confirmation métrologique de l’instrument, les industriels ne sont pas protégés contre les accidents qui peuvent survenir à tout instant et impacter la capacité de l’instrument à produire des mesures de la qualité nécessaire. Dans la Smart Metrology, nous cherchons à maîtriser le quotidien de l’instrument, notamment en mettant en œuvre des méthodes de surveillance qui permettent d’entrer dans le monde des « périodicités conditionnelles ». Dans ce monde, les industriels n’étalonnent qu’en cas de doute, et nous nous donnons les moyens de douter.
Pour simplifier, dans la Smart Metrology, on ne subit pas une forme de diktat culturel imposé depuis 20 ans. On se pose les bonnes questions et on adapte les pratiques aux risques liés aux mesures

Comment la smart metrology s’implémente dans l’industrie/usine du futur ?

Il est indéniable que les industriels ont contourné depuis longtemps la question de la qualité des mesures. Alors même qu’aucune mesure ne peut être juste, rares sont les industriels qui prennent en compte les incertitudes de mesure dans leur quotidien. Tout se passe comme si elles n’existaient pas. Force est de constater en effet que les productions donnent satisfaction. Cette question de l’inutilité apparente des incertitudes de mesure est au cœur de nos réflexions et nous avons fini par comprendre que pour s’en sortir, les industriels avaient empiriquement trouvé une solution : la sur-exigence. En demandant plus que nécessaire, on peut oublier les incertitudes de mesure, mais à quel prix ? Trop exigeant, c’est trop de matières premières, trop d’énergie, donc trop de coûts et trop d’impacts négatifs sur l’environnement.
Dans l’industrie du futur, les pratiques vont évoluer grâce aux technologies numériques. Avec des puissances d’acquisition d’informations, de calculs et de stockage toujours plus importantes, le traitement des données évolue, passant de l’inférence statistique (s’appuyant sur des plans d’expérience) à l’intelligence artificielle (s’appuyant, quant à elle, sur le Big Data). C’est un véritable bouleversement dans la façon de voir les choses car nous passons d’un monde d’opinions (opinion driven) à un monde des faits (fact driven). Dès lors, l’IA va permettre de sortir de la sur-exigence pour aller vers le « juste nécessaire », donc vers des gains de productivité et des impacts écologiques moins négatifs, une médaille à deux faces en quelque sorte.

Mais ce nouveau monde impose des mesures d’une qualité meilleure que celle dont nous avons pu nous contenter jusque-là. Cette question de l’amélioration de la qualité des mesures est un enjeu majeur pour Deltamu qui a lancé cette année le concept de B.M.R (Bayesian Measurement Refinement). Il s’agit d’exploiter l’incertitude de mesure, non pas pour resserrer les exigences mais pour améliorer la qualité de l’information. Avec le B.M.R, on utilise chaque mesure comme une information mais pas comme l’unique information. On peut en effet tenir compte, en plus, de la connaissance a priori du mesurande et de l’incertitude de mesure pour enrichir l’information initiale. Si les données, donc les mesures, sont le pétrole du XXIème siècle comme le pensent certains, il ne viendrait à l’idée de personne de le mettre directement dans le réservoir de sa voiture ! Il nous faut tout d’abord le raffiner et c’est exactement ce que nous proposons avec le B.M.R qui se présente comme le point d’orgue de la Smart Metrology …

Quelles sont les technologies innovantes qui vont accompagner le développement d’une nouvelle métrologie dans le futur (big data, domotique, 5G…)

La technologie des objets connectés fera évoluer les instruments de mesure. Certains imaginent qu’une connexion sans fil est une forme d’aboutissement mais nous pouvons, et devrons, aller beaucoup plus loin. Le B.M.R exige de nombreux calculs, parfois fastidieux mais les machines peuvent les faire sans problème. Nous travaillons depuis plusieurs années sur un projet collaboratif (S.T.A.M : Services and Tools for Advanced Metrology) soutenu par le FEDER. Il s’agit de développer toute la stratégie permettant d’automatiser les calculs du B.M.R, quelle que soit le type de mesure, grâce à la technologie de l’IoT. Mais il est encore un peu trop tôt pour dévoiler l’intégralité de ce projet et nous avons pris un peu de retard du fait du confinement.

Est-ce que le rôle de la métrologie dans l’industrie va évoluer dans les années à venir ?

L’IA est amenée à changer profondément les choses dans l’industrie, de la conception jusqu’à la certification de produits. Mais cette IA a besoin de données fiables pour donner le meilleur d’elle-même. A l’avenir, nous ne pourrons plus nous contenter de l’information donnée par l’instrument de mesure. Une mesure sera toujours sujette à de nombreuses causes de perturbation (le milieu, les opérateurs, l’instrument, le mesurande lui-même, …) et le post-traitement que nous développons (B.M.R) finira par s’imposer, il est indispensable. Le métrologue devra donc acquérir les compétences pour le comprendre et le mettre en œuvre, notamment via des instruments connectés qui pourront y accéder. On est alors très loin des étiquettes vertes et des périodicités calendaires de la métrologie « ISO 9001 » et ces pratiques finiront par céder le pas à la Smart Metrology, nous en sommes convaincus.

Agriculture numérique : la protection des données en question

Les Amis de la Terre ont publié en mai dernier le rapport « Agriculture et numérique : vers une fuite en avant ». Selon l’ONG, l’agriculture numérique est un pansement qui détourne l’attention des causes profondes de la crise agricole actuelle. Elle entraîne l’essor du big data dans l’agriculture et détournerait des innovations liées à l’agroécologie. L’association rappelle que les plates-formes de données sont en général détenues et contrôlées par de grands groupes agrochimiques, des gouvernements ou les GAFAM.

Des données sensibles à protéger

« Ces plateformes pourraient servir à promouvoir des semences et des intrants de synthèse (pesticides, engrais) vendus par leurs propriétaires ou leurs partenaires », craignent les Amis de la Terre. « Il y a un assurément un sujet sur les données avec les grands groupes et les GAFAM, reconnaît Karine Cailleaux-Breton, directrice des opérations de la start-up Ekylibre qui propose un logiciel de gestion complète de l’exploitation. Dans le secteur de l’agriculture, le sujet n’est pas récent et d’autant plus primordial. »

En parallèle, « une telle mise en commun à grande échelle des données pose le problème de la cybersécurité », alertent les Amis de la Terre. Les systèmes agricoles et les opérations automatisées sur la base d’algorithmes deviennent en effet vulnérables aux piratages, aux cyberattaques ou aux pannes d’électricité. Cela confère « une toute nouvelle dimension à la sécurité alimentaire », alerte l’association.

Tout est une question de traitement des données

La grande question est celle du traitement et de la propriété des données. Selon son équipement, un agriculteur peut créer plus d’une centaine de données par heure sur son exploitation. Et plus il dispose d’outils numériques, plus le poids de la data sera important. « Pour ce qui est sécurisation et propriété de la donnée, le souci est que l’agriculteur est grand créateur de données, détaille Karine Cailleaux-Breton. Le paradoxe qu’il faut éviter est qu’il ait à payer pour créer de la donnée qui par la suite est potentiellement réutilisée. Une donnée seule n’a que peu, voire pas de valeur. En revanche, lorsqu’elle est confrontée, cumulée ou comparée, cette valeur ajoutée va alors pouvoir être revendue à l’agriculteur qui finalement paiera deux fois quelque chose que lui-même crée ». Les services de big data privent souvent les agriculteurs de leurs droits de propriété sur les données agrégées. Les bénéfices reviennent ainsi aux entreprises qui traitent ces données.

Pour sécuriser les données des exploitations agricoles dans les contrats, la FNSEA et les Jeunes agriculteurs ont lancé la charte Data-agri. Le cabinet d’avocat Grall&Associés joue le rôle de tiers de confiance qui audite des entreprises et des startups volontaires. Il appose un label, valable deux ans, lorsqu’il peut assurer que la donnée est propriété de l’agriculteur et non pas de l’entreprise, qu’elle est sécurisée, anonymisée en cas de réutilisation, et que s’il y a réutilisation, elle se fait avec autorisation écrite de l’agriculteur. Mais ces bonnes pratiques restent une goutte d’eau. Seulement six entreprises sont labellisées : Ekylibre, MyEasyFarm, Le Cube, Gari, Quanturi et Companion. Ces plates-formes et applications génèrent des données sensibles liées à la performance économique des exploitations.

Les petits agriculteurs privés de numérique ?

Le numérique n’est pas réservé aux seules exploitations de plusieurs hectares. « Les capteurs, logiciels et services web restent largement accessibles au plus grand nombre avec des solutions offrant des capteurs pour quelques centaines d’euros et un abonnement mensuel d’une dizaine d’euros, partage Karine Cailleaux-Breton. Une exploitation en maraîchage de 2 hectares n’a pas forcément besoin d’un capteur ultra-connecté, mais les logiciels de gestion sont aussi bien adaptés aux petites exploitations qu’aux grands céréaliers ». En ce qui concerne les grandes innovations robotiques, les petits agriculteurs pourront faire de l’achat groupé, comme cela se fait de façon historique dans le secteur.

Des briques cuites transformées en dispositif de stockage d’électricité

Utilisée depuis des siècles, la brique cuite de couleur rouge-orange est un matériau fréquemment employé dans la construction de bâtiments et des maisons d’habitation. Des chercheurs de l’Université de Washington à Saint-Louis aux États-Unis sont parvenus à stocker de l’énergie dans ces briques puis à la restituer. Leur travail de recherche vient d’être publié dans Nature communications et s’appuie sur un composé présent dans ces briques : l’hématite. Cet oxyde de fer, naturellement abondant et peu cher, est couramment utilisé dans la fabrication de catalyseurs, d’aimants et autres alliages.

Crédit photo : The D’Arcy Laboratory in Washington University in St. Louis

Cette innovation exploite la nature poreuse de ces briques. En effet, à l’échelle microscopique, elles possèdent de nombreuses petites aspérités à leur surface, multipliant ainsi le contact avec l’hématite, dont le poids représente environ 8 % du poids total d’une brique. Pour rendre ces briques capables de stocker puis de restituer de l’énergie, les chercheurs les chauffent à 160 degrés et vaporisent à leur surface de l’acide chlorhydrique ainsi qu’un composé organique nommé l’EDOT (3, 4-éthylenedioxythiophene). Au contact de l’hématite, une réaction chimique de polymérisation se produit, créant un nouveau composé nommé le PEDOT (poly(3,4-éthylènedioxythiophène)). Ce polymère, composé de fibres microscopiques enchevêtrées, se trouve emprisonné dans la surface poreuse de la brique. Il forme une couche continue et électriquement conductrice sur chaque face de la brique qui prend alors une coloration noire. Toute la surface de la brique se comporte ainsi comme un supercondensateur.

10 000 cycles de stockage et déstockage

Pour l’instant, la quantité d’énergie que ces briques peuvent emmagasiner reste faible, mais ce travail de recherche consiste avant tout à démontrer une preuve de concept. « Grâce à une soixantaine de briques, nous avons réussi à alimenter une lampe de trois watts pendant 50 minutes, explique Julio M. D’Arcy, professeur à l’Université de Washington et auteur principal de cette étude. Mais il ne faut que 13 minutes à ces briques pour se recharger ». L’étude révèle que cette technologie possède une longue durée de vie puisque même après 10 000 cycles de stockage et déstockage, ces briques conservent encore 90 % de leur capacité d’origine. De plus, ces cycles ne semblent pas altérer la vitesse de charge et de décharge. Grâce à l’application d’une couche de protection en époxy, ces briques conservent une résistante à l’eau ainsi que leur capacité à stocker de l’électricité.

La principale utilisation de cette technologie serait de l’associer à une maison possédant des panneaux solaires. Ces briques pourraient alors stocker l’électricité non consommée et ainsi pallier l’intermittence de cette énergie renouvelable. « Ces briques seraient localisées dans les zones de la maison ayant le plus besoin d’énergie comme la cuisine, précise Julio M. D’Arcy. Inversement, les couloirs en seraient moins pourvus. Nous envisageons un avenir où l’assemblage des maisons se réalisera comme des Lego, rendant nos habitations vertes, autosuffisantes en énergie et moins dépendantes en câbles électriques. »

Cette technologie est d’ores et déjà brevetée et, d’après le chercheur, des discussions sont actuellement engagées avec plusieurs entreprises en Europe et aux États-Unis afin d’envisager sa commercialisation. « Nous sommes très enthousiastes car nous avons déjà développé la prochaine génération de briques et nous savons que nous pourrons augmenter sa capacité énergétique de 50 %, confie Julio M. D’Arcy. Après optimisation, nous prévoyons qu’en 2021, ces briques seront plus intelligentes et auront le potentiel d’être intégrées dans l’architecture de construction de bâtiments et des applications dans le domaine de l’énergie. »

Marché du spatial : concurrence à tous les étages

Ariane 5 a permis à la France et à l’Europe d’être longtemps leaders sur le marché des lanceurs de satellites. Depuis l’avènement de SpaceX, qui a réussi le pari de développer des lanceurs réutilisables, la donne change. Brutalement. Jusqu’alors, les entreprises privées du spatial collaboraient étroitement avec les agences spatiales d’Etat sur les programmes spatiaux, pour des raisons économiques, mais aussi stratégiques.

Depuis peu, les entreprises privées s’émancipent et développent leurs propres services spatiaux. Mais il ne faut pas s’y tromper : les Etats, via leurs main mise sur les programmes de recherche et développement, et leurs capacités de financements, gardent la main. Les enjeux stratégiques sont trop importants.

La transition vers le privé

Comme on vient de l’évoquer, la disruption opérée par Elon Musk a été comme un grand coup de pied dans la fourmilière du secteur spatial, notamment pour l’agence spatiale européenne, l’ESA. D’abord sceptiques sur l’intérêt de développer des lanceurs réutilisables, les spécialistes du spatial, l’ESA en tête, saluent aujourd’hui le tour de force du fondateur de Tesla : aujourd’hui SpaceX croque des parts de marchés sur le secteur des lancements de satellites, mais pas seulement. Récemment, la firme d’Elon Musk a convoyé des astronautes américains jusqu’à l’ISS, pour le compte de la Nasa.

Les opérateurs privés tels que SpaceX sont aujourd’hui nombreux : Blue Origin et Virgin Galactic sont les deux autres entreprises américaines du spatial les plus connues.

A côté, des acteurs étatiques sont également entrés dans la danse, à côté des « anciens » comme l’Europe, les Etats-Unis et la Russie. La Chine, qui n’a jamais caché ses ambitions spatiales sans pour autant être à la hauteur des trois acteurs que l’on vient de citer, s’affirme depuis quelques années. En témoigne les réussites récentes de son lanceur Longue Marche, qui après des échecs répétés, est aujourd’hui le symbole des ambitions chinoises.

En Chine, OneSpace, iSpace et LandSpace font partie de la dizaine de startups ayant émergé et proposant déjà des services de lancement. Ces startups sont très liées à l’Etat, bien sûr.

C’est également le cas en France du reste, avec des entreprises comme Airbus et Thales par exemple, qui oeuvrent sur la majorité des projets spatiaux européens.

Les pays du Golfe, l’Afrique, développent également des programmes spatiaux cohérents, et seront à n’en pas douter à même de proposer des solutions de lancements financièrement intéressantes dans les prochaines années.

Quels débouchés sur le marché du spatial ?

L’activité dans le secteur spatial peut être segmentée en trois marchés :

    • la conception de satellites;
    • le lancement de satellites;
    • la conception de lanceurs.

Les débouchés possibles dans les secteurs militaires/défense, scientifiques et commerciaux se sont multipliés. Pour les deux premiers cités, les marchés ne sont pas totalement ouverts à la concurrence, il s’agit souvent de partenariats public-privé. L’importance stratégique de ces activités, nous l’avons déjà évoqué plus haut, oblige les Etats à verrouiller, autant qu’ils le peuvent, la R&D sur ces secteurs.

Par contre, en ce qui concerne l’aspect commercial, on peut parler de « privatisation de l’espace ». Les projets d’envois de satellites, souvent de petite taille voire de très petites tailles (nanosatellites) dans l’espace sont aujourd’hui légion. Cela ne va d’ailleurs pas sans poser des problèmes d’encombrement des orbites.

Internet des objets, 5G, communication, imagerie, guidage… Les enjeux financiers sont importants et la course à l’espace a lieu sous nos yeux.

Si personne ne peut prédire aujourd’hui le moment où toutes les usines seront automatisées et connectées, la technologie pour rendre cela possible, elle, sera bientôt là. C’est cette course là qui se joue aujourd’hui.

Par P.T

L’offshore éolien tient le cap malgré la crise

A fin 2019, 29,1 GW d’éolien offshore étaient en service dans le monde, notamment en Europe, mais aussi en Asie et en Amérique du Nord. Et les capacités additionnelles en offshore en 2019 ont représenté 10 % des nouvelles capacités éoliennes mondiales.

Les prévisions du GWEC sont équivalentes à celles de 2019, pour 2020, malgré la crise liée au Covid-19, et démontrent, selon le lobby éolien mondial la forte « résilience » du secteur. Le rapport du GWEC estime en effet que nombre de projets qui sont déjà prévus vont voir le jour en 2021 et après. La crise du Covid-19 a plus affecté les projets éolien terrestre que les projets offshore, dont les durées de développement sont plus longues, insiste le GWEC.

D’ici 2030, les capacités installées devraient augmenter de 205 GW – une estimation relevée de 15 GW par rapport à la précédente, réalisée avant la crise pour atteindre 234 GW, dont au moins 6,2 GW d’éolien flottant (contre « seulement » 66 MW à fin 2019). Jusqu’en 2024, la croissance proviendra essentiellement hors d’Europe, notamment avec la Chine, mais aussi Taiwan, ainsi que la mise en service de parcs aux Etats-Unis. Une forte accélération devrait être enregistrée en 2025, les ambitions des pays en matière de renouvelables faisant que nombre de projets en cours devraient alors voir le jour.

Cette progression sera tirée notamment par une croissance particulièrement marquée en Asie, mais aussi par le maintien d’une forte progression en Europe. Ce qui devrait permettre, indique le GWEC, de créer 900 000 emplois supplémentaires dans le secteur.

L’Europe toujours devant

En 2019, la Chine a conservé le leadership, avec un niveau d’installation record de 2,4 GW, suivie par le Royaume Uni (1,8 GW) et l’Allemagne (1,1 GW). La croissance s’accélère en Asie (Taiwan, Vietnam, Japon, Corée du Sud) et aux Etats-Unis.

Cependant, le marché mondial de l’éolien offshore a progressé de 24% par an en moyenne depuis 2013, et reste dominé à 75 % par l’Europe, qui vise un objectif de 450 GW installés en 2050. Quelque 8,7 GW supplémentaires en offshore éolien devraient être installés d’ici à 2025 en Europe, estime le GWEC. Mais d’ici à 2030, 15 GW par an pourraient être implantés, signale le rapport, à l’aune des différents engagements pris par les pays (l’Allemagne, numéro 2 européen, mise sur 20 GW de plus d’ici à 2030 et 40 GW d’ici à 2040) et l’Union européenne. Au-delà de la prochaine décennie, les principaux organismes gouvernementaux et industriels devraient augmenter le nombre de zones pour accueillir l’éolien offshore.  L’objectif de l’UE de 450 GW d’ici 2050 prévoit des groupes de parcs en mer du Nord (avec près de la moitié de la capacité ciblée), dans l’océan Atlantique, dans la mer Baltique et dans les eaux du sud de l’Europe. Les installations seront principalement concentrées au Royaume-Uni, aux Pays-Bas, en France, en Allemagne, au Danemark et en Pologne, plusieurs autres marchés de l’UE affichant des volumes à deux chiffres.

Mais les autres continents accélèrent : le GWEC prévoit 23 GW de nouvelles capacités installées en Amérique du Nord et 52 GW en Chine d’ici 2030 (et dès 2025, 19 GW de plus dans l’Empire du Milieu).

La France en retard, mais…

En France, l’implantation des futurs parcs éolien en mer prévus en premier à Saint-Nazaire, puis à Saint-Brieuc, attribués lors du premier appel d’offres sont attendus pour 2022 ; les projets du deuxième appel d’offres ne seront lancés que vers 2023/2024 (Dieppe-Le Tréport, Courseulles, Fécamp), puis ce sera au tour de Dunkerque. La France « a pris du retard dans le boom de l’éolien offshore », selon le GWEC. Et ce n’est qu’à partir de 2027 que le GWEC s’attend à voir la France commencer à compter sérieusement en la matière, avec d’ici à 2028, selon la programmation pluriannuelle de l’énergie, entre 5,2 GW et 6,82 GW installés.

Les auteurs du rapport notent cependant que lors du troisième appel d’offres en éolien offshore en 2019, qui a bénéficié de conditions plus favorables, le consortium EDF-Innogy-Enbridge a remporté un projet de 600 MW au large de Dunkerque en proposant un prix de 44 euros/MWh, l’un des plus bas du marché mondial.

Cependant, alors qu’il existe un certain retard sur les projets, en termes d’éolien flottant, la situation est différente. La France devrait être l’un des premiers marchés pour l’éolien flottant d’ici la fin de la décennie, estime le GWEC, aux côtés de la Corée du Sud et de la Norvège. Et rejoindrait rapidement le club des précurseurs actuels que sont le Royaume-Uni, le Portugal et le Japon.

Ariane 6, réponse européenne à un marché spatial de plus en plus concurrentiel

Ariane 5 a longtemps été leader sur le marché du lancement de satellites. Mais depuis peu, en plus de l’émergence de nouvelles puissances étatiques comme la Chine et les Emirats arabes unis principalement, des acteurs privés sont venus absorber des parts de marché.

SpaceX est l’étendard de cette nouvelle vague, mais la firme d’Elon Musk, qui a réussi la pari de réutiliser ses moteurs, n’est pas seule… De même, les besoins de lancements de satellites ont évolué : leur taille et l’orbite recherchée peuvent varier. Autant de paramètres qui deviennent des biais de spécialisation pour les lanceurs.

Finalement, la concurrence sur le marché du spatial s’est beaucoup développée, et a obligé la France et l’Europe à réagir très rapidement. C’est dans ce contexte qu’est né le programme de développement d’Ariane 6. Rencontre avec Carole Deremaux, cheffe du service Architecte Ariane 6 au CNES

Techniques de l’Ingénieur : Quel contexte a motivé le développement d’une nouvelle fusée, Ariane 6, pour remplacer Ariane 5 ?

Carole Deremaux : Une forte concurrence s’est développée sur le marché des lanceurs depuis quelques années. Historiquement, le lanceur Ariane 5 est un grand succès commercial, puisqu’il a permis de récolter la moitié des parts de marché pour le lancement de satellites géostationnaires. Mais depuis quelques années, il y a de nouveaux entrants sur ce marché, le plus connu étant le Falcon développé par SpaceX. Mais il y en a beaucoup d’autres, privés ou étatiques.
Nous avons aussi observé un changement au niveau des besoins sur les satellites qui devaient être lancés : les demandes ne se situent plus principalement sur des satellites géostationnaires. Il y a également une évolution sur la masse des satellites, leur taille, les orbites sur lesquelles on veut les placer. Aussi, est apparue la notion de constellation, incluant la mise en orbite d’un grand nombre de petits satellites, avec plusieurs lancements successifs, chacun emportant des dizaines de satellites.
Il était donc nécessaire pour la France et l’Europe de s’adapter à ces nouveaux usages, le plus rapidement possible. D’où le projet de développer Ariane 6, avec une ligne directrice claire : réduire au maximum le coût par kilogramme de charge utile placé en orbite, en le divisant par deux par rapport à ce qui se faisait avec Ariane 5.
De plus, il était nécessaire d’avoir plus de flexibilité au niveau des orbites sur lesquels nous sommes en mesure de placer les satellites.

 

Ariane 6 sur son pas de tir, vue d’artiste. ©ESA

Comment avez-vous procédé pour réduire les coûts de fabrication ?

Nous avons d’abord engagé un travail d’optimisation sur tous les aspects de conception du lanceur Ariane 6. Sur le design, les opérations… en utilisant notamment des technologies innovantes.
Le moteur Vulcain constitue un bon exemple : il s’agit du moteur du premier étage, à propulsion liquide. Certaines pièces ont été fabriquées par impression métallique 3D. Cela a permis de réduire les coûts substantiellement. Nous avons aussi réussi à réduire le nombre de pièces du moteur, et mis en place un allumage qui se fait par le sol et plus directement sur le moteur.
Autre exemple, le développement pour Ariane 6 de nouvelles protections thermiques sur les réservoirs cryotechniques, qui sont désormais projetées sur l’étage, ce qui permet de réduire les coûts par rapport à ce qui était fait sur Ariane 5.
Au niveau des opérations, l’intégration se fait désormais à l’horizontal sur le corps central du lanceur, à l’inverse d’Ariane 5 où l’intégration s’opère à la verticale, avec des bâtiments d’intégration qui sont très hauts. En travaillant à l’horizontale, on a donc une plus grande accessibilité et une réduction au niveau des contraintes d’opérations.

Un des objectifs sur Ariane 6 est d’avoir un lanceur qui offre une plus grande flexibilité. Comment cela se traduit-il ?

Cela se traduit principalement par une amélioration sur le moteur de l’étage supérieur, qui est désormais rallumable, contrairement à celui d’Ariane 5.
La possibilité de rallumer les moteurs nous offre l’option d’atteindre une gamme d’orbites beaucoup plus variée, et donc de gagner en flexibilité.
Aussi, un moteur additionnel sur l’étage supérieur, avec une poussée bien moindre, mais qui permet d’ajouter de la flexibilité sur la gestion de l’étage supérieur, a été ajouté. Tout cela nous permet d’être plus à même de répondre à des demandes clients plus variées, ce qui est une nécessité pour rester compétitif.

Beaucoup d’efforts sont également faits pour mutualiser certains éléments d’Ariane 6, qui équiperont d’autres lanceurs…

Effectivement, il y a une mutualisation avec le lanceur Vega C au niveau des propulseurs à poudre. C’est aussi le fruit d’une volonté de réduire globalement les coûts sur l’offre des lanceurs européens. Ces boosters à poudre, les P120, sont donc communs entre le lanceur Vega et Ariane 6.
Ces mutualisations là étaient une condition de départ du projet et font intégralement partie de notre stratégie d’optimisation pour le développement des lanceurs européens. Cela permet également d’augmenter les cadences de production.

Les temps de développement et de conception records d’Ariane 6 constituent un exploit technologique. Pourquoi était-il nécessaire d’aller aussi vite ?

Il faut vraiment voir Ariane 6 comme une réponse à court terme, avec les technologies qui étaient disponibles, et un effort sans précédent d’optimisation sur les opérations, l’industrialisation et le design du lanceur. Cette réponse européenne était nécessaire, et elle devait être rapide, sous peine d’être distancé par la concurrence.
Les briques technologiques n’étaient pas encore disponibles au moment de la création d’Ariane 6, d’où le développement du moteur Prometheus. Son temps de développement est plus long, mais son utilisation nous apportera encore plus de flexibilité et la possibilité de réduire encore nos coûts de lancement.
En plus de Prometheus, le démonstrateur Callisto, qui validera la réutilisation, et l’initiative Themis (en collaboration avec ArianeWorks) permettront de développer, sur le court/moyen terme, les technologies qui permettront d’arriver, pas à pas, à la prochaine génération de lanceurs opérationnels ayant un premier étage réutilisable.
L’offre que nous proposons doit absolument gagner en flexibilité, pour répondre aux besoins du marché, en plus des besoins institutionnels.
Ariane 6 est donc, comme je viens de vous l’expliquer, une réponse à court terme, conçue avec les technologies disponibles, pour répondre aux besoins de compétitivité et de flexibilité indispensables aujourd’hui.

Ariane 6 pourra avoir deux configurations possible, avec deux ou quatre boosters. Pour quelles raisons ?

Au niveau de l’optimisation des coûts, l’objectif avec Ariane 6 était aussi d’avoir un lanceur qui permette de répondre à l’ensemble des besoins institutionnels et commerciaux qui sont aujourd’hui couverts par plusieurs lanceurs : Vega, Soyouz et Ariane 5. Avec Ariane 6, on conçoit donc un lanceur européen compétitif qui couvrira avec Vega l’ensemble de la gamme.
Cela est rendu possible, comme vous l’avez précisé, par le fait qu’Ariane 6 pourra présenter deux configurations, avec deux ou quatre boosters. Cela permet d’avoir la flexibilité recherchée pour répondre à l’ensemble des besoins clients, que ce soit en termes de masse de satellites et d’orbites à atteindre.

Le pas de tir d’Ariane 6 a également été totalement repensé. Pouvez-vous nous expliquer les choix qui ont été faits à ce niveau ?

Le pas de tir d’Ariane 6 est nouveau, en effet. Le CNES est maître d’œuvre sur ce chantier. Il était nécessaire d’imaginer un nouveau pas de tir pour répondre aux besoins spécifiques d’Ariane 6. Ainsi la conception du pas de tir répond aux mêmes exigences que celle d’Ariane 6 : baisser le coût de production, s’orienter vers un modèle permettant de faciliter les opérations… Nous avons ainsi réduit le nombre de bâtiments du pas de tir, en les optimisant au maximum, notamment au niveau environnemental

En ce qui concerne le futur, comment voyez-vous le marché du spatial, aujourd’hui en pleine mutation, évoluer ?

Il est difficile de se projeter aujourd’hui. Il y a encore beaucoup d’incertitudes par rapport aux offres de lancements et aussi par rapport à ce que sera le marché des satellites. Il y a énormément d’initiatives aujourd’hui pour avoir des offres de lancement variées : SpaceX et tous les opérateurs privés, mais aussi des acteurs étatiques comme la Chine, sans compter les acteurs plus anciens (Etats-Unis, Europe, Russie). L’incertitude réside aussi dans l’évolution de la demande client, avec des projets de satellites électriques, des constellations… Devant ces incertitudes, notre choix s’est donc orienté vers la conception de modèles de lanceurs flexibles, à bas coût, qui pourront être opérationnels et suivre l’évolution des demandes clients.

Propos recueillis par Pierre Thouverez

Crédit photo de Une : ESA

Le numérique s’installe dans les exploitations agricoles

« La numérisation de l’agriculture est apparue il y a une vingtaine d’années, mais on assiste actuellement à une multiplication du nombre d’innovations et d’outils numériques qui permettent d’accompagner le métier d’agriculteur », prévient Karine Cailleaux-Breton, responsable communication de l’association La Ferme Digitale qui regroupe une trentaine de startups du secteur. « Les objectifs de la numérisation de l’agriculture sont assez simples : réussir à simplifier le métier et à l’accompagner face aux différents défis que l’agriculteur doit surmonter au quotidien, comme faire face aux aléas climatiques et être toujours plus performant en termes environnemental, économique et sociétal. »

Des capteurs partout sur les exploitations

Certains agriculteurs misent sur les capteurs et les objets connectés, placés dans les champs, embarqués sur les engins agricoles ou sur des drones. Ils servent notamment à optimiser les traitements grâce à une meilleure connaissance des besoins du sol et des plantes. Par exemple, Weenat propose un réseau de capteurs connectés pour suivre en temps réel les conditions agronomiques et météorologiques : température de l’air, hygrométrie, pluviométrie, température du sol…. « L’idée est d’avoir l’information en amont pour aider à la prise de décision, pour réussir à apporter la bonne dose d’intrant, au bon moment et au bon endroit », explique Karine Cailleaux-Breton.

Les robots serviront à désherber, pulvériser les produits phytosanitaires, transporter du matériel ou des récoltes. La startup Naïo Technologies a ainsi développé trois robots de désherbage : le tout terrain Oz, le spécialiste des vignes Ted et le dédié aux cultures légumières Dino. La start-up bordelaise Go4it a développé pour sa part Khiko, un objet connecté autonome fixé sur les engins agricoles pour les géolocaliser en cas de vol.

Des logiciels de gestion pour une exploitation ultra-connectée

Lorsqu’un agriculteur est convaincu par l’inclusion numérique dans son exploitation, il multiplie les outils. Les logiciels vont alors permettre d’améliorer la gestion ou la performance économique des exploitations en se connectant aux capteurs et aux objets connectés. « Ekylibre est un logiciel de gestion complète de l’exploitation qui met l’accent sur les capacités d’interconnexion avec tous les outils que peut avoir l’agriculteur sur son exploitation via des solutions open source, explique Karine Cailleaux-Breton, également directrice des opérations de cette start-up. Il pourra se connecter à Weenat pour avoir la remontée des données sur les vues cartographiques du logiciel ou se connecter aux robots de Naïo Technologies pour voir en temps réel leurs déplacements et le travail d’intervention réalisé au champ. »

La solution Myeasyfarm propose pour sa part une interface unique aux grands machinistes comme John Deere et Claas, qui évite aux agriculteurs de se connecter aux systèmes de chaque marque. Elle collecte et traite ainsi les données générées par les matériels agricoles, quelle que soit sa marque, automatisant la documentation de chaque intervention : temps passé, surface couverte, quantité d’intrants utilisés… La plate-forme consolide l’ensemble des données de télédétection réalisées par satellites, drones, capteurs embarqués sur les matériels agricoles ou encore scanners de sol pour ensuite créer des interventions. Elle crée des cartes de prescription (densité de semis, plan de fumure, engrais, phytosanitaires…) en prenant en compte l’hétérogénéité à l’intérieur de chaque parcelle.

EyeSat, un nanosatellite et une réussite technologique pour les stagiaires du CNES

Depuis 2013, les stagiaires du Centre national d’études spatiales (CNES) se sont employés à mettre au point un nanosatellite expérimental nommé EyeSat, en orbite depuis décembre 2019. Environ 250 étudiants ont contribué au projet depuis son démarrage. Entretien avec Nicolas Verdier, ingénieur au CNES et chef de ce projet.

Nicolas Verdier (2ème en partant d’en haut à gauche) entouré de stagiaires et de membres de EyeSat – (C) CNES Emmanuel Grimault

Techniques de l’Ingénieur : Quelles sont les dimensions du nanosatellite EyeSat ?

Nicolas Verdier : EyeSat est petit, fait trente centimètres de longueur, dix centimètres de largeur et dix centimètres de profondeur, soit l’équivalent de la moitié d’une boîte à chaussures. Malgré sa petite taille, EyeSat est doté des mêmes éléments qu’un vrai satellite.

Comment est né le projet EyeSat ?

EyeSat est né à la suite d’une idée de mon prédécesseur Alain Gaboriaud, soutenu par le CNES. Le projet a vu le jour après l’émergence des nanosatellites dans le paysage spatial. C’est ainsi que le CNES a décidé de lancer le programme Janus, qui a pour objectif de soutenir le développement de satellites dans un cadre universitaire. Ce programme s’est décliné en deux branches. La première, interne au CNES, a donné lieu au projet EyeSat. La seconde a permis de cofinancer des projets réalisés dans les universités françaises.

Dans quel but ce projet a-t-il été lancé ?

Le premier objectif de ce nanosatellite est éducatif. Le but pour nous est de faire travailler de jeunes futurs ingénieurs ou futurs chercheurs sur des technologies spatiales. Le second sens de cette mission est de mesurer la lumière zodiacale. Cette lumière est issue de la réflexion du soleil sur de petites particules qui se trouvent sur le plan de l’écliptique, celui sur lequel les planètes du système solaire évoluent. Ces fines poussières sont importantes lorsque l’on veut faire de l’observation astronomique car elles sont potentiellement gênantes. C’est un petit télescope, également réalisé par une équipe d’étudiants, embarqué au sein du nanosatellite, qui nous permet d’observer cette lumière zodiacale. À l’heure actuelle, nous sommes encore dans une phase de calibration des outils. Les observations seront faites à l’automne, meilleure période pour l’observation de la lumière zodiacale.

Pourquoi EyeSat est-il également une réussite technologique ?

Au niveau de la plateforme du satellite, la partie qui le fait fonctionner, plusieurs éléments sont nouveaux. Ainsi, les outils de mesure, l’ordinateur de bord et les systèmes de guidage utilisés pour ce nanosatellite volent pour la première fois. Ces équipements sont issus des programmes Recherches et Technologie du CNES, et réalisés avec l’aide de plusieurs industriels français. L’ordinateur de bord est un produit de la société Steel. Le système de télémesure et de télécommande, qui permet d’établir le lien avec le satellite, a été produit par la société Syrlinks. Les nouvelles antennes ont été faites par l’entreprise Anywaves.

Pouvez-vous tirer un premier bilan de la mise en orbite de ce nanosatellite ?

Jusqu’à présent, EyeSat fonctionne bien, c’est une belle réussite technique. Depuis sa mise en orbite à la fin de l’année dernière, nous n’avons eu à déplorer que quelques soucis avec les roues à inertie. Cependant, une mise à jour a permis d’améliorer la situation. Comme EyeSat est le premier démonstrateur nanosatellite du CNES, nous avons prévu que sa durée de vie serait d’environ une année. Pour un satellite expérimental de cette taille, c’est une durée satisfaisante.

Le projet EyeSat aura-t-il une suite ?

Oui, c’est le projet AéroSat. Il a débuté, et devrait durer trois ou quatre ans. AéroSat reprendra la plateforme d’EyeSat car nous en sommes satisfaits. Nos travaux seront, cette fois-ci, axés sur les charges utiles. Il y en aura sept, alors que pour EyeSat il n’y en a qu’une.

Des datacenters bas carbone alimentés en énergie grâce aux déjections animales

Avec ses deux associés, Stéphane Petibon travaille dans le digital bas carbone depuis une dizaine d’années. Tous les trois se sont mis à la recherche d’une énergie verte pour alimenter en électricité des datacenters. Ils ont rapidement écarté le solaire et l’éolien à cause de leur intermittence ainsi que l’hydraulique pour ses contraintes géographiques. Grâce à la rencontre d’un éleveur breton équipé d’un méthaniseur, ils se sont intéressés au processus de méthanisation. En fin d’année 2019, les trois associés ont créé la start-up Datafarm afin de construire des datacenters dans des exploitations agricoles et les alimenter en électricité grâce à des unités de méthanisation qui produisent de l’énergie à partir des déjections animales. Entretien avec Stéphane Petibon, fondateur et associé de Datafarm.

Techniques de l’Ingénieur : Présentez-nous le concept de votre start-up

Stéphane Petibon /Datafarm

Stéphane PetibonNotre objectif est de construire des datacenters bas carbone. Pour cela, nous les installons dans des exploitations agricoles afin de les alimenter en électricité grâce à des méthaniseurs déjà présents sur place. L’énergie est produite grâce à un processus de méthanisation à partir des déjections des animaux ainsi que des biodéchets comme des résidus de cultures ou des couverts végétaux implantés entre deux cultures. Grâce à l’action de différentes bactéries et en l’absence d’oxygène, le méthaniseur va produire du biogaz sous la forme de méthane. Celui-ci va ensuite alimenter une turbine à gaz et co-générer de l’électricité à raison de 38 % et de la chaleur à hauteur de 62 %.

/Datafarm

Quel usage faites-vous de cette chaleur ?

Nous avons trouvé une solution pour produire du froid à partir de la chaleur produite par le méthaniseur et ainsi répondre au besoin de climatisation des datacenters. Ce système nous permet de réduire le PUE (Power Usage Effectiveness), un indicateur mesurant l’efficacité énergétique d’un centre d’exploitation informatique. Plus le résultat est proche du chiffre 1 et moins le datacenter consomme d’énergie. Par exemple, un score de 1,5, qui correspond déjà à une très bonne efficience énergétique, signifie que lorsqu’un watt est consommé pour alimenter le datacenter, 0,5 watt est nécessaire pour le refroidir. Certaines entreprises comme Google ou Facebook réussissent à atteindre un score de 1,2 voire 1,1, mais en contrepartie, leurs installations sont placées dans des zones glacées de l’Antarctique ou alors nécessitent d’importantes quantités d’eau. Nos datacenters fonctionnent avec un circuit d’eau fermé et au final notre PUE est de seulement 1,08. Nous sommes ainsi quasi neutres en besoin électrique pour refroidir nos installations.

/Datafarm

Que faites-vous de la chaleur produite par les serveurs informatiques ?

Nos installations sont intégrées dans un système circulaire et cette chaleur est réutilisée pour les besoins de séchage des fourrages de la ferme ainsi que redirigée vers le méthaniseur afin d’augmenter sa puissance. En effet, lorsque l’on maintient sa température autour d’une quarantaine de degrés, le processus de méthanisation se trouve accéléré grâce à une dégradation plus rapide des composants à l’intérieur. L’agriculteur peut ainsi incorporer plus d’intrants dans le méthaniseur au lieu d’attendre qu’ils soient totalement décomposés.

Quelle prestation offrez-vous à vos clients ?

Nos datacenters sont constitués de modules fabriqués à partir de containers maritimes recyclés et réaménagés. Ces modules sont entreposés dans un hangar que nous construisons à côté du méthaniseur. Chaque module mesure 50 m² et héberge une douzaine de baies informatiques et chacune d’entre elles contient entre 24 à 48 serveurs. En moyenne, chacun de nos datacenters héberge une dizaine de modules pouvant accueillir environ 2 000 clients et nécessite un méthaniseur d’une puissance d’environ 2,5 MW. Nous leur proposons une formule de colocation de modules, chaque client peut ainsi louer par exemple un quart ou la moitié d’un module en fonction de ses besoins. Notre valeur ajoutée est d’offrir une empreinte carbone la plus basse du marché. Nous ciblons des entreprises de plus 500 salariés ayant l’obligation de publier un bilan carbone tous les quatre ans. En France, environ 2 400 entreprises sont concernées par cette réglementation. Grâce à nos datacenters, elles peuvent réduire leurs émissions de gaz à effet de serre.

Quel est le niveau de sécurité de vos installations ?

Chaque module est sécurisé Tier III, il s’agit d’une norme de classification qui signifie que la maintenance du datacenter peut être assurée sans que celui-ci soit arrêté. Cela nous oblige à doubler nos circuits d’alimentation en électricité, en froid ainsi que la connexion au réseau. Concrètement, si le méthaniseur ne fonctionne plus, nos installations continueront d’être alimentées en électricité grâce au réseau Enedis. Pour la production de froid, nous créons une zone tampon d’eau glacée. Quant à la connexion au réseau, nous travaillons avec plusieurs opérateurs nationaux de fibre tels que Orange, Covage et Axione. Étant donné que la consommation d’un serveur informatique peut varier d’un à trois en fonction des besoins des clients, nous surévaluons volontairement le besoin en énergie nécessaire pour être certain d’assurer un bon fonctionnement de nos centres. Comparés à d’autres datacenters, nous pouvons nous permettre de refroidir davantage nos installations et pouvons ainsi accepter des clients avec un besoin de puissance important.

Quelles sont les perceptives de votre start-up ?

Nous avons déjà installé deux datacenters, l’un en Bretagne et l’autre dans les Hauts-de-France. Quatre autres seront construits avant la fin de l’année prochaine. Nous travaillons en ce moment sur un projet de méthaniseur beaucoup plus important pouvant produire jusqu’à 7 MW. Notre objectif serait de le mutualiser avec plusieurs agriculteurs et de l’installer à la périphérie d’une ville. Pour ce projet, nous construirons nous-mêmes le méthaniseur et il devrait voir le jour dans deux ans. Nous souhaitons aussi développer des micros datacenters constitués d’un à deux voire trois modules et alimentés en énergie grâce à des petites unités de méthanisation. Notre ambition est aussi de nous développer à l’étranger. La France est sous-équipée avec seulement 500 méthaniseurs. L’Allemagne en compte 12 000.

100 millions d’euros supplémentaires pour l’industrie française

La crise sanitaire a dévoilé s’il était besoin la dépendance de la France aux importations et le manque de résilience de l’industrie française. En cause notamment, des chaînes logistiques mondialisées en proie à des ruptures d’approvisionnement. Pour favoriser l’autonomie et la résilience des secteurs stratégiques, le ministère de l’Economie, des Finances et de la Relance lance un nouvel appel à projets doté de 100 millions d’euros dédié à des projets de développement et d’investissement.

Le cahier des charges est en ligne pour aider les entreprises à préparer leurs dossiers qui pourront être déposés sur une plate-forme de Bpifrance à partir du 31 août, jusqu’au 17 novembre. Il soutiendra les meilleurs projets d’implantation de production sur le territoire français dans des filières industrielles jugées critiques. Les projets seront étudiés « au fil de l’eau » et l’appel pourra être arrêté de façon anticipée en cas d’épuisement de l’enveloppe affectée. Le ministère espère ainsi relancer l’économie au plus vite. Dans le cadre de l’aide temporaire Covid-19, le taux de subvention maximal s’élève à 80 %, soit un montant d’aides de 800 000 euros pour une assiette de dépenses éligibles jusqu’à un million d’euros. Selon la nature des travaux et le type d’entreprise, le taux d’aide varie de 10 % à 60 % pour les projets de plus d’un million d’euros.

Des secteurs stratégiques pour une industrie plus résiliente

Pour renforcer les chaînes de valeur critiques, le ministère veut donc implanter ou réimplanter en France les maillons essentiels. « L’objectif est ainsi de diminuer notre degré de dépendance vis-à-vis de fournisseurs extra-européens, tout en développant les filières d’avenir garantissant la création de valeur en France et en Europe », prévient le ministère. Les secteurs les plus critiques ciblés par l’appel à projets sont la santé, l’agroalimentaire, l’électronique et les secteurs fournissant des intrants essentiels de l’industrie, notamment les matières premières stratégiques du secteur de la métallurgie et les produits de l’industrie chimique. L’appel d’offres sera prochainement complété par un volet affecté aux applications industrielles de la 5G, autre secteur jugé stratégique.

Il s’agira de relocaliser la fabrication des produits de santé prioritaires, par exemple certains médicaments, principes actifs et dispositifs médicaux. Les projets en agroalimentaire participeront à renforcer la sécurité alimentaire, l’autonomie et la résilience de la transformation de produits agroalimentaires et d’intrants essentiels. Côté électronique, priorité aux projets de relocalisation en France de production, de lignes pilotes ou des moyens de prototypage rapide. Et pour les intrants essentiels de l’industrie, il s’agira de sécuriser la production des produits de base qui, en cas de rupture d’approvisionnement, pourraient paralyser le tissu industriel national ou européen.

Les projets éligibles seront d’un coût total supérieur à 1 million d’euros, non engagés avant le dépôt de la demande d’aide, portés par une entreprise ou un consortium. Il s’agira de créations de nouvelles unités de production ou de la modernisation d’unités existantes afin d’augmenter leurs capacités ou les rendre plus flexibles. L’appel à projet accompagnera aussi la mise en œuvre à l’échelle industrielle de procédés technologiques innovants.

L’intelligence artificielle au service de la reconnaissance des oiseaux d’une même espèce

La machine peut-elle être aussi performante que l’œil humain pour reconnaître des individus ? Plusieurs chercheurs principalement venus du CNRS, de l’Université de Montpellier et de l’Université de Porto (Portugal) ont mis au point un algorithme rendant possible la reconnaissance d’individus au sein d’un groupe d’oiseaux grâce au recours à l’intelligence artificielle. Les travaux ont été menés sur trois types d’oiseaux : le républicain social, originaire du sud de l’Afrique, la mésange charbonnière venue d’Allemagne, et le diamant mandarin, observé en captivité. Leurs résultats ont donné lieu à la publication d’un article dans Methods in Ecology and Evolution, le 27 juillet dernier. Entretien avec Julien Renoult, chargé de recherche au CNRS et coauteur de la publication.

Techniques de l’Ingénieur : Pour quelle raison avez-vous mis au point cette intelligence artificielle ?

(C) CEFE Julien Renoult

Julien Renoult : L’objectif de nos recherches est, entre autres, de voir comment les liens d’apparentement peuvent influencer les comportements des individus au sein d’un groupe. Nous avons observé les liens de coopération, mais aussi les liens d’agressions, et même les choix de partenaires pour la reproduction. Nous avons voulu savoir qui aidait à la construction du nid, et également identifier les nouveaux individus venus de l’extérieur.

Jusqu’à présent, comment étaient réalisées les reconnaissances des oiseaux ?

Historiquement, pour réaliser de la reconnaissance individuelle, nous utilisions le marquage avec des bagues de couleur sur les pattes. Cette technique était couplée à de l’observation visuelle, à l’aide de jumelles. Depuis quelques années, l’ordinateur est arrivé pour aider les observateurs à reconnaître les individus. Une lecture automatique des marques laissées par les humains, comme les bagues de couleur, est possible. Dans d’autres cas, la reconnaissance des oiseaux était effectuée grâce à des QR codes, posés sur leurs dos à l’aide de harnais.

Pourquoi est-il nécessaire de rechercher de nouvelles techniques de reconnaissance ?

La reconnaissance des individus n’était qu’une étape préliminaire pour recueillir d’autres informations, plus importantes pour nous. L’intérêt pour nous était donc d’automatiser le processus d’observation des comportements. Nous voulions savoir à la fois reconnaître l’individu, mais également savoir quel est son rôle au sein du groupe. Nous nous sommes demandé s’il n’était pas possible d’aboutir à un algorithme qui serait capable d’effectuer toutes ces tâches d’un coup.

Pourquoi le recours à l’intelligence artificielle est-il efficace pour réaliser ces travaux ?

Dans un premier temps, nous nous sommes demandé si l’intelligence artificielle serait capable de reconnaître les individus sans avoir recours au marquage. Nous voulions savoir s’il y avait assez de variations entre les individus pour rendre une telle démarche possible, et c’est le cas. De tels résultats sont rendus possibles par les réseaux de neurones profonds, qui ont permis aux intelligences artificielles d’atteindre de hauts niveaux de précision. Ce sont des empilements de fonctions mathématiques qui sont capables de se transmettre et de simplifier des informations complexes. Les réseaux de neurones profonds sont aujourd’hui permis par les grandes puissances de calcul, notamment le GPU qui utilise des cartes graphiques.

Le recours à l’intelligence artificielle a-t-il des limites ?

S’il y a des milliers de fonctions mathématiques dans les réseaux de neurones profonds, il faut en parallèle qu’il y ait plusieurs milliers de données pour entraîner cet algorithme. C’est le point faible de l’intelligence artificielle, et là où se situe, aujourd’hui encore, le gap avec l’intelligence humaine. L’intelligence artificielle a besoin d’énormément de données pour pouvoir apprendre.

Quels éléments peuvent entraver l’apprentissage de l’intelligence artificielle ?

Plusieurs éléments peuvent compliquer la reconnaissance d’un individu par l’intelligence artificielle. Ils peuvent être liés à sa position, à l’angle de vue, à l’éclairage, à l’ombre. L’occlusion, le fait qu’un autre oiseau cache partiellement l’individu observé, peut également être un problème. La limite principale, c’est la mue, le changement de plumage. Ainsi, il est nécessaire que l’intelligence artificielle prenne en compte toutes les variations possibles autour d’un même individu. Notre objectif est que l’intelligence artificielle soit capable de le reconnaître dans toutes les circonstances.

Comment avez-vous collecté les données nécessaires à la programmation de l’algorithme ?

Nous avons placé des puces RFID sur les oiseaux, que nous avons été obligés de capturer pour effectuer cette opération. À chaque fois qu’un individu se rendait à la mangeoire, une photo était automatiquement prise toutes les deux secondes. Ainsi, nous avons eu en quelques semaines plusieurs milliers de photos sur des dizaines d’individus différents. La machine doit apprendre à faire la différence entre la variation parasite, qui est du bruit, et la variation d’intérêt. C’est pourquoi il faut lui apprendre toutes les circonstances possibles : un oiseau peut, par exemple, avoir une aile ébouriffée, ouvrir le bec, ou encore cligner des yeux.

Les résultats obtenus grâce à l’intelligence artificielle sont-ils fiables ?

Nous avons constaté que les résultats de l’intelligence artificielle dépendaient grandement de la qualité de la caméra employée pour effectuer les observations. Lorsque la résolution de la caméra est moins bonne, le taux de succès des reconnaissances baisse, et passe de 90 % à 60 %. Cette dégradation de l’efficacité était liée au fait que nous avions utilisé des images de trop bonne qualité pour entraîner l’intelligence artificielle. De ce fait, nous avons ajouté des images de résolution moindre au jeu de données. Suite à cette opération, le taux de réussite des reconnaissances est de nouveau passé à 90 %.

Néonicotinoïdes : 2021, le retour pour les betteraves françaises

Le 31 juillet dernier, la FNSEA, les Jeunes agriculteurs et la confédération générale des planteurs de betterave (CGB) interpellaient le ministre de l’Agriculture et de l’Alimentation Julien Denormandie dans une tribune. Les betteraviers font actuellement face au virus de la jaunisse transmis par les pucerons. Se développant partout en France, cette maladie peut entraîner des pertes de rendements, pouvant atteindre entre 30 et 50 %. Ils ont été entendus. Face à la menace d’un abandon massif de la culture de betterave l’année prochaine au profit d’autres cultures, Julien Denormandie veut réautoriser les néonicotinoïdes pour les semis de 2021. « C’est une question de souveraineté », juge-t-il. La France est le premier producteur de sucre européen. Le secteur concerne 46 000 emplois dont 25 000 agriculteurs et 21 sucreries.

Le retour des néonicotinoïdes pour un à trois ans

Autrement connus sous le nom de « pesticides tueurs d’abeilles  », les insecticides néonicotinoïdes sont interdits en France depuis septembre 2018, conformément à la Loi de reconquête de la Biodiversité votée en 2016. Cette interdiction a été étendue aux produits ayant le même mode d’action par la loi issue des États Généraux de l’Alimentation. Alors que le gouvernement se vantait d’être pionnier sur la question, il met désormais en avant le fait que la réglementation française est plus poussée qu’au niveau européen, ce qui entraînerait une distorsion de concurrence. À chaque période son discours.

Plusieurs pays européens ont en effet recours aux dérogations prévues par l’article 53 du règlement européen n°1107/2009. « Un État membre peut autoriser, pour une période n’excédant pas cent vingt jours, la mise sur le marché de produits phytopharmaceutiques en vue d’un usage limité et contrôlé, lorsqu’une telle mesure s’impose en raison d’un danger qui ne peut être maîtrisé par d’autres moyens raisonna­bles », prévoit-il. Le ministère de l’Agriculture et la FNSEA s’appuient sur l’inefficacité des alternatives disponibles dans les conditions climatiques observées début 2020 pour justifier le recours à cette dérogation.

Cette dérogation de 120 jours s’appliquera pour la campagne 2021 et pour « les deux campagnes suivantes tout au plus » au moment des semis pour les semences enrobées, « dans des conditions strictement encadrées », insiste le ministère. « Les betteraves ne produisent pas de fleurs avant la période de récolte, ce qui circonscrit l’impact de ces insecticides sur les insectes pollinisateurs », veut-il rassurer. L’utilisation par pulvérisation restera toutefois interdite. Afin d’éviter l’exposition d’insectes pollinisateurs aux résidus de produits, il sera interdit de planter des cultures attractives de pollinisateurs, suivant celles de betteraves. Le plan de soutien annoncé par le ministre comprend aussi le déblocage de 5 millions d’euros supplémentaires en 2021 au profit de l’Institut national de recherche pour l’agriculture, l’alimentation et l’environnement (INRAE) et de l’Institut Technique de la Betterave (ITB) pour trouver au plus tôt des alternatives fiables.

La FNSEA se félicite, les ONG s’indignent

La FNSEA et les Jeunes agriculteurs se félicitent d’« un soutien fort à un secteur stratégique ».  Ils promettent que « les producteurs se sont engagés pour que toutes les précautions soient prises afin que la dérogation soit circonscrite. Les itinéraires techniques qui préservent la biodiversité, comme les engagements environnementaux seront tenus ». De son côté, la confédération générale des planteurs de betterave accueille positivement ces premières réponses et appelle à un nouveau cadre stabilisé avant fin septembre.

La voie est toute autre du côté des associations écologistes. François Veillerette, directeur de Générations Futures, qualifie ces dérogations de « recul inacceptable » et promet d’employer toutes les voies de recours possibles contre cette décision. « Nous ne pouvons pas admettre que l’on revienne à l’utilisation de ces insecticides en enrobage de semence car cela revient à traiter a priori les cultures de betterave, ce qui constitue le degré zéro de l’agronomie, alors que la Directive européenne sur l’utilisation des pesticides préconise ‘la lutte intégrée contre les ravageurs’, ce qui sous-entend que le traitement chimique ne doit intervenir qu’en dernier recours et non pas avant même l‘apparition d’un ravageur ! », s’indigne-t-il.

Pour mettre en place cette dérogation, le gouvernement devra sans doute modifier la loi Biodiversité, durant l’automne. L’association Agir pour l’environnement promet d’être au rendez-vous et invitera les parlementaires à voter contre. Elle craint déjà l’extension de cette dérogation à d’autres groupements de producteurs, comme les maïsiculteurs qui ont déjà fait part de leur demande de dérogation.

Pour l’association de protection des abeilles et des pollinisateurs sauvages Pollinis, « cette dérogation d’urgence est une rustine qui ne sauvera pas un système défaillant ». L’association invite à développer des pratiques agricoles permettant de réduire la pression des nuisibles – rotations, couverts végétaux, lutte biologique… –, associées à une politique de transition, comme un fonds mutuel d’indemnisation, par exemple, permettant aux agriculteurs en bio ou en conversion de faire face au risque d’une diminution de rendement. « Seule la mise en place d’un modèle agroécologique résilient, respectueux de la nature et des agriculteurs, permettra de répondre au défi de la souveraineté alimentaire, de s’adapter au changement climatique et d’assurer une production durable », conclut l’association.

Infographie : pollution plastique des océans, un changement de paradigme s’impose

Le cycle des plastiques accumulés dans l’océan est encore mal connu. Ceux qui restent en surface sont les plus dégradés car on les retrouve essentiellement sous forme de microplastiques. Toutefois, la masse totale de ces petits débris ne constitue qu’un faible pourcentage du plastique présent dans les océans et il est très probable que des stocks immenses recouvrent les fonds océaniques, y compris dans les zones les plus éloignées de toute vie humaine.

Ces plastiques voyagent vite et loin, emmenant polluants et micro-organismes divers, pathogènes pour certains, pour contaminer tous les compartiments de l’environnement aquatique. Toutes les espèces aquatiques, quels que soient leur taille ou leur lieu de vie, rencontrent ces plastiques et s’y enchevêtrent ou les ingèrent. Et on commence seulement à savoir mesurer les impacts de ces nouveaux contaminants sur les organismes et les écosystèmes et à savoir chiffrer les dommages sur notre patrimoine et les coûts associés à cette contamination pour nos sociétés.

Dans la suite de cette infographie placée exceptionnellement en accès libre pendant 15 jours, vous retrouverez des informations sur les impacts socioéconomiques, environnementaux et sur la santé humaine de cette pollution, ainsi que les nombreuses questions qui se posent encore.

Comment et quand disparaîtront ces plastiques ? Comment évolueront leurs concentrations dans les prochaines années et les prochaines décennies ? Quels sont les impacts à long terme de notre exposition quotidienne et permanente à ces matériaux ? Mais surtout, il semblerait que tous les acteurs de la société n’aient pas encore pleinement conscience de l’urgence de la situation et des efforts à fournir pour sortir de cette ère appelée Anthropocène que nous venons d’ouvrir, ère marquée par le « tout plastique » avec ses déchets qui sont en passe de devenir notre marqueur principal et unique dans les temps géologiques

Industriels, politiques, ONG, scientifiques doivent s’unir pour faire progresser l’état des connaissances et favoriser leur dissémination vis-à-vis du grand public pour sensibiliser l’ensemble de la société à cette problématique. De nombreuses initiatives vont dans ce sens aujourd’hui mais trop de freins sont encore présents pour espérer une amélioration notable de la situation dans les prochaines années. Toutes les études montrent que la production de plastiques continue encore et toujours d’augmenter et que nos sociétés génèrent toujours plus de déchets. Chaque acteur de la société doit s’interroger sur la manière dont il conçoit la fabrication, l’utilisation et la fin de vie des plastiques, ce qui constitue un changement de paradigme majeur au regard de ce qui a pu être développé depuis plus de 50 ans.

 

 

Exclusif ! L’infographie complète en accès libre jusqu’au 28 août !

Pollution des océans par les plastiques – Infographie, de François GALGANI, Stéphane BRUZAUD, Guillaume DUFLOS, Pascale FABRE, Emmanuelle GASTALDI, Jeff GHIGLIONE, Régis GRIMAUD, Matthieu GEORGE, Arnaud HUVET, Fabienne LAGARDE, Ika PAUL-PONT, Alexandra TER HALLE