L’apport de l’observation satellite à l’agriculture

Un extrait de « Modélisation mathématique et intelligence artificielle en agriculture » par Marion CARRIER, Paul-Henry COURNEDE

Les surfaces agricoles représentent 37 % de la surface terrestre. L’étendue des surfaces cultivées et la forte hétérogénéité de leur développement due à leur sensibilité à l’environnement font de la surveillance des cultures un enjeu majeur. Des surveillances indirectes via les capteurs climatiques permettent de surveiller des problèmes spécifiques (risques de gel, inondations, sécheresses) mais l’observation par imagerie a l’avantage de proposer une vision plus complète de l’état de la plante elle-même. Les premières solutions de gestion agricole intégrant de l’imagerie satellite optique pour surveiller les cultures et adapter les conduites à ces hétérogénéités datent de 2002 en France. Les solutions basées sur l’imagerie satellite se sont démocratisées avec l’arrivée du programme Copernicus et l’essor des méthodes de deep learning. L’avantage du satellite est de pouvoir proposer une revisite régulière des surfaces terrestres, et donc une surveillance temporelle importante à coût modéré. Le coût va croître avec la résolution des images proposées (de 10 m pour les satellites Sentinel-2 jusqu’à 30 cm pour les derniers satellites Pléiades).

Imagerie satellitaire

Les capteurs d’imagerie les plus communément exploités concernent l’imagerie optique. Les feuilles absorbent le rayonnement solaire en proportions variables suivant les longueurs d’ondes. Dans le domaine visible (0,4 à 0,7 μm, albedo α = 0,1), les pigments photosynthétiques (principalement les chlorophylles) absorbent fortement tandis que dans le proche infrarouge (0,7 à 4 μm, albedo α ≥ 0,5) la réflectance est beaucoup plus forte. Une feuille en stress hydrique, ou en flétrissement, réfléchit de manière plus homogène sur l’ensemble du spectre. L’exploitation de la réflectance dans les longueurs d’onde du visible et du proche infrarouge permet de discriminer une surface végétale d’une surface inerte, une surface végétale saine d’une surface sénescente, et ce même sur des résolutions faibles, des pixels de plusieurs mètres ou dizaines de mètres.

Certains satellites embarquent des capteurs dits « actifs » car ils ne s’appuient pas sur la lumière du soleil pour observer la Terre, mais émettent des ondes électromagnétiques à la surface du globe pour l’illuminer. La rétrodiffusion est la mesure de la puissance avec laquelle un objet réfléchit le signal envoyé. Parmi ces capteurs, les capteurs radar émettent des pulsations de longueur d’onde centimétrique. Bien que plus difficile à exploiter et moins intuitive, la rétrodiffusion du signal fournit des renseignements sur les propriétés géométriques et sur la nature des objets à la surface de la Terre : rugosité de la surface, type de matériau (fer, bois, béton, organique…), teneur en humidité. Selon la longueur d’onde utilisée (de 2 à 30 cm environ), le capteur sera sensible à différents éléments à la surface de la Terre. Les grandes longueurs d’ondes (bandes P et L) peuvent pénétrer la végétation, tandis que les plus courtes (bande X) sont plus sensibles à la rugosité de la surface du sol et sont réfléchies par le sommet des arbres.

 

Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 8 septembre 2021 !

Modélisation mathématique et intelligence artificielle en agriculture par Marion CARRIER, Paul-Henry COURNEDE

Le CNES met les données spatiales au service de l’agriculture

Le programme Connect by CNES vise à promouvoir les technologies et données spatiales auprès d’entreprises, start-up et institutions dans le domaine de la mobilité, de la santé et de l’environnement dans le but de développer des produits et des services. Pour le monde agricole, cela passe par l’imagerie spatiale, les données météorologiques, la géolocalisation, ainsi que les télécoms par satellite. L’accompagnement se fait à tous les stades : idéation, incubation, accélération, expertise technique, financement, formation et promotion. Thierry Chapuis, expert en applications spatiales à la Direction de l’Innovation, des Applications et de la Science du CNES, explique les apports du spatial pour l’agriculture.

Techniques de l’Ingénieur : Quels sont les différents types de projets proposés par Connect by CNES pour l’agriculture ?

Thierry Chapuis. Crédit : CNES

Thierry Chapuis : Que cela concerne l’observation la Terre, la géolocalisation ou encore les télécommunications, les technologies spatiales participent à l’essor de l’agriculture de précision et de l’agroécologie. Concrètement, l’agriculture utilise quatre types de données spatiales : l’observation satellitaire, les données météorologiques, la géolocalisation par satellite, et les applications de communication par satellite au service de capteurs fournissant des données in situ.

Le plus gros volet concerne l’observation satellitaire grâce au programme européen Copernicus, plus particulièrement les satellites Sentinel 1 et 2. Toutes les images sont mises à disposition gratuitement. Avec un satellite optique et un satellite radar d’une résolution de 10 m x 10 m, la solution est particulièrement intéressante pour les grandes cultures. Le traitement des images délivrées par les capteurs optiques des satellites permet de mesurer et de suivre l’évolution de paramètres tels que le taux de chlorophylle des plantes, l’indice de végétation, la biomasse ou le stress hydrique. Les données radar apportent une information sur le taux d’humidité du sol ou la hauteur des plantes. De façon opérationnelle, cela permet de contrôler de manière régulière l’avancement de la végétation, d’avoir une meilleure connaissance de l’occupation des champs et de moduler l’irrigation, l’usage des produits phytosanitaires et des engrais.

Dans le cadre de la réduction des émissions de gaz à effet de serre, nous travaillons aussi avec l’INRAE sur une augmentation du stockage du carbone dans les sols agricoles avec la mise en œuvre des « couverts intermédiaires » pour éviter de laisser le sol nu. Nous souhaitons estimer au mieux l’impact de ces pratiques culturales sur le bilan carbone.

Pouvez-vous nous donner des exemples concrets de projets accompagnés ?

Une douzaine de start-up se sont récemment créées en France en utilisant les images satellitaires. Nous pouvons citer la société TerraNIS qui commercialise le service WAGO afin d’optimiser le pilotage de l’irrigation des cultures. Il y a aussi SpaceSense qui veut rendre le plus simple possible l’utilisation des images satellites [et qui a levé un million d’euros en octobre 2020, ndlr]. La société Kermap a développé l’application Nimbo de classification des cultures à l’échelle européenne.

Nous pouvons également citer MyEasyFarm qui consolide l’ensemble des données collectées par satellites, drones ou capteurs embarqués sur les matériels agricoles. La solution fournit des cartes de modulation chargées à bord des tracteurs pour adapter la dose d’intrant en fonction de la géolocalisation. Dans le domaine de la robotique agricole, nous pouvons citer les robots autonomes de désherbage et de travail du sol basé sur la géolocalisation de Naïo Technologies.

Enfin, les assurances sont très intéressées par les images satellitaires qui permettent de réaliser de premières estimations suite à des catastrophes naturelles. À partir du moment où les images permettent d’avoir une idée de la vigueur des plantes, dans le cadre d’un gel ou épisode de sécheresse marqué, cela aide les assureurs à recenser sur place les dégâts et estimer les coûts.

Comment avoir accès à ces données ?

Le CNES a mis en place son propre service d’accès aux données Copernicus : la plateforme Peps. Ce service permet d’accéder aux images et d’avoir accès à une bibliothèque de logiciels de traitement d’image. Pour le reste, nous accompagnons les start-up sur les financements et nous pouvons mettre en œuvre des conventions de partenariat pour certains projets de plus longue durée.

L’un de nos objectifs est que les données ou signaux fournis par les satellites se retrouvent dans le maximum d’applications et créent de la valeur ajoutée économique ou sociétale. Les programmes européens Copernicus et Galileo s’inscrivant dans la durée contribuent fortement au développement de services ou produits opérationnels.

La Station Spatiale Internationale au chevet de la viticulture

La Mission WISE portée par la startup Space Cargo Unlimited entend utiliser l’espace comme nouvelle dimension de la recherche pour l’avenir de l’agriculture sur Terre. En particulier, elle mise sur l’impact de la microgravité sur des systèmes biologiques complexes afin de trouver des solutions pour la viticulture. Le 2 novembre 2019, 12 bouteilles de vin Petrus millésime 2000 s’envolaient ainsi vers la Station Spatiale Internationale à 400 km d’altitude pour le programme Commubios, avec le soutien technique de Thales Alenia Space et de l’entreprise américaine Nanoracks. Puis, 320 sarments de vigne – 50 % Merlot, 50 % Cabernet Sauvignon – ont rejoint l’ISS grâce à un partenariat avec le CNES et l’ESA. Ils ont été exposés respectivement 10 et 14 mois à la microgravité.

Les bouteilles et les sarments sont revenus sur Terre le 14 janvier 2021 à bord d’une capsule Dragon (SpaceX). Les deux programmes livraient leurs premières conclusions en mars dernier suite à une première dégustation organoleptique à l’ISVV (Institut des Sciences de la Vigne et du Vin) de Bordeaux. « De réelles différences ont été constatées, notamment pour la robe et le goût. Ce fut plus compliqué pour les participants de faire la différence sur la dimension olfactive », résume Emmanuel Etcheparre, cofondateur de Space Cargo Unlimited et coordinateur de la recherche pour sa filiale Space Biology Unlimited. Les chercheurs étudient désormais la composition des propriétés biochimiques du vin qui a séjourné dans l’espace pour comprendre l’impact de l’environnement spatial sur le vieillissement d’un vin et de ses composants : goût, arôme, couleur, polyphénols, fermentation, bactéries, levures …

Crédit : Space Cargo Unlimited

Des sarments livrent leurs premiers secrets

Les sarments ont fait l’objet d’une analyse microscopique détaillée puis ont été plantés quelques jours après leur retour sur terre. Une partie se trouve dans les serres de l’ISVV, l’autre en Vendée, dans les serres du Groupe Mercier, leader mondial dans la production de plants de vigne et la création de vignobles, avec lequel Space Cargo Unlimited a récemment conclu un partenariat stratégique. « Il nous tarde de découvrir les effets que l’absence de microgravité et les changements biologiques sans précédent ont induits lors de leur séjour sur la SSI, partage Guillaume Mercier, président du groupe Mercier. Nous sommes impatients de découvrir le type d’environnements dans lesquels les sarments vont bourgeonner et si leur capacité d’adaptation et de croissance répond aux effets du changement climatique. »

Après quelques semaines, les effets de l’absence de microgravité sur les sarments étaient visuellement perceptibles. Les sarments passés par l’espace ont connu une croissance plus rapide et un bourgeonnement précoce par rapport aux sarments restés sur Terre dans des conditions similaires. Les recherches se poursuivent en collaboration avec l’Université FAU Erlangen (Allemagne) et le Groupe Mercier. Ce dernier a d’abord placé une partie des sarments dans une chambre spéciale pour enracinement rapide avant replantage en terre pour production. La récolte est prévue pour décembre 2021. Les chercheurs identifieront alors les changements dans l’ADN des plantes. Puis, ils analyseront la façon dont la microgravité a modifié l’épigénétique de la vigne et identifieront le ou les composants à l’origine des nouvelles propriétés.

Avec cette alliance stratégique, Space Biology Unlimited, filiale de Space Cargo Unlimited et première start-up agritech spatiale basée à Bordeaux, souhaite optimiser rapidement le développement de nouvelles variétés de vigne pour une commercialisation rapide, à partir de juin 2022, à l’échelle mondiale. L’objectif de l’alliance d’ici cinq ans est de représenter 10 % des ventes mondiales de Cabernet Sauvignon et Merlot, soit environ 2 millions de vignes par an.

Techniques de l’Ingénieur participe à Measurement World 2021

L’évènement mobilise les spécialistes de l’analyse, du contrôle, de l’optique, du process ainsi que la vision, et promeut l’ensemble des savoir-faire technologiques français et européens.
Point d’orgue indissociable, conjointement organisé à ce rendez-vous, le Congrès International de Métrologie apporte l’expertise technique, l’environnement R&D.

Chiffres clés
4 jours d’exposition
6 000 m² d’exposition, comprenant un important Village Métrologie (en connexion avec le CIM)
250 exposants
1 000 participants au congrès , 45 pays et 35% de congressistes internationaux.

Programme des conférences 2021

Lundi 6 septembre
Les grandes règles du Marquage CE
Incertitudes de mesure
Optimisation des périodicités d’étalonnage

Mardi 7 septembre
Présentation de l’EMVA
Imagerie rapide et plateforme eyeMOTION
L’IA pour les applications « vision » rendue accessible
Diagnostic optique et IA
Les technologies de vision du photon au cloud
Présentation du CIM 2021
Systèmes de mesure de masse robotisés sur table et de précision
Développement de la nouvelle génération de logiciels métrologie
Certificats d’étalonnage digitaux : support de la transformation digitale des processus industriels
L’électromobilité
Etalonnage de pipettes
Le capteur INSEVA
Fournisseur d’essais d’aptitude
Cybersécurité industrielle : cybersécurité des processus industriels à travers l’IEC 62 443
Réussir son projet en CEM

Mercredi 8 septembre
Présentation de l’EMVA
Choisir l’outil basé sur l’Apprentissage profond le plus approprié pour votre application
Images multispectrales pour l’analyse de la qualité de l’air,
Vision traditionnelle et Deep Learning, quelles différences pour la mise en oeuvre d’une application industrielle ?
Comprendre la télécentricité pour mesurer
Evolution de la Directive RED : comment maîtriser l’évaluation de la Cybersécurité de vos produits IoT, à travers la norme 303 645
Accès aux marchés internationaux : comment réussir la mise sur le marché de vos produits
Mise au point CEM des équipements

Jeudi 9 septembre
Mesure 3D des états de surface
MiCAT Planner : Programmation automatique à partir d’une définition CAO. Améliorez considérablement votre productivité !
Trust Metrology, le label de bonnes pratiques en métrologie
Mesures de température – bonnes pratiques et métrologie

Les conférences sont animées par les experts du Collège Français de Métrologie, de l’EMVA et du LCIE Bureau Veritas.

Vous pouvez consulter le programme plus en détail ici.

Des satellites pour remplacer les contrôles physiques à la ferme

Le 22 mai 2018, la Commission européenne a adopté de nouvelles règles concernant le contrôle des paiements PAC, avec notamment « la possibilité de remplacer complètement les contrôles physiques sur les fermes par un système de contrôles automatisés basés sur l’analyse des données d’observation de la Terre ».

Mise en place en 1962 pour augmenter la productivité du secteur agricole et garantir la sécurité alimentaire, la PAC (Politique agricole commune) représente, en 2021, 33,1 % du budget de l’Union à 27. Les aides se répartissent en deux piliers : le premier, qui concentre 77 % du budget, concerne les aides directes aux agriculteurs (selon la surface des fermes et leur production). Le deuxième pilier (23 %) est consacré au développement rural : modernisation des exploitations agricoles, aides à l’installation, agriculture biologique, mesures agroenvironnementales, etc.

Les aides sont versées aux agriculteurs selon leurs déclarations. Vérifier sur place chaque déclaration est long et fastidieux, il n’est donc pas possible pour les États de contrôler physiquement toutes les exploitations chaque année. En revanche, utiliser les images satellites du programme Copernicus permettrait de simplifier les contrôles tout en réduisant le nombre d’inspections sur le terrain . Les données officielles collectées par les satellites Sentinel de Copernicus, fournies gratuitement, facilitent leur exploitation.

Les surfaces examinées depuis l’espace

Les aides liées à la surface sont les plus faciles à contrôler via les images satellites. L’Agence de services et de paiement (ASP), le payeur de la quasi-totalité des aides européennes versées aux exploitations agricoles, précise que désormais « 100 % des contrôles surfaces du premier pilier de la PAC [soit la grande majorité des aides du premier pilier] sont réalisés par photo-interprétation assistée par ordinateur (PIAO). Cette technique permet de réduire de 50 % les déplacements dans les exploitations ». En 2016, la télédétection représentait déjà 90 % des contrôles.

Les aides au second pilier plus difficiles à contrôler

Si la méthode est au point pour le contrôle du registre parcellaire, elle ne l’est pas encore pour juger les surfaces d’intérêt écologique ou les engagements environnementaux, ce vers quoi tendent de plus en plus les aides du second pilier. Les images fournies par les satellites Sentinel ne seraient pas suffisantes pour identifier les haies, distinguer les différentes cultures ou faire la différence entre différents types de prairies par exemple. Certains acteurs privés, via leurs propres satellites, ont accès à des images de bonne qualité fournissant ces informations, mais ces dernières sont payantes et représentent un coût trop élevé pour les organismes en charge des contrôles. Les prochains lancements des satellites Copernicus permettront peut-être de faire sauter ce verrou. Certains plaident plutôt pour avoir accès aux images des entreprises privées.

Si les contrôles par satellites ne sont pas encore opérationnels, des outils sont en développement dans le cadre du projet Niva (Nouvelle vision du SIGC en action). Il s’agit d’une initiative pour la modernisation de la gestion de la Pac, formée par un consortium de neuf États membres, dont la France, qui travaillent sur neuf projets pilotes. Parmi ces derniers : la détection automatique de changement d’occupation du sol, ou la production d’indicateurs carbone, nitrate et biodiversité. Ces outils permettront de conditionner les aides aux pratiques agricoles.

Les promesses du recours aux satellites en agriculture

L’usage agricole des satellites a débuté en France en 1986, avec le lancement du premier satellite du programme français SPOT (satellites pour l’observation de la terre), et dont les deux derniers exemplaires ont été lancés en 2012 et 2014, en parallèle des satellites Pléiades. D’autres programmes ont pris la suite, en particulier les satellites Sentinel du programme européen Copernicus. Parmi les 6 couples de satellites du programme, les Sentinel 2 et 3 sont utilisés en agriculture.

Il existe de nombreux autres programmes et projets de satellites à vocation agricole à travers le monde. C’est par exemple le cas du programme Landsat aux États-Unis, dont le 9ème satellite de la constellation devrait être lancé le 16 septembre prochain.

Une diversité d’applications

Satellites météorologiques, satellites de positionnement, et satellites d’observation de la Terre, équipés de capteurs et caméras, offrent un panel d’applications possibles en agriculture :

  • L’achat de prévisions météorologiques : données et prévisions de températures, de pluviométrie…
  • Le guidage d’engins : il est permis par le déploiement des systèmes de navigation par satellites dont la constellation la plus connue et la plus utilisée est le global positionning system (GPS) américain. Pour les agriculteurs, il facilite l’optimisation des passages sur la parcelle pour éviter les manques et les recouvrements, que ce soit pour l’irrigation, l’épandage de produits phytosanitaires ou les semis.
  • Les assurances, comme avec l’indice de production de prairie (IPP) d’Airbus. Lancé en 2016, cet indice de référence national, validé par le ministère de l’Agriculture, est livré chaque année aux assureurs qui y souscrivent. Il s’appuie sur un historique de 20 années d’images satellites, pour estimer les excès ou les carences de production. « Grâce à ces indices, les assureurs indemnisent ensuite leurs clients en cas d’aléas climatiques, notamment les sécheresses », explique Alexandra Nouillas, chef de projet du programme IPP.
  • L’agriculture de précision, que ce soit pour une gestion raisonnée de l’eau, des pesticides ou de la fertilisation. Il est possible d’estimer par télédétection diverses variables biophysiques : par exemple la teneur en eau, ou le niveau de matière organique des sols. Mais si les images fournies par certains satellites, par exemple Sentinel, sont gratuites, les données brutes sont difficiles à interpréter. Ces vingt dernières années, plusieurs entreprises se sont spécialisées dans l’interprétation de ces données pour fournir des conseils aux agriculteurs. Les outils proposés aident à optimiser les pratiques agricoles, en tenant compte de l’hétérogénéité des besoins et des risques.

Développement de l’agriculture de précision

« La France est assez en avance sur l’agriculture de précision », note Emmanuelle Paganelli, responsable du service Farmstar au sein d’Airbus. Développé dans les années 1990 par Arvalis-Institut du végétal et Airbus, Farmstar combine images satellites (Sentinel 2 et Spot) et observations agronomiques pour conseiller les agriculteurs dans leurs apports d’engrais. « Il y a 20 ans, c’était très pionnier. C’était un service expérimental pour une ou deux coopératives et quelques agriculteurs. Le service, vendu aux distributeurs (chambres d’agriculture, coopératives, regroupement d’agriculteurs…), s’est étendu au fur et à mesure des années », poursuit la responsable de Farmstar. Aujourd’hui, 630 000 hectares sont suivis en France.

Grâce aux données renseignées par l’agriculteur et aux images satellite, Farmstar calcule les besoins en fertilisation (azote) en chaque point d’une parcelle. Crédit image : Airbus

Il existe d’autres outils d’aide à la décision (OAD) pour des applications similaires, mais tous n’ont pas recours aux images satellites, même si l’usage se déploie. Nasa Harvest, le programme de sécurité alimentaire et d’agriculture de la Nasa, a par exemple annoncé fin mars 2021 une association avec la start-up israélienne CropX, spécialisée dans l’analyse des sols pour l’agriculture. Ce partenariat avec Nasa Harvest va lui permettre d’avoir, en plus des informations agronomiques récupérées grâce à des capteurs sur place dans les champs, des données satellitaires.

En comparant aux images satellites des années précédentes, un indice de production des prairies est livré chaque année aux assureurs. Crédit image : Airbus

Pilotage de l’irrigation

Un des intérêts aux images satellites important, mais encore sous-exploité, est la gestion de l’eau. Le projet Maiseo, démarré en 2012 et qui s’est achevé en 2017, qui essayait de cultiver du maïs en consommant 20 % moins d’eau pour un rendement équivalent s’appuyait notamment sur l’apport de la télédétection pour estimer les besoins et la consommation en eau en cours de saison. Autre exemple, l’application web Sat-IRR est un outil d’aide au pilotage de l’irrigation à l’échelle de la parcelle. Cette application est accessible dans certains endroits au Maroc, en Tunisie, en Catalogne espagnole et dans le sud-ouest de la France. L’agriculteur dessine ses parcelles, renseigne le type de culture, de sol et le système d’irrigation. L’application collecte en parallèle des données satellitaires et météo sur une année. Et avec toutes ces données, l’application propose une préconisation d’irrigation.

Différents capteurs peuvent être présents sur les satellites et communiquent diverses informations. Un capteur optique permet d’observer le jaunissement de la végétation, alors qu’un capteur thermique décèle l’augmentation de chaleur à la surface des plantes qui précède son jaunissement. La France et l’Inde travaillent d’ailleurs conjointement sur le satellite Trishna, qui embarquera un capteur optique indien et un capteur infrarouge thermique français. Il devrait être mis en orbite en 2025.

Les freins à l’utilisation des données satellitaires

Il reste cependant des freins à l’utilisation généralisée des données satellitaires par les agriculteurs. Le prix tout d’abord, puisque pour exploiter pleinement les informations fournies par les satellites et les services associés, il est parfois nécessaire de posséder des machines récentes et haut de gamme. Avec un retour sur investissement difficile à évaluer.

Un autre point à relever est l’usage détourné de certains services. C’est par exemple le cas de Farmstar. « Une petite partie des agriculteurs qui utilisent le service le font surtout pour montrer qu’ils sont en règle en cas de contrôle », concède Emmanuelle Paganelli. C’est d’ailleurs en partie pour cette raison que l’entreprise a décidé de proposer une déclinaison simplifiée de son offre pour cette cible d’agriculteurs, Farmstar Eco.

Mais aussi, le développement des drones et des capteurs directement embarqués sur les engins agricoles. Ils peuvent, pour certaines applications, être une alternative aux images satellitaires. Or leur utilisation est plus souple, ils sont utilisables à tout moment. Et s’affranchissent de la couverture nuageuse. Cependant les drones ont leurs propres désavantages, comme la nécessité d’obtenir des autorisations pour les survols ou une capacité de couverture limitée par rapport aux satellites.

Comprendre l’évolution du phytoplancton

Avec le réchauffement climatique, les phénomènes physiques et chimiques de l’océan évoluent. Le rôle de « forêt océanique » du phytoplancton est bien connu, mais pourrait évoluer avec les changements à venir. Pour mieux comprendre le rôle du phytoplancton dans les océans, nous avons échangé avec Loic Le Ster, chercheur au centre d’études biologiques de Chizé à la Rochelle et au laboratoire d’océanographie de Villefranche (LOV). Il s’est spécialisé dans l’océanographie (l’interaction entre les phénomènes physiques dans l’océan et la biologie, la biogéochimie) et l’écologie marine (l’interaction entre les différents niveaux du réseau trophique, de la chaîne alimentaire, à travers l’étude des grands prédateurs comme les éléphants de mer). Ses recherches se focalisent sur l’océan polaire, plus spécifiquement en région Antarctique et océan Austral.

Techniques de l’Ingénieur : Pouvez-vous nous rappeler ce qu’est le plancton en général ?

Loic Le Ster : Plancton vient du grec planctus, qui signifie errant. Ce sont des particules qui ne décident pas où elles vont, qui dérivent même si certaines sont dotées d’une motilité verticale (pour éviter les prédateurs ou capter la lumière, elles se meuvent plus ou moins profondément). Elles suivent les mouvements de l’eau. C’est ce qu’on peut voir lors de l’efflorescence (le bloom) de phytoplancton, qui est le plancton végétal. Il va apparaître dans une région, puis être transporté selon les courants et former des filaments, des tourbillons, etc.

Le plancton n’est pas un groupe taxonomique à proprement parler. Il a une diversité génétique immense et de nombreux embranchements sont représentés, depuis le phytoplancton (végétal) au zooplancton (animal). Il y a également d’autres groupements : le necton par exemple représente les larves de poissons qui sont des planctons pendant la phase larvaire, et ne le sont plus une fois adultes. Il existe également une série d’organismes comme les crabes qui ont cette phase larvaire. Et au niveau de la taille, on va du nanomètre pour le plus petit phytoplancton jusqu’à plusieurs mètres pour des salpes, des organismes gélatineux comme les méduses.

Le phytoplancton a un rôle important pour le climat…

Le phytoplancton est l’équivalent des forêts (amazonienne et continentales) dans l’océan. C’est-à-dire que celui-ci va faire de la photosynthèse, un processus qui consiste à créer du carbone organique en captant du carbone non organique venant de l’atmosphère. Les forêts océaniques comme terrestres sont cruciales dans le maintien de l’équilibre sur Terre. Sans elles, les taux de CO2 grimperaient beaucoup plus vite.

Le phytoplancton intervient dans la pompe à carbone, appelée également séquestration du carbone du haut vers le bas, c’est-à-dire exporte du carbone atmosphérique de la surface vers le fond. Le plancton de surface va grandir, capter du carbone, mourir ou être brouté par du zooplancton, et les pelotes fécales vont sédimenter, couler, et être piégées dans les profondeurs pendant des échelles de temps longues. Pas toutes, car une partie est remise dans la colonne d’eau, dans une boucle microbienne. C’est ce processus qui donne aux océans tout le poids dans la balance du changement climatique. Il y a aussi une pompe physique à carbone. Sans même l’intervention de la biologie, le carbone de l’atmosphère est dissous dans l’eau, va couler au fond et être piégé. On estime que les productions de CO2, à 87 % sont issues de la combustion pétrole et 13 % de la déforestation. 50 % vont rester dans l’atmosphère et 50 % seront absorbés (25 % par l’océan). Nous voulons savoir comment évolue le plancton avec le temps et les facteurs environnementaux (température et CO2).

Comment ?

Nous utilisons plusieurs technologies. Le robot profileur – un tube de deux mètres de haut  – permet de récolter un certain nombre de paramètres grâce à des capteurs de lumière, d’oxygène, de température, de salinité et de fluorescence. Ces données donnent des indications sur l’état de l’eau au niveau physique et biogéochimique. La concentration de phytoplancton dans le milieu est mesurée à l’aide de petits fluorimètres composés d’un laser et d’un récepteur : en fonction de l’onde reçue, on sait à quel point l’eau est verte, concentrée en chlorophylle (le phytoplancton). Ce robot profileur a un comportement planctonique : il ne choisit pas où il va. Son cycle de vie est de 9 jours à 2 000 mètres, et il prend les mesures le 10e jour, lors de sa remontée. Arrivé en surface, il transmet les données, reçoit de nouveaux ordres et repart en dérive sous l’eau.

Son équivalent un peu plus piloté à distance est le glider. Il ressemble à un petit avion avec des petites ailes. Il va réaliser des montées et descentes plus fréquentes. Il sera déployé pendant un mois entier, pour être récupéré ensuite, car il demande plus de batterie. Si on veut par exemple le déployer dans l’océan Austral, il faut l’emmener en bateau. Et l’hiver… il n’y a pas de bateau, donc on n’a quasiment pas de prélèvement. En réalité, l’océan Austral est sous-échantillonné. La glace de mer, depuis les satellites, rend les masses d’eau invisibles. Sans parler des nuages. Les observations par satellites sont problématiques, c’est pour cela qu’on a besoin de robots.

Vous étudiez aussi les éléphants de mer…

Effectivement, nous réalisons des campagnes de terrain où on va placer une balise sur la nuque d’éléphants de mer. La balise pèse 500 g, pour une taille de 10 x 8 cm, et intègre les mêmes capteurs que les flotteurs, avec les contraintes qu’imposent la miniaturisation. Ce mammifère marin est intéressant car il a un comportement particulier : il a deux périodes dans l’année, une de mue et une de reproduction. Le reste du temps, il a une vie solitaire : il vit en mer, chasse. Il effectue environ 60 plongées par jour, et parfois jusqu’à 2 000 m de profondeur. Et dans des zones difficiles d’accès pour l’homme : près de la glace, sur la bordure du continent antarctique et les zones pélagiques au milieu de l’océan. Ainsi, il nous permet d’avoir une idée de ce qu’il se passe au niveau du phytoplancton et de la température. Il est également équipé d’un GPS, car à la base, on voulait en savoir plus sur lui : où va-t-il, quelles sont ses zones préférées, où chasse-t-il, etc., pour détecter des niches écologiques. Comme c’est un grand prédateur, il reflète l’état de santé de l’écosystème. S’il trouve à manger, cela signifie que tous les autres organismes de l’écosystème, vers la base du réseau trophique et du phytoplancton, vont être en bonne santé. Ces endroits, on les identifie bien, car il s’attarde dans ces zones.

Que vous permettent ces données ?

Les conditions climatiques ouvrent de plus en plus la porte vers l’Antarctique, pour l’exploitation des pêcheries et de la recherche. Ces animaux-là, comme les grands oiseaux et les manchots également, permettent d’avoir des données pour identifier des zones que l’on souhaiterait protéger, en tant qu’aire marine protégée, car on y estime une valeur écologique forte. Et on souhaite éviter au maximum qu’il y ait des développements technologiques dans ces zones-là. Une des missions du laboratoire est d’ailleurs de faire des suggestions lors de comités, et des propositions d’aire marine protégée. Comme lors du comité Antarctique qui s’est réuni en France en juin, pour présenter les résultats de recherche.

Quels sont justement les résultats de vos études ?

Dans le cadre du travail que j’effectue, il s’agit plutôt d’un résultat vers lequel on souhaite aller. À l’heure actuelle, les satellites montrent que l’océan Austral est plus vert qu’avant, c’est-à-dire qu’il y a plus de phytoplancton dans une majorité de zones, sans être homogène. Globalement, on pourrait l’interpréter par des zones plus chaudes dans lesquelles le phytoplancton serait favorisé. Il y aurait peut-être des stocks de phytoplancton dans cette région alors que d’autres s’appauvrissent, comme dans le nord-atlantique (mais c’est un constat beaucoup moins clair). En étudiant localement, on pourrait trouver des contradictions. Deuxième constat : la couche de mélange superficielle des océans semble s’approfondir au niveau global.

Nous souhaitons vérifier ces constats grâce aux données acquises par les éléphants de mer, en recroisant la correspondance entre notre profil vertical et les données satellites. C’est un résultat en suspend sur lequel on n’a pas de conclusion formelle. C’est là où on peut avoir des conclusions intéressantes sur in fine comment la pompe à carbone évolue – est-elle plus ou moins forte ? – et comment elle va nous aider en termes de considération climatique pour la suite. En plus, on ne sait pas s’il s’agit du même type de phytoplancton. On a de nombreuses espèces différentes, comme pour les arbres. Certains types de phytoplancton, bien qu’abondants, s’ils sont très légers participent de façon infime dans la pompe à carbone. D’autres organismes, comme les diatomées, avec une paroi cellulaire en silice, vont couler plus rapidement, donc ont une efficacité plus importante.

Sur 100 kg de carbone en surface (lors d’un bloom), entre 2 et 7 % vont être exportés au fond. 7 % pour le plus fort, et 2 % pour des espèces qui vont couler tellement doucement que la plupart va être reconsommée en surface. Nous devons vérifier et ne pas nous arrêter aux concentrations apparentes plus fortes. Il faut une grande prudence face à ces conclusions.

Vous vous focalisez plus sur l’océan Austral…

On se focalise sur les régions très productives : plutôt les zones froides. La zone nord-atlantique va être une zone très productive mais je la connais moins. Il y a des intensités régionales différentes. Les phénomènes qui lient la physique à la biologie sont dans chaque région un peu différents. L’océan austral a un rôle central dans les études climatiques car on estime qu’il représente 40 % du carbone absorbé au niveau mondial. Si on a une évolution à noter dans l’océan global, l’océan austral va peser dans l’évolution de l’export du carbone. Et c’est le seul qui connecte les océans : il effectue une boucle autour de l’antarctique et va être au contact des océans antarctique, indien et pacifique à la fois. Il a une place centrale.

Vers la commercialisation d’une nouvelle technologie de production de biocarburants avancés

Après plus dix ans de travaux de recherche, la technologie BioTfuel est sur le point de franchir une nouvelle étape. Bionext et ses partenaires – regroupant entre autres IFP Énergies nouvelles, le CEA, Axens et TotalEnergies – viennent d’annoncer sa mise sur le marché à partir du début de l’année 2022. Cette technologie permettra la fabrication de biocarburants avancés de deuxième génération à partir de la biomasse, principalement de type déchets forestiers (bois) et résidus agricoles (pailles), et dans une moindre mesure de cultures énergétiques telles que le miscanthus.

« Il y a différentes voies possibles pour valoriser cette biomasse, déclare Rodrigo Teixeira-Pinto, technologue chez Axens, la société qui commercialisera BioTfuel. Ce qu’il y a d’unique dans notre technologie, c’est que nous avons réussi à maîtriser et à optimiser une succession d’étapes formant une chaîne de torréfaction-gazéification-synthèse Fischer-Tropsch pour fabriquer des carburants à faible teneur en carbone. Sur le marché, nous serons les seuls à proposer l’ensemble de ce processus. »

Ces étapes sont au nombre de quatre. La première, appelée prétraitement, consiste à sécher puis à torréfier la biomasse, et enfin à la broyer. Le séchage a pour but de réduire la quantité d’eau présente dans la biomasse brute qui peut atteindre jusqu’à 50 %. Le procédé de torréfaction vise quant à lui à rendre friable cette biomasse afin de réduire de manière significative la consommation électrique nécessaire au broyage. Il permet d’augmenter la densité énergétique de la biomasse ainsi qu’assurer sa meilleure stabilité au moment du stockage.

Le procédé de gazéification constitue la deuxième étape. Il est réalisé à très hautes températures, entre 1 200 et 1 600 degrés Celsius, et à haute pression, jusqu’à 40 bar. Il s’agit d’un procédé d’oxydation partielle qui transforme toute la biomasse en un gaz de synthèse comprenant un mélange de monoxyde de carbone (CO) et d’hydrogène (H2). Ce gaz de synthèse présente l’intérêt de contenir très peu d’impureté, notamment aucun goudron.

Lors de la troisième étape, ce gaz de synthèse fait l’objet d’un conditionnement. Un ajustement du ratio H2/CO est opéré via une réaction Water Gas Shift. Objectif : obtenir un mélange contenant deux fois plus de H2 que de CO. Les gaz acides et notamment le CO2 biogénique font aussi l’objet d’une élimination, ce dernier n’étant pas converti en biocarburant avancé. Une purification finale est enfin réalisée grâce à l’adsorption de différents contaminants comme le soufre.

La quatrième et dernière étape consiste en une réaction chimique appelée Fischer-Tropsch. Elle a pour but de convertir ce mélange d’hydrogène et monoxyde de carbone en longues chaînes d’hydrocarbures liquides. La réaction a lieu dans une colonne à bulles en suspension triphasique et permet une parfaite maîtrise de la forte exothermicité et une bonne homogénéité de la réaction. Les produits Fischer-Tropsch sont ensuite valorisés vers la production de biocarburants avancés tels que du kérosène et du diesel renouvelable.

Des études préliminaires de futures installations industrielles

Le consortium travaille actuellement sur des études préliminaires de futures installations industrielles. La dernière phase de tests sur deux unités de démonstration semi-industrielles et débitant 3 tonnes de biomasse sèche par heure s’est en effet révélée concluante. La première unité, située à Venette dans l’Oise, avait pour fonction de sécher et de torréfier la biomasse. Cette dernière était ensuite transportée jusqu’à Dunkerque, dans la seconde unité qui assurait toutes les étapes suivantes allant du broyage jusqu’à la synthèse Fischer-Tropsch.

La technologie BioTfuel sera commercialisée sous la forme de licence. « Nous avons un gros marché en Europe, mais aussi en Amérique du Nord, plus précisément aux États-Unis et Canada, ajoute Rodrigo Teixeira-Pinto. Il y a du potentiel dans ces deux régions avec la présence d’importantes quantités de déchets forestiers et résidus agricoles. Nous savons que nous pourrons en tirer profit pour produire des biocarburants avancés. »

En plus de produire du biokérosène et du biodiesel avancés, cette technologie se révèle flexible et la gamme de produits peut être ajustée pour répondre aux objectifs des clients. « La chaîne BioTfueL peut générer des coproduits à haute valeur ajoutée tels que le biogaz, de l’électricité verte produite grâce à de la vapeur d’eau qui fait tourner une turbine, ainsi que du CO2 biogénique », conclut l’expert chez Axens.

Incendies de forêt : des capteurs sans fil pour sonner l’alarme au plus vite

La planète brûle en différents endroits. Les conséquences sont dramatiques pour les populations, mais aussi pour l’environnement. Des experts estiment que les feux de forêt sont responsables d’environ 20 % des émissions annuelles de CO2 dans le monde.

« En moyenne, les incendies de forêt brûlent chaque année deux fois plus de terres qu’il y a 40 ans », indique Climate Central, une organisation indépendante de scientifiques et de journalistes qui étudient et rendent compte du réchauffement climatique.

Pour éviter que ces scenarii catastrophes ne se reproduisent régulièrement, il est important d’entretenir correctement les forêts et de repérer au plus vite le moindre départ de feu. Différentes solutions techniques sont déployées ou étudiées pour relever le second défi.

Au Maroc, la Délégation des eaux et forêts de la province de Boulemane vient de décider de lancer des drones pour surveiller certaines zones forestières à risques. Autre piste : l’internet des objets ou IoT.

IoT et IA

Quelques start-up européennes (Dryad Networks, LADsensors) et entreprises développent des systèmes IoT utilisant des capteurs sans fil afin de déclencher au plus vite une alerte. Baptisée Silvanet, la solution de l’allemand Dryad Networks repose sur des capteurs à énergie solaire qui sont suspendus à un arbre et le réseau maillé sans fil LoRaWAN. Environ 500 capteurs (environ 50 euros l’unité) sont nécessaires pour couvrir une superficie de 10 km².

Les capteurs intègrent une puce Bosch BME688 qui détecte la composition gazeuse de l’air (hydrogène, dioxyde de carbone, monoxyde de carbone). Ensuite, ils s’appuient sur une solution d’intelligence artificielle pour déterminer plus précisément les risques d’incendie. Selon Dryad, la détection d’un feu de forêt peut être obtenue en moins d’une heure.

Ce type de solution est également étudié aux États-Unis dans le cadre du projet BurnMonitor qui réunit notamment l’INRIA et l’université de Berkeley pour répondre aux besoins du Moraga-Orinda Fire District (MOFD), installé à San Francisco.

Le MOFD a en effet besoin d’un système lui permettant de surveiller de près des zones très sensibles, comme une école située dans une zone forestière, et d’obtenir une alerte dès qu’un incendie se déclare, ainsi que les informations nécessaires pour que les pompiers puissent approcher au mieux le feu et coordonner leur action.

Depuis 2020, des boîtiers en plastique ignifugés contenant des capteurs capables de résister à une température allant jusqu’à 125°C sont placés sur des poteaux d’un  mètre de haut et installés à 50 mètres les uns des autres pour former une « clôture virtuelle ». Pour le MOFD, cette distance de 50 mètres correspond à l’espacement permettant de détecter les incendies.

Le dernier rapport du GIEC prévoit une hausse des températures de 1,5 degré dès 2030

Le GIEC a publié le premier volet de son sixième rapport d’évaluation sur le climat. Les scientifiques ont réalisé une synthèse de l’état des connaissances à partir d’un peu plus de 14 000 publications scientifiques. Ils dressent un constat implacable des bouleversements climatiques provoqués par l’augmentation de la concentration des gaz à effet de serre dans l’atmosphère et liée à l’activité humaine. François Dulac, chercheur au CEA au sein du LSCE (Laboratoire des sciences du climat et de l’environnement) décrypte pour Techniques de l’Ingénieur les points marquants de ce rapport.

Techniques de l’Ingénieur : Quelles sont les principales conclusions de ce rapport ?

François Dulac – Crédit photo François Dulac

François Dulac : Ce rapport vient renforcer les conclusions des précédents rapports sur l’avancée du changement climatique. Il confirme que le réchauffement climatique observé, qui a atteint 1,1°C par rapport au début de l’ère préindustrielle (deuxième moitié du 19ème siècle), est bien dû aux activités humaines. Chaque incrément de réchauffement provoque une hausse disproportionnée des impacts, en particulier une augmentation de la fréquence des événements climatiques extrêmes (canicules, pluies diluviennes, sécheresses…) ainsi que leur intensification.

Ce rapport révèle également que le réchauffement observé n’a pas d’équivalent depuis au moins 2 000 ans, et qu’un certain nombre de phénomènes déjà en route sont irréversibles comme la fonte des glaces, la hausse du niveau de la mer et l’acidification du milieu marin, et ce même si on diminue drastiquement les émissions de gaz à effet de serre pour contenir le réchauffement. Ces phénomènes sont enclenchés et vont se poursuivre sur des siècles, voire au-delà du millénaire.

Les auteurs du rapport ont aussi affiné la « sensibilité climatique », c’est-à-dire l’importance du réchauffement face au doublement de la concentration en CO2 dans l’atmosphère, un niveau qui pourrait être atteint avant la fin du siècle. C’est en effet la tendance sur laquelle nous sommes depuis le début du siècle. Ce doublement conduirait à une augmentation de la température moyenne de 3 degrés (avec une fourchette d’incertitude comprise entre 2,5 et 4°C).

Le rapport montre aussi que l’élévation de la température moyenne à la surface de la terre s’accompagne d’augmentations beaucoup plus fortes des maximas de température, et présente de fortes disparités régionales, avec un réchauffement très accentué sur les continents.

L’objectif ambitieux fixé par la COP21 et l’accord de Paris de limiter le réchauffement à 1,5 degré ne pourra donc pas être tenu ?

Cette hausse sera vraisemblablement atteinte d’ici 2030, et ce même si les émissions étaient dès à présent drastiquement orientées à la baisse. Ce qui se passera après cette date dépendra de notre capacité à limiter les émissions de gaz à effet de serre dans les prochaines années et en particulier le CO2, le principal gaz responsable du réchauffement. Le GIEC a examiné cinq scénarios d’émissions différents. Le plus optimiste se base sur une limitation drastique des émissions afin d’atteindre zéro émission nette de CO2 en 2050. Dans ce cas de figure, les experts prévoient que le réchauffement va rapidement dépasser 1,5 degré, mais devrait ensuite se stabiliser voire revenir à une valeur très légèrement inférieure à la fin du siècle.

Dans le scénario le plus pessimiste, le GIEC a fait des modélisations en projetant cette fois-ci un doublement des émissions de CO2 à l’horizon 2050. Cette hypothèse est loin d’être improbable. Dans ce cas, le réchauffement devrait être supérieur à 4 degrés à la fin du siècle (4,4°C, avec une fourchette d’incertitude de 3,3 à 5,7°C), impliquant un bouleversement climatique.

Quels sont les autres éléments nouveaux du rapport ?

Grâce à l’augmentation de la puissance de calcul des ordinateurs, les scientifiques ont pu augmenter la résolution de leurs modèles et multiplier les simulations pour déterminer les impacts du réchauffement à l’échelle régionale. Les régions continentales et insulaires (hors Antarctique) ont ainsi été découpées en 45 régions, et les experts affirment que les records de chaleur et l’augmentation de fréquence des extrêmes chauds que l’on observe ces dernières années dans plus d’une quarantaine de ces régions s’expliquent par le réchauffement climatique.

Enfin, pour la première fois, le rapport est accompagné d’un atlas interactif permettant de visualiser les impacts régionaux attendus au cours du 21ème siècle en termes de chaleur, de pluie, de neige, de sécheresses agricoles, et de niveau de la mer, et ceci en fonction du niveau de réchauffement de 1,5,  2, 3 ou 4°C atteint.

Quelles sont les conséquences du réchauffement climatique en France ?

En France et en Europe centrale, on observe une augmentation des vagues de chaleur qui s’explique très certainement par l’augmentation des concentrations en gaz à effet de serre, car elle a considérablement augmenté leur probabilité d’occurrence. Météo France a fait beaucoup de travaux sur les relevés météorologiques en France. Avant 1989, les vagues de chaleur se limitaient à moins de 2 jours par an en moyenne ; elles se produisent presque 8 jours par an depuis 2000, et même 9,4 jours par an dans la dernière décennie.

Sur le bassin et le pourtour méditerranéen, en plus des records de chaleur, on observe une intensification des précipitations extrêmes liées au réchauffement de la mer qui provoque une augmentation de l’évaporation. À l’autonome, les systèmes nuageux se retrouvent bloqués par les chaînes montagneuses du sud de la France et déversent donc davantage d’eau qu’auparavant. Le climat méditerranéen s’est déjà propagé d’au moins 100 km voire 150 km vers le nord et le nord-ouest depuis une quarantaine d’années, et ce phénomène va visiblement se poursuivre.

Le recul de l’enneigement en France semble également net, il s’accélère et va se poursuivre. La neige va tomber de moins en moins souvent, à plus haute altitude, et on observera une fonte généralisée des surfaces glaciaires d’altitude.

Les massifs forestiers seront de plus en plus exposés aux risques d’incendie. Face aux sécheresses accumulées, dues au manque de précipitations et à l’évaporation plus importante des sols car ils se réchauffent, un certain nombre d’espèces d’arbres meurent dans tous nos massifs forestiers, ce qui les expose davantage aux départs de feu.

Pour quelle raison ce rapport fait-il davantage mention du méthane ?

C’est le deuxième gaz à effet de serre après le CO2. Sa concentration dans l’atmosphère est beaucoup plus faible et il a un temps de résidence plus court mais par contre il se révèle bien plus réchauffant que le CO2 à quantité égale.

Les auteurs en parlent beaucoup car il joue aussi un rôle important dans la chimie atmosphérique. Ses émissions ont contribué à l’augmentation de la pollution par l’ozone, qui est aussi un gaz à effet de serre. Pour la première fois, les scénarios socio-économiques traitent de façon cohérente à la fois les émissions des gaz à effet de serre et des polluants responsables de la qualité de l’air que nous respirons. Les particules de pollution sont bénéfiques pour le climat car elles limitent l’effet de serre, mais elles ont des effets très négatifs sur la santé humaine. Les experts ont considéré qu’il est vraisemblable que les gouvernements vont continuer à prendre des mesures pour diminuer la pollution particulaire. Du coup, sa capacité à atténuer l’effet de serre va diminuer. Réduire les émissions de méthane permettrait de compenser cet effet.

Un bolide conçu par l’IA et assemblé par des robots

La voiture ressemble à un vaisseau spatial avec des ailes avant et arrière massives, un cockpit en forme de bulle inspiré des avions de combat et un aileron arrière géant. Ce véhicule intègre un V8 biturbo, deux moteurs électriques (batteries au lithium-titanate à chargement rapide pour les roues avant) et un troisième moteur électrique fonctionnant comme un générateur (pour s’assurer que les batteries sont chargées).

Résultat, le 0 à 100 km/h ne demande que 1,9 seconde et la vitesse de pointe est de 452 km/h. Ce bolide de 1 250 chevaux sera limité à 80 exemplaires. Son prix : 1,7 million de dollars.

Mais au-delà de ses caractéristiques techniques impressionnantes, c’est sa fabrication qui est originale. Pour créer cette voiture haute performance, Czinger a eu recours à diverses technologies de fabrication additive et à l’intelligence artificielle.

Afin d’être à la fois très léger et résistant, chaque composant en aluminium, en titane ou en Inconel (un super alliage à base de nickel produit par l’entreprise Special Metals) a été conçu virtuellement à l’aide d’un logiciel de conception automatisé basé sur l’IA. Ce système a respecté des contraintes très spécifiques qui incluent le poids, la résistance, la taille, le matériau et les points de montage.

Assemblage par des robots

Libérées des contraintes de conception conventionnelles, certaines pièces finissent par avoir un aspect assez inhabituel. Par exemple, le cockpit ressemble à celui d’une Formule 1. Étant donné la complexité de la conception de ces pièces, Czinger s’est tourné vers l’impression 3D, et plus précisément le frittage sélectif par laser (SLS). Ce procédé utilise un laser pour solidifier (ou fritter) du métal en poudre couche par couche. L’utilisation du SLS par Czinger est révolutionnaire dans le secteur automobile, mais pas pour la maison mère de ce constructeur.

copyright : Czinger

Divergent 3D est spécialisé dans la fabrication additive pour l’industrie automobile et a travaillé avec SLM solutions, un fabricant d’imprimantes 3D industrielles, dans le cadre d’un partenariat de développement conjoint pour mettre au point des technologies d’impression de nouvelle génération. Elles ont développé la NXG XII 600, une machine équipée de 12 lasers d’un kilowatt pouvant fonctionner simultanément et d’un nouveau système optique.

Autre innovation : pour l’assemblage, Czinger n’a pas recours à une chaîne de montage classique. La 21C est assemblée par des robots dans un endroit central. Certains bras tiennent et positionnent le châssis tandis que d’autres y fixent des composants, le tout sans supervision humaine.

La 21C devrait être homologuée pour la route en 2022.

Certains modes de production du lithium sont plus durables que d’autres, selon une étude

Le lithium est un composant essentiel des batteries, car on le retrouve dans la plupart des technologies : Li-ion, lithium-fer-phosphate (LFP), lithium-nickel-manganèse-cobalt (NMC) et lithium-polymère (Li-Po).

Le lithium, une ressource abondante dont la demande explose

La montée en puissance des véhicules électriques provoque un accroissement de la demande en modules de batterie. Si à la fin des années 2000 la consommation mondiale de lithium était réservée à des marchés de niche, ce n’est actuellement plus le cas. 75 000 t ont été extraites en 2019 et certaines analyses annoncent que la production pourrait atteindre 170 000 à 215 000 t par an d’ici 2025.

Comment produire du lithium plus vert ?

L’étude parue dans le journal Resources, Conservation & Recycling démontre que la provenance géographique du lithium ainsi que son mode de production ont un effet considérable sur son impact environnemental.

Dans un communiqué de presse, Jarod Kelly, auteur principal de cette étude et expert en ACV explique : « Les résultats montrent que dans le cas de la saumure de lithium et de ses coproduits, la consommation d’énergie et d’eau et les émissions de gaz à effet de serre et de dioxyde de soufre associées peuvent varier considérablement selon la méthode d’allocation des ressources utilisée. »

Les chercheurs de l’Argonne National Laboratory ont ainsi analysé le cycle de vie du lithium extrait de Salar d’Atacama, le plus gros dépôt salin du Chili et l’un des plus importants gisements de lithium du monde. La méthode d’extraction est classique : les sels sont obtenus après évaporation de l’eau, concentration du lithium et purification. Du carbonate et de l’hydroxyde de lithium sont ensuite produits, ce qui consomme de l’énergie et d’autres matériaux. Enfin, ces produits sont expédiés à travers le monde pour fabriquer les matériaux de nos batteries.

Ce mode d’extraction a été comparé avec le mode de production de lithium à partir du minerai de spodumène (un silicate de lithium) provenant d’Australie. Les résultats obtenus indiquent de fortes variations concernant l’impact de la production des produits intermédiaires concentrés : le carbonate de lithium (NMC622) et l’hydroxyde de lithium (NMC811).

Pour une même batterie, ils ont ainsi relevé une différence de 9 % sur les émissions de gaz à effet de serre dans le cas du NMC622 et de 20 % pour le NMC811, selon la provenance du lithium.

Ces différences ont des explications logiques : alors que d’un côté l’énergie solaire est utilisée pour concentrer le lithium chilien, l’extraction du minerai de spodumène nécessite un apport énergétique. Dans le cas du minerai australien, il s’agit principalement d’énergies fossiles : du carburant diesel pour les machines et du charbon pour le raffinage. Par conséquent, si la fabrication d’hydroxyde de lithium à partir du minerai de spodumène utilisait des énergies renouvelables, il est fort probable que l’écart entre les émissions de CO2 se réduirait.

Du lithium en Europe et même en France !

Bien que nos gisements soient plus modestes, nous possédons également, en Europe, des gisements de lithium relativement importants, mais inexploités car ils nécessitent des modes d’extractions qui n’existent pas encore. En effet, l’Association française des professionnels de la géothermie estime qu’on pourrait extraire près de 15 000 t par an, en exploitant les saumures de 10 sites géothermiques alsaciens. Si ces eaux géothermales sont déjà exploitées pour la récupération de chaleur et la production d’électricité décarbonée, elles pourraient également permettre la coproduction de lithium !

Cette étude nous prouve donc une chose : nous avons tout intérêt à explorer de nouveaux modes d’extraction et à améliorer les procédés existants en utilisant au maximum les énergies renouvelables.

Des enveloppes bio-inspirées pour améliorer la performance environnementale des bâtiments

Estelle Cruz, cheffe de projet Habitat bio-inspiré au Ceebios.

Cheffe de projet Habitat bio-inspiré au Ceebios (Centre d’études et d’expertises en biomimétisme), Estelle Cruz a terminé la thèse « Caractérisation multicritère des enveloppes biologiques : Vers le développement d’enveloppes bio-inspirées » dans laquelle elle s’intéresse aux façades des immeubles. Cette thèse a été menée par le laboratoire MECADEV du Muséum d’Histoire Naturelles de Paris et le Ceebios en partenariat avec le groupe cimentier Vicat. Elle revient pour Techniques de l’Ingénieur sur les résultats de son étude.

Techniques de l’Ingénieur : Pourquoi réaliser une thèse qui lie bio-inspiration et façades des bâtiments ?

Estelle Cruz : Je me suis surtout intéressée à l’enveloppe. Au sens large, il s’agit de l’interface entre le milieu extérieur et le milieu intérieur, qui permet de réguler les flux d’énergie, d’information, de température… Chez les animaux, il s’agit par exemple des écailles, des poils, de la peau, des plumes etc. Dans le bâtiment, c’est le rôle de la façade et de la toiture. En lisant la littérature sur le sujet, j’ai constaté que la construction s’intéressait au vivant pour optimiser les bâtiments, mais que c’était souvent les mêmes modèles qui inspiraient les architectes : peau humaine, termitière et pomme de pin. Pourtant, le vivant est riche de propriétés de régulations thermiques, lumineuses, acoustiques, mécaniques… alors pourquoi toujours s’inspirer des mêmes modèles biologiques ? C’est le point de départ de notre recherche : proposer une revue des différentes enveloppes biologiques chez les animaux, plantes et champignons qui existent pour ensuite permettre aux architectes de s’en inspirer en transposant les principes biologiques identifiés.

Que révèle votre thèse ?

Nous sommes partis des typologies d’enveloppes classiques, à savoir peau, poils, plumes, écailles, surfaces végétales, et nous en avons choisi 10 au total. Ensuite, nous avons regardé leurs propriétés de régulation selon 6 paramètres, qui sont les facteurs que doit réguler l’enveloppe d’un bâtiment : air, eau, lumière, chaleur, acoustique et contraintes mécaniques. Nous avons classé les enveloppes en fonction de leur pertinence pour le bâtiment. Cette recherche a révélé qu’aucune d’entre elles ne régule simultanément les 6 facteurs qui nous intéressent pour le bâtiment. Par exemple, les plantes sont très intéressantes en termes de régulation lumineuse et thermique car les bâtiments font face à des contraintes similaires en étant aussi fixés dans le sol. En revanche, elles ne gardent pas constante leur température interne, contrairement aux mammifères. Aujourd’hui, parmi les 30 façades bio-inspirées qui existent, plus de 80 % s’inspirent uniquement d’un seul organisme biologique. Rares sont les architectes qui combinent les principes biologiques de différents organismes alors qu’il y aurait une richesse biologique évidente si on les assemblait !

Quels principes biologiques pourraient inspirer le bâtiment ?

Par exemple, la fourrure d’un mammifère est intéressante pour ses propriétés de régulation de la conductivité thermique suivant les saisons. Les mammifères vivent sous des climats à variations thermiques importantes et perdent leurs poils en été alors que leur fourrure s’épaissit en hiver. Dans un bâtiment, on a également besoin d’évacuer la chaleur l’été et la conserver l’hiver. Les concepteurs pourraient donc imaginer des matériaux à conductivité et épaisseur variables, qui se « gonflent » à certains moments et se « dégonflent » à d’autres. C’est déjà le cas de certains matériaux dits « respirants », type paille ou chanvre, dont les variations de propriétés thermiques pourraient être adaptées pour le bâtiment.

Comment évolue l’utilisation de matériaux bio-inspirés dans le bâtiment ?

Il y a plusieurs dizaines de projets de bâtiments bio-inspirés dans le monde, donc nous ne pouvons pas vraiment parler d’une massification de l’approche pour le moment. Il existe deux manières d’intégrer le biomimétisme au bâtiment. A très court terme, la bio-inspiration nous permet de modifier les pratiques dans la manière de construire. Il est possible de recombiner les systèmes constructifs existants, que le secteur de la construction maîtrise bien, mais de manière innovante. Il y a des exemples de bâtiments emblématiques, comme le Eastgate Center au Zimbabwe qui est inspiré des termitières. Pour cet immeuble, les techniques constructives ont été requestionnées afin de permettre la ventilation passive et ainsi réguler la température de l’immeuble.

Dans un deuxième temps, sur un plus long terme, il serait possible de développer de nouveaux matériaux qui seront réactifs, pourront s’ouvrir ou se fermer en façade etc. Mais tout cela nécessite encore plusieurs années de recherches.

Quels impacts la bio-inspiration peut avoir sur l’environnement ?

En travaillant sur les enveloppes, l’objectif est d’améliorer la performance technique, environnementale et énergétique de la façade pour lui permettre d’évacuer la chaleur ou la capter de manière plus efficace. Plus largement, il y a un objectif de performance environnementale pour limiter l’empreinte carbone des bâtiments. Aujourd’hui, les systèmes de chauffage et de refroidissement ont un coût énergétique important.

Cela étant, tout l’enjeu consiste à faire un aller-retour permanent entre amélioration technique d’un produit et analyse de sa performance globale. Si la performance d’une façade est améliorée mais qu’elle est construite avec des matériaux à haute empreinte environnementale et difficilement recyclable, le résultat ne sera pas satisfaisant. D’où la nécessité d’une analyse complémentaire dite écosystémique dans laquelle on questionne le cycle de vie de la façade et du bâtiment du point de vue du cycle de l’eau, du carbone etc.

Quelle suite voyez-vous à votre thèse ?

Cette thèse de recherche appliquée a permis le développement d’outils qui sont en train d’être mis en œuvre dans le cadre d’accompagnement de la maîtrise d’œuvre pour faciliter le développement de façades bio-inspirées. Une autre thèse de recherche appliquée est en cours au sein de Nobatek/INEF4 et l’I2M à Bordeaux et porte sur la construction d’un prototype bio-inspiré dont les phases de conception se sont appuyées sur l’utilisation des outils révélés dans ma thèse.

Méditerranée : un bilan rassurant de la contamination chimique côtière mais la vigilance reste de mise

Le rapport  « 20 ans de suivi de la contamination chimique des eaux côtières méditerranéennes : résultats et perspectives », portant sur la période 1998-2018, se veut rassurant. « 90 % des points suivis présentent des niveaux de contamination en dessous des seuils réglementaires environnementaux », estime ainsi l’Ifremer dans un communiqué.  « Notre stratégie s’appuie sur plusieurs réseaux opérés par l’Ifremer parmi lesquels le RINBIO, explique François Houllier, PDG de l’Ifremer. Ce réseau est unique de par la finesse de son maillage avec une centaine de stations disséminées sur la façade. »

Le protocole de surveillance porte notamment sur les sédiments, les moules et les poissons. En particulier, pour leur dernière campagne, les chercheurs ont traqué 65 contaminants grâce à des stations artificielles de moules placées sur 70 points situés en mer et 20 dans les lagunes méditerranéennes. Les moules sont utilisées par les chercheurs comme bio-indicateurs de la pollution des eaux.

Des « points de vigilance » à surveiller

Des « points de vigilance » demeurent près des métropoles pour l’Ifremer et l’agence de l’eau. Le rapport évoque notamment le cas de Marseille, Toulon, Nice, Villefranche et Bonifacio. Les niveaux de contamination des sédiments y dépassent les seuils réglementaires pour plusieurs substances. C’est par exemple le cas du plomb et des hydrocarbures aromatiques polycycliques (HAP), en lien avec les activités humaines comme les transports, l’activité maritime et portuaire ou encore les raffineries. Le secteur de l’émissaire de la ville de Marseille (Cortiou), la petite rade de Toulon, le secteur de la baie de Nice et la rade de Villefranche ainsi que le goulet de Bonifacio connaissent des concentrations élevées en un ou plusieurs autres métaux dans les sédiments : cuivre, zinc et cadmium.

La vigilance reste également de mise près d’anciens sites industriels. Le Cap Corse connaît par exemple toujours une pollution au nickel, héritée de l’ancienne mine d’amiante de Canari. « Des millions de tonnes de nickel et de chrome jetés à la mer continuent de polluer cette zone, partage Marc Bouchoucha, biologiste au centre Ifremer de Méditerranée. 98 % des larves d’huître observées y sont mal formées », prévient-il.

La Méditerranée connaît également une pollution particulière au mercure et aux PCB. Les teneurs de PCB restent particulièrement élevées à proximité des secteurs de Fos-sur-Mer, de Marseille et dans la rade de Toulon. La région PACA est plus particulièrement concernée. L’ensemble des stations entre Marseille et Toulon ainsi que les stations Rade de Villefranche, Golo, Bonifacio et Figari-Bruzzi présentent des valeurs en mercure dans les sédiments trop élevées.

 L’accumulation dans la chaîne alimentaire inquiète particulièrement les deux organismes. « Plus de 65 % des roussettes pêchées à la côte et 85 % de sébastes prélevés au large présentent des niveaux de mercure supérieurs au seuil réglementaire sanitaire », partage l’Ifremer.

Traquer les contaminants émergents

Durant leur dernière campagne, la SuchiMed, achevée le 7 juillet 2021, les scientifiques ont traqué la présence de métaux lourds et polluants organiques, mais aussi de contaminants émergents comme les produits pharmaceutiques et certains détergents. « Connaître l’état chimique des eaux côtières est l’objectif premier de ces campagnes en mer pour répondre aux objectifs réglementaires des directives-cadres européennes sur l’eau (DCE) et stratégie pour le milieu marin (DCSMM) et de la Convention de Barcelone, souligne Marc Bouchoucha. Mais il est essentiel de mettre ce temps et ces moyens d’exploration au service d’autres problématiques comme les plastiques, la surpêche, le changement climatique… Car tous ces maux se cumulent et affectent la santé de la mer. »

Les travaux de l’Institut Méditerranéen d’Océanologie (Aix-Marseille Université) portent pour cette campagne sur le transfert des contaminants du plancton aux poissons. Leurs résultats pourraient permettre de renforcer le protocole actuel de surveillance avec de nouvelles espèces sentinelles.

Création d’une nouvelle filière de recyclage des batteries de véhicules électriques

Spécialisé dans la maîtrise du cycle du combustible nucléaire, Orano (ex-Areva) possède également un savoir-faire et des technologies pour appliquer le recyclage à d’autres domaines. L’entreprise vient de s’associer à plusieurs partenaires afin de tester un nouveau procédé de recyclage des métaux contenus dans les batteries des véhicules électriques. L’objectif du consortium d’industriels français créé est de mettre en place une nouvelle filière de recyclage, basée sur un ensemble de technologies en rupture avec les procédés existants, et permettant la valorisation de l’ensemble des matières issues des batteries lithium-ion. Ce projet baptisé RECYVABAT doit se concrétiser par la fabrication de nouveaux matériaux de cathodes et développer un procédé avec une empreinte environnementale réduite, c’est-à-dire peu énergivore et offrant un taux de recyclage élevé.

L’ensemble des partenaires réunis va permettre la maîtrise de toute la chaîne de valeur du recyclage. Ainsi, la collecte et le démantèlement des packs de batteries seront assurés par Paprec. La préparation des matériaux sera quant à elle réalisée grâce aux équipements de MTB Manufacturing. À Bessines-sur-Gartempe (Haute-Vienne), Orano va construire deux pilotes au CIME (Centre d’innovation en métallurgie extractive), un site du groupe doté de capacités technologiques et opérationnelles pour extraire et purifier les matières contenues dans les batteries. Un premier pilote de prétraitement permettra de séparer les différents constituants en deux avec d’un côté la matière concentrée en un mélange de métaux (lithium, cobalt, nickel…) et de l’autre les éléments tels que les plastiques, les matières ferreuses…. Le second pilote hydrométallurgique aura pour objectif de purifier et récupérer séparément les matériaux comme le lithium, le nickel, le cobalt et le manganèse.

Ces matériaux purifiés seront ensuite envoyés au CEA pour la fabrication de matériaux de cathode, puis testés par l’entreprise SAFT à Angoulême afin de s’assurer qu’ils conviennent à la fabrication de nouvelles batteries. Ce projet s’inscrit dans une véritable démarche d’économie circulaire. En plus des matériaux déjà cités, il est prévu de récupérer le graphite, le cuivre, l’aluminium, les matières ferreuses, les plastiques, les séparateurs et le casing des batteries ainsi que l’électrolyte.

Des tensions sur la disponibilité et les prix du lithium et du cobalt

L’autre objectif poursuivi par ce projet est d’assurer l’indépendance de la filière française vis-à-vis des producteurs de métaux critiques. Selon le groupe Orano, le marché des batteries amplifie les besoins en métaux critiques, au point qu’à partir de 2030 il est prévu que plus de 50 % de la production mondiale de lithium et de cobalt sera captée par ce marché, pouvant entraîner des tensions au niveau de la disponibilité et des prix. « Le recyclage des batteries pourrait alors devenir une source majeure de matériaux critiques nécessaires au développement d’une filière électrique nationale et européenne, assurant ainsi son indépendance vis-à-vis des pays producteurs de métaux », déclare l’entreprise.

Les tests des procédés de recyclage sur les deux pilotes doivent s’échelonner de 2021 à 2023. Ils devraient permettre le traitement de l’équivalent de 300 tonnes de batteries par an. Si ces tests se révèlent concluants, l’exploitation industrielle du procédé pourrait être opérationnelle dès 2024 ou 2025. Et à l’horizon 2030, l’objectif serait le recyclage de plus de 10 000 tonnes de batteries de véhicules électriques. Grâce à ce recyclage, le consortium pourrait alors traiter l’équivalent de 9 à 12 000 tonnes de matériaux nécessaires à la fabrication d’électrodes positives dans son usine hydrométallurgique. Selon Orano, la première installation industrielle devrait pouvoir traiter l’équivalent de 40 % du marché européen estimé en 2030.

Répondant à des enjeux dans le domaine de la transition écologique, ce projet correspond aux critères du plan de relance initié par le gouvernement ainsi qu’à la feuille de route des projets soutenus par la Région Nouvelle-Aquitaine. Il bénéficiera de deux subventions, l’une de 6,1 millions d’euros au titre du plan de relance et une autre de 334 000 euros de la Région Nouvelle-Aquitaine.

ZFE : la mobilité bientôt encadrée dans les grandes agglomérations

La loi Climat & Résilience entérine la généralisation des zones à faibles émissions mobilité (ZFE-m) pour les agglomérations métropolitaines de plus de 150 000 habitants. Cette disposition entraîne le déploiement de 33 nouvelles ZFE-m d’ici fin 2024. Les communes devront y interdire ou limiter la circulation de certains véhicules, en fonction de leur certificat Crit’Air. Charge aux communes de fixer les périodes où la circulation est restreinte, ainsi que les types de véhicules concernés.

Dans les dix métropoles qui enregistrent régulièrement des épisodes de pollution de l’air – Paris, Lyon, Grenoble, Marseille, Nice, Toulon, Toulouse, Montpellier, Strasbourg, Rouen –, la loi prévoit d’uniformiser ces interdictions de circulation. Elles devront a minima interdire les véhicules essence et diesel Crit’air 5 dès 2023, puis les véhicules Crit’air 4 en 2024 et enfin les véhicules Crit’Air 3 en 2025.

En 2024, il n’y aura plus de diesel dans le Grand Paris

L’interdiction des Crit’Air 5 est déjà déployée en Ile-de-France depuis 2019 et l’interdiction des véhicules diesel Crit’Air 4 depuis juin 2021. Ces véhicules n’ont plus le droit de circuler du lundi au vendredi de 8h à 20h dans tout le territoire de la métropole du Grand Paris. Les bus et poids lourds Crit’Air 4 sont quant à eux interdits 7 jours sur 7, de 8h à 20h. L’interdiction des véhicules disesel Cri’Air 3 sera déployée obligatoirement en juillet 2022 en Ile-De-France. En janvier 2024, les véhicules Crit’Air 2 seront également interdits de circuler en Ile-De-France. Ainsi, tous les véhicules diesel seront bannis de la métropole du Grand Paris.

Le maire de Grenoble Eric Piolle souhaite aller plus vite que la loi Climat et défend la mise en place de la ZFE dès 2022. Mais alors que le Sénat voulait retarder la mise en place des ZFE-m à 2030, la Fédération Nationale de l’Automobile (FNA) appelle les collectivités locales à ne pas anticiper les dates limites fixées par la loi.

Une aide pour les plus modestes

En attendant, la FNA calcule que les ZFE pourraient concerner plus de 10 millions de véhicules. Afin d’aider les ménages les plus modestes vivant dans ces ZFE-m, la loi prévoit l’expérimentation d’un prêt à taux zéro. À partir de 2023 et durant deux ans, l’expérimentation les aidera à financer leur changement de véhicule. Ce prêt à taux zéro viendra en complément des aides existantes, notamment de la prime à la conversion et du bonus écologique.

La loi prévoit des dérogations de circulation pour certaines catégories de véhicules d’intervention, comme les véhicules de dépannage-remorquage, ainsi que pour des déplacements pour « motifs légitimes » pour lesquels des dérogations individuelles pourront être accordées. Ces dérogations devront être prévues par des textes réglementaires s’imposant de fait à l’ensemble des ZFE mises en place.

Les Jeux olympiques sont-ils durables ?

Alors que le rideau se baissera dimanche, les JO de Tokyo se targuent d’ores et déjà d’être l’un des événements olympiques les plus « verts » jamais organisés. Et tandis que les plus passionnés d’entre nous attendent avec fébrilité le classement final des médailles, du côté de Techniques de l’Ingénieur, nous nous impatientons tout autant de la lecture d’un rapport tout autre : le bilan définitif des émissions de gaz à effet de serre. 

Dans leur rapport prévisionnel sur la durabilité des Jeux de Tokyo 2020 (dont un résumé est consultable ici), publié en avril 2020, les organisateurs avaient mis en avant les objectifs notables suivants, en termes de chiffres : 

  • Zéro gaspillage ;
  • 100 % d’électricité générée par les énergies renouvelables ;
  • 99 % des biens achetés seront recyclés ou réutilisés ; 
  • 65 % des déchets seront recyclés ou réemployés.

Grâce aux mesures prises, une réduction de l’empreinte carbone de 280 000 tonnes de CO2 serait possible (sans aucune mesure prise, l’empreinte carbone s’élèverait à 3 010 000 tonnes de CO2). Comme l’indique Euronews, ce chiffre est revu à la hausse dans une mise à jour du rapport parue en juillet 2021. Avec l’interdiction d’entrée au Japon de spectateurs étrangers, compte tenu de la pandémie de Covid-19, la réduction des émissions de CO2 est finalement estimée à 340 000 tonnes.  

Quant aux réalisations faites pour atteindre ces buts, on notera :

  • La mise en service de 500 véhicules électriques à pile combustible ; 
  • La fabrication de 5 000 médailles à partir d’objets électroniques recyclés ;  
  • Alors qu’un total de 43 sites est utilisé dans les différentes compétitions sportives, 10 sont temporaires, seulement 8 ont été construits spécialement pour les Jeux Olympiques et seront permanents (en vue d’être réutilisés ; c’est le cas par exemple de l’Ariake Arena ou encore du Kasai Canoe Slalom Centre), et 25 sont réutilisés (parmi ceux-ci, cinq avaient déjà été utilisés aux JO de Tokyo de 1964) ; 
  • Sur les 8 nouveaux sites sportifs, 37 540 arbres ont été conservés ; 
  • Au village olympique, l’opération BATON (« Building Athletes’ village with Timber Of the Nation ») a été menée à bien au « Village Plaza », un bâtiment situé à l’entrée du village : sa structure en bois, une architecture de style traditionnel japonais, garantit une climatisation naturelle ; 
  • D’autres manœuvres sont d’ordre social, comme promouvoir l’égalité homme-femme et la diversité au sein des équipes organisatrices et des groupes de volontaires. 

Sans oublier, comme le rappelle Euronews, que le village olympique de Tokyo 2020, qui accueille 11 000 athlètes, et dont la production d’électricité et d’eau chaude se fait à l’hydrogène, sera converti en appartements résidentiels, en boutiques, mais aussi une école, ainsi que d’autres aménagements.    

Concrètement, où en sommes-nous ?  

À la lecture de ces lignes, on pourrait s’imaginer que c’est gagné, : ça y est, les JO sont durables. Mais en portant un regard macroscopique sur les JO successifs, on se rend compte d’une réalité bien plus ambiguë. Dans une étude publiée dans Nature le 19 avril 2021, menée par des chercheurs des Universités de Lausanne, de Berne, et de New York, la durabilité des 16 jeux olympiques d’été et d’hiver organisés entre 1992 et 2020, a été passée au crible. 

D’emblée, l’étude, qui désigne les Jeux olympiques comme étant des « méga-projets urbains », signale une problématique majeure : « Alors que les Jeux olympiques se proclament exemplaires sur le plan de la durabilité, et aspirent à inspirer l’avènement d’avenirs durables à travers le monde, il n’existe pas d’évaluation systématique de leur durabilité ». Et d’argumenter : « En ce qui concerne les Jeux Olympiques et plus généralement tous les méga-événements, la durabilité repose encore sur un concept vague. Les Jeux olympiques prétendent tous être durables, mais aucun de ces événements n’a pu établir une définition ou un modèle cohérents sur la base desquels réaliser une évaluation indépendante ».

L’équipe de recherche propose alors de combler cette carence en développant « une définition et un modèle conceptuel pour la durabilité des Jeux olympiques ». Les Jeux olympiques sont définis comme étant « durables » lorsqu’ils remplissent les critères suivants : une empreinte écologique et matérielle limitée, une justice sociale renforcée et une efficacité économique démontrée. Quant au modèle conçu, celui-ci est constitué de 9 indicateurs distincts, variant entre dimensions écologique, sociale et économique : 

  • 3 indicateurs écologiques : la proportion de sites sportifs nouvellement construits, le nombre de billets vendus, et le nombre d’accréditations accordées ; 
  • 3 indicateurs sociaux : le soutien public reçu, le déplacement de la population, et les modifications législatives ; 
  • 3 indicateurs économiques : le dépassement des coûts prévus, la part de financement public, et l’utilisation ultérieure des sites olympiques. 

Les mesures sont suivies par le calcul d’un score total, sur 100, pour chaque JO. Contre toute attente, les résultats pointent vers une tendance à la baisse : avec le temps, les JO seraient de moins en moins durables ! Ainsi, en dépit d’un discours pro-durabilité de plus en plus affiché pendant cette dernière décennie, les JO d’hiver de Sochi 2014 et les JO d’été de Rio de Janeiro 2016 seraient les mauvais élèves, derniers du classement. Tokyo 2020 les précède, et serait en troisième place à partir du bas.

Attention toutefois, certaines des données pour cet événement en cours sont, sans surprise, provisoires : les données analysées datent d’octobre 2020, et certaines pourraient donc être désormais obsolètes. Toujours est-il que l’organisation des JO de Tokyo 2020 aura nécessité le déplacement de plus de 500 résidents. Quant à Rio de Janeiro 2016, tout s’explique par le déplacement d’un grand nombre de résidents, une rare réutilisation des sites olympiques par la suite, ainsi que par des frais trop importants qui dépassent de loin les coûts attendus. Concernant Sochi 2014, cette piètre note (qui place ces JO en dernière position), serait surtout due à une performance économique déplorable (un important dépassement des coûts, ainsi que des sites olympiques très peu réutilisés), à laquelle s’ajoutent de nombreuses nouvelles constructions ainsi qu’un nombre élevé de participants accrédités.

Paradoxalement, sur les trois marches du podium figurent des candidats inattendus : les JO les plus durables seraient ceux de Salt Lake City 2002 (JO d’hiver), avec un score de 71/100, suivis par les JO d’hiver d’Albertville 1992 (69/100), alors que la médaille de bronze irait pour les JO d’été de Barcelone 1992 (56/100). Salt Lake City 2002 étonne particulièrement : ces JO ont suivi le choc du 11 septembre 2001, sans compter qu’ils s’étaient embourbés dans un scandale de corruption lié à leur attribution. Néanmoins, la ville a su assurer une performance remarquable sur le plan économique, avec un risque financier limité, un dépassement des coûts modéré (24 % seulement), et une bonne utilisation ultérieure des sites olympiques. Quant à Albertville 1992, ces JO organisés en France se démarquent sur le plan écologique : alors que plusieurs nouveaux sites ont été bâtis à l’occasion de ces Jeux, l’événement a été de petite taille, avec un nombre de visiteurs et de personnel limité. 

Quelle vision pour la suite ?

Comme toute étude présente des limites, les travaux de recherche que nous venons de détailler ne font pas exception. Les chercheurs rappellent par exemple que ce modèle de durabilité, bien que justifié par une foule d’indicateurs, n’est pas une référence, et reflète un jugement subjectif. En se basant sur ce modèle en particulier, les chercheurs ont su dégager trois mesures, applicables à court-terme, à implémenter afin d’aller vers le sens de la durabilité :

  • Réduire significativement la taille de l’événement, pour diminuer son empreinte matérielle et écologique ;
  • Organiser les Jeux olympiques dans les mêmes villes hôtes, dans une sorte de rotation, afin de limiter le besoin pour de nouvelles infrastructures ; 
  • Et enfin, améliorer la gouvernance en matière de durabilité, afin de mieux responsabiliser les villes organisatrices lorsqu’elles n’atteignent pas leurs objectifs. 

Du côté des parties prenantes, les démarches optimistes entreprises à Tokyo 2020, et dont nous avons listé une partie plus haut, semblent s’inscrire parfaitement dans la stratégie du Comité International Olympique (IOC) qui escompte réduire de 45 % les émissions en gaz à effet de serre des JO d’ici 2030. Avec en ligne de mire un objectif intermédiaire : une réduction de 30 % d’ici 2024. Justement, pour les JO de Paris 2024, l’IOC prévoit une empreinte carbone d’1,5 million de tonnes de CO2, soit la moitié des taux d’émissions moyens enregistrés aux précédents JO d’été. 

Parmi les actions qui seront mobilisées pour concrétiser ces estimations : 95 % des sites olympiques français seront partagés entre sites préexistants et sites temporaires, et les nouveaux sites construits devront être bas-carbone. Une feuille de route ambitieuse ! Pourrons-nous parler d’une véritable durabilité cependant ? D’autres modèles viendront-ils confirmer un réel déclin de la durabilité des JO ? Le temps venu, nous ne manquerons pas d’examiner le bulletin de notes de Paris 2024.   

Un modèle mathématique pour prédire le mouvement des microplastiques dans l’océan

Selon un rapport de la fondation Ellen MacArthur, bien que 80 % des fuites de plastiques dans l’environnement viennent d’Asie faute de systèmes de collecte efficaces, l’Europe et les États-Unis laissent échapper 170 000 tonnes par an de plastique dans les océans, malgré des systèmes de collecte avancés. Réduire de manière drastique les fuites de plastiques vers les systèmes naturels est ainsi un enjeu mondial majeur.

Un mouvement oscillatoire

Si des études ont déjà démontré par le passé que l’encrassement biologique (biofouling) des particules microplastiques par des algues provoquait un déplacement par oscillations sous la surface des océans, cette étude est la première à identifier les processus fondamentaux qui gouvernent les trajectoires.

D’après les travaux publiés en open access dans le journal Limnology And Oceanography, en faisant varier quatre paramètres, les chercheurs ont pu mettre en évidence les principaux facteurs influençant la dynamique du système.

Ils ont ainsi découvert que les propriétés des particules plastiques sont le facteur déterminant la période et les caractéristiques du profil d’oscillation et que la dynamique des populations d’algues détermine la profondeur maximum atteinte.

Par ailleurs, les particules les plus petites semblent être extrêmement sensibles à l’adhérence et à la croissance de cellules alguaires, probablement parce qu’elles sont toujours submergées à des profondeurs qui reçoivent suffisamment de lumière pour que la photosynthèse ait lieu.

Les modèles mathématiques pour mieux comprendre la pollution marine

Les équipes de chercheurs de l’Université de Newcastle n’en sont pas à leur coup d’essai. En 2018, Alethea Mountford, alors étudiante en doctorat, présentait les résultats d’un autre modèle, fonctionnant à partir de la connaissance des principales sources de pollution plastique dans le monde, de leur aptitude à flotter et des courants océaniques.

Les résultats obtenus suggéraient alors l’existence de zones concentrant de grandes quantités de plastiques dans les couches océaniques profondes ainsi que la présence probable d’une plaque de déchets flottant dans le golfe de Guinée. Pire encore, ce modèle donnait alors un chiffre édifiant : 99,99 % du plastique des océans est caché sous la surface et 36 millions de tonnes sont déposées chaque année dans le fond des océans, sous forme de sédiments.

Alors que 90 % des débris plastiques présents en surface sont des microplastiques (taille inférieure à 5 mm), cette nouvelle étude vient donc éclairer un peu plus notre compréhension de ce phénomène extrêmement inquiétant.

Un matériau cristallin à la conductivité thermique extrêmement basse

Alors que 70 % de l’énergie générée dans le monde est perdue sous forme de chaleur, le développement de matériaux plus isolants et de nouvelles barrières thermiques est un enjeu environnemental important.

Un agencement qui repousse les limites des matériaux

Dans les matériaux cristallins, la conductivité thermique minimale est soumise à une limite intrinsèque qui dépend de la dispersion des phonons. Il existe cependant un moyen de repousser cette limite en construisant des empilements multicouches de matériaux cristallins, c’est à dire, en combinant les bons matériaux et en choisissant les interfaces chimiques les plus favorables.

Les travaux, présentés dans le journal Science, par cette équipe de chercheurs franco-britannique démontrent bel et bien que ces limites peuvent être repoussées.

En combinant deux arrangements atomiques différents, BiOCl et Bi2O2Se, ils ont ainsi synthétisé un super réseau cristallin (ou réseau « superlattice ») de formule Bi4O4SeCl2. Ils espéraient alors intuitivement créer un matériau dont les propriétés physiques seraient en quelque sorte une moyenne des deux matériaux de départ. C’est tout l’inverse qui s’est produit.

Vue d’artiste de la structure du Bi4O4SeCl2. Crédit : Université de Liverpool

Des performances inédites

Avec ses deux arrangements combinés, ce nouveau matériau présente une conductivité thermique inférieure à chacun des arrangements atomiques de départ. Ceci met en évidence les synergies qui peuvent être créées par le contrôle chimique de l’arrangement spatial d’interfaces distinctes.

La conductivité thermique du Bi4O4SeCl2 est ainsi inférieure à 0.1 W⋅m-1⋅K-1, à température ambiante, dans la direction de l’empilement, ce qui est peu pour un solide inorganique. À titre de comparaison, ce matériau a une conductivité thermique 1 000 fois plus faible que l’acier et 10 fois plus faible qu’une brique de construction.

Cette découverte montre une nouvelle fois qu’il est possible de repousser les limites des matériaux. Dans un communiqué de presse, le professeur Matt Rosseinsky l’affirme :

« Les implications de cette découverte sont importantes, tant pour la compréhension scientifique fondamentale que pour les applications pratiques dans les dispositifs thermoélectriques de conversion de la chaleur perdue et en tant que revêtement de barrière thermique pour des turbines à gaz plus efficaces. »

Le 2e Plan National Pour la Science Ouverte a été lancé

La loi de programmation de la recherche 2021-2030 fixe l’objectif de 100 % de publications en accès ouvert en 2030. Ces deux Plans Nationaux Pour la Science Ouverte s’inscrivent donc dans un contexte politique particulièrement favorable à l’ouverture de la science.

Qu’est-ce que la science ouverte ?

La science ouverte est tout simplement la diffusion sans entrave des publications scientifiques, mais également de l’ensemble des données de la recherche. Ce concept, qui est l’héritier du mouvement Open Access du début des années 2000, a pour objectif de faire sortir la recherche financée sur fonds publics d’un cadre fermé, dans le but d’augmenter l’efficacité de la recherche scientifique.

Les publications scientifiques en accès ouvert sont ainsi les publications de recherche qui sont mises librement à la disposition du public sur Internet. On distingue deux types d’accès ouvert : l’accès chez l’éditeur et l’accès sur archive ouverte.

Les objectifs politiques actuels en matière de science ouverte sont extrêmement clairs. La ministre Frédérique Vidal l’exprimait déjà lors du lancement du premier PNSO en 2018 : « Je souhaite que la France soit leader dans le domaine de la science ouverte et atteigne, à terme, 100 % de publications scientifiques françaises en accès ouvert. »

Le premier Plan National Pour La Science Ouverte : quel bilan ?

Le premier PNSO a permis plusieurs avancées en matière de science ouverte.

  • Décembre 2018 : lancement du site Ouvrir la sience et première édition du baromètre de la science ouverte.
  • Janvier 2019 : l’accès ouvert aux publications issues des projets de recherche financés par l’ANR est rendu obligatoire.
  • Avril 2019 : création du comité pour la science ouverte.
  • Décembre 2019 : premier appel à projets du Fonds national pour la science ouverte (FNSO) sur la publication et l’édition scientifiques ouvertes.
  • Juillet 2020 : adoption d’un nouveau modèle de financement et de gouvernance pour les archives ouvertes HAL.
  • Novembre 2020 : premier appel à projets du FNSO, avec 22 projets lauréats et 2,6 M€.
  • Mars 2021 : formalisation du nouveau projet de plateforme nationale sur les données de la recherche Recherche Data Gouv.

Beaucoup de chemin a donc été fait et les progrès sont notables. En trois ans, le taux de publications scientifiques françaises en accès ouvert est ainsi passé de 41 % à 56 %. Si vous désirez en apprendre davantage, n’hésitez pas à consulter le bilan complet.

Un deuxième PNSO pour faire de la France un leader en science ouverte

Avec ses 12 mesures, ce second PNSO 2021-2024 vise à faire de la science ouverte une pratique courante. C’est peu dire que les objectifs sont ambitieux, car il s’agit à la fois de :

  • axe 1 : généraliser l’accès ouvert aux publications ;
  • axe 2 : structurer, partager et ouvrir les données de la recherche ;
  • axe 3 : ouvrir et promouvoir les codes sources produits par la recherche ;
  • axe 4 : transformer les pratiques pour faire de la science ouverte le principe par défaut.

Parmi les mesures phares figure le soutien des modèles économiques d’édition en accès ouvert sans frais de publications pour les auteurs (modèle diamant), un modèle économique qui concerne 75 % des revues en accès ouvert. Dans ce modèle diamant, le financement est pris en charge par des états, des universités, des consortiums d’établissements ou d’autres organismes et ne repose ni sur un paiement des auteurs, ni sur une contribution des lecteurs.

Ce deuxième plan prévoit par ailleurs un triplement du budget de la science ouverte, en s’appuyant sur le Programme d’investissement d’avenir et sur le Fonds national pour la science ouverte.

Un baromètre pour suivre l’avancement de la science ouverte

La science ouverte est un sujet aussi complexe que passionnant, dont les enjeux sont aussi bien économiques que scientifiques ou politiques.

Si ces questions vous intéressent, un baromètre concernant l’accès ouvert aux publications est d’ores et déjà disponible sur le site du Ministère de l’Enseignement Supérieur et de la Recherche. Pour le moment, ce baromètre prend uniquement en compte l’accès ouvert aux publications*, mais une extension aux données de la recherche et aux logiciels est actuellement étudiée.

Bien entendu, toutes les données utilisées pour établir ce baromètre français de la science ouverte sont en open data et donc accessibles librement.

L’heure est donc bien à l’ouverture de la recherche française, dans son ensemble. C’est en tout cas l’objectif des pouvoirs publics.

* Publications avec DOI ((Digital Object Identifier) uniquement, fournies majoritairement par Unpaywall.

L’innovation technologique, un accélérateur de développement pour l’Afrique

Ingénieur en informatique industrielle, spécialiste de Génie Logiciel mais également diplômé d’HEC Executive MBA, Rachid Saoui a aussi exercé en tant que consultant et business developement manager pour de grandes entreprises (Cogema/Areva, Thomson, Rational Software, IBM…).

Rachid Saoui, cofondateur d’AME IT.

Par la suite vice-président de HEC Digital, c’est à la suite d’un voyage au Maroc, en association avec plusieurs anciens camarades d’HEC, qu’il a décidé de créer un incubateur de startups au Maroc (dans la région Agadir/Grand-Sud), avec pour ambition d’étendre son activité à toute l’Afrique de l’Ouest à plus long terme. Avec une finalité : créer un réseau d’incubateurs dédiés à l’incubation de startups africaines et les associer avec des incubateurs français. Leur démarche est appuyée par la fédération France Entrepreneurs et son président Thierry Bégaud, l’un des fondateurs de cette initiative, avec d’autres anciens d’HEC, Alain Tassy et Jean-Christophe Long.

La structure française, initialement appelée AME-IT, a pris le nom de Creative-HINT(HINT pour Hub Innovation et Nouvelles Technologies). Leur partenaire local au Maroc est Univers Startup, un incubateur marocain de startups qui accompagne plus de 500 startups dans plus de 15 pays africains. Les projets couvrent des thématiques diverses comme le digital, le tourisme, les produits de la mer, la e-santé, l’IoT, les Telecoms…

Techniques de l’Ingénieur : Quelles sont aujourd’hui les modalités pour développer des activités technologiques innovantes sur le continent africain ?

Rachid Saoui : Pour démarrer en Afrique, il faut d’abord trois facteurs clés de départ :

  • le soutien d’une institution (sponsorship institutionnel), en l’occurence le CRI (centre régional d’investissement) ;
  • l’implication d’un partenaire local bien présent dans le secteur visé (implication financière réelle) ;
  • l’implication de la société civile, a fortiori si l’on a des projets à impact social.

Ensuite, il est important de commencer par développer des projets à haute visibilité et à faible risque : réussir son premier projet est quelque chose de capital pour faciliter la suite.

Aussi, via le réseau France Entrepreneurs, nous avons la possibilité de mobiliser un réseau extrêmement étendu et diversifié en termes de compétences, ce qui est un atout important pour développer des projets compétitifs.

Pourquoi avoir choisi la région Agadir/Souss-Massa, au Maroc, pour développer cette initiative ?

Pour plusieurs raisons : géographiquement c’est le centre du Maroc et par décision royale, il est question d’en faire le centre économique et industriel du pays. Au-delà, l’objectif est de faire de cette région une plateforme d’innovation et d’incubation destinée à rayonner sur l’Afrique de l’Ouest. D’ailleurs, dans son pôle universitaire, cette région regroupe d’ors et déjà des représentants de 38 pays africains.

Quels sont les atouts du continent sur le terrain de l’innovation ?

Ils sont nombreux : une population jeune, une croissance qui fait rêver ailleurs, notamment dans le domaine technologique. L’Afrique n’a pas d’héritage ancien, elle doit faire avec du neuf. On y est passé directement au mobile et aux smartphones, sans étape filaire.

Aussi, certaines innovations africaines ont trouvé leurs applications en Europe et ailleurs, ce qui est assez nouveau. C’est le cas par exemple pour M-Pesa, une start-up kényane qui permet d’opérer des microfinancements et des transferts d’argent par téléphone mobile. 

Le continent a donc les atouts pour développer un écosystème d’innovation qui lui est propre, et attirer les entreprises étrangères, tout en faisant émerger des start-up compétitives, notamment dans le secteurs des nouvelles technologies.

Quelles sont les contraintes à l’innovation qui subsistent encore ?

L’absence de législation adaptée au soutien et à l’encouragement de l’innovation technologique reste un frein important. L’immaturité du législateur dans ce domaine est encore aujourd’hui un obstacle majeur à ce niveau.

Un autre point est la substitution : quand un projet réussit, beaucoup ont tendance à le copier sur la forme mais par sur le fond. C’est particulièrement vrai en Afrique, où certains projets, à force de vouloir copier ce qui marche de manière trop superficielle, sont finalement des coquilles vides.

Quelle est l’évolution de la relation de l’Afrique avec les autres continents dont l’Europe sur les sujets liés à l’innovation ? 

Il n’est plus question d’aborder l’Afrique de haut aujourd’hui. La technologie est plus accessible et le continent dispose de ressources compétentes dans ce domaine.

Prenons l’exemple des technologies logicielles. L’enjeu n’est plus de venir recruter des développeurs pour les emmener ailleurs, comme cela était fait auparavant. Via l’innovation technologique, nous devons être en mesure de proposer à l’Afrique une approche en co-développement et en co-localisation, avec un partage de la chaîne de la valeur entre toutes les entités impliquées dans la création de valeur. C’est l’objet même de Creative-HINT.

Aujourd’hui, nous sommes capables de proposer aux porteurs de projets, en France ou ailleurs, des équipes compétentes et efficaces travaillant selon les standards internationaux pour livrer des logiciels fiables en un temps record. 

Propos recueillis par Pierre Thouverez

Quels sont les modèles d’innovation développés en Afrique ?

Aujourd’hui encore le niveau de développement des pays africains est extrêmement hétérogène. Les progrès technologiques sur le continent ont longtemps été mis en oeuvre par des puissances étrangères au continent, à travers ce que l’on a appelé l’aide au développement. Si cette aide s’est avérée utile pour soutenir le continent et apporter de la manière la plus large possible les briques de développement nécessaires à la vie des populations – eau, alimentation, médecine… – la situation est bien différente aujourd’hui.

En effet, le continent africain dans son ensemble met en place des modèles d’innovations portés, au moins en partie, par les secteurs publics ou privés locaux, et dont la valeur ajoutée créée reste, en grande partie, sur le continent. Cette stratégie est une révolution, quand on pense aux modèles mis en place pendant de longues années sur le continent, qui le rendaient extrêmement dépendant des pays plus développés, notamment européens.

Comme le souligne Makhtar Diop, ancien vice-président de la banque mondiale pour l’Afrique, cette évolution dans la façon d’implémenter les modèles d’innovation répond au besoin des pays composant le continent africain de contrôler leur développement : « Aujourd’hui plus que jamais, les pays africains sont en quête de nouveaux champs de croissance pour s’affranchir des scénarios classiques. Avec sa population jeune et ambitieuse et ses économies solidement engagées sur une trajectoire de croissance, d’investissements et de réformes en faveur de l’innovation, le continent possède tous les atouts – humains, matériels et politiques – pour surmonter les difficultés et être l’instrument de sa propre transformation. »

Pour être l’instrument de sa propre transformation, et tracer un avenir à une population ayant la moyenne d’âge la plus jeune du monde, les pays africains développent des modèles innovants sur trois aspects prioritaires : le financement, le maintien de la valeur ajoutée au niveau du territoire, et la durabilité des mécanismes innovants développés, notamment à travers l’éducation et la formation.

Le développement de l’innovation financière et du financement de l’innovation

Pour trouver des solutions de financements permettant aux jeunes startups du continent de bénéficier des appuis nécessaires à la conduite de projets technologiques innovants et performants, l’innovation financière est un enjeu prioritaire. Ces financements, issus de capitaux privés et des politiques nationales de financement de l’innovation propres à chaque pays du continent, ont subi des bouleversements ces dernières années. Outre le fait que les technologies, comme la blockchain par exemple, permettent une gestion plus saine des transactions financières, l’innovation financière a permis à de nouveaux acteurs de proposer des solutions de crédit et de financement des startups d’un genre nouveau, avec une répartition des efforts entre le secteur public et le secteur privé jamais observée auparavant. Ce qui a permis dans un premier temps au continent dans son ensemble de s’équiper des infrastructures nécessaires à la mise en place d’écosystèmes innovants. Si le financement des infrastructures a été mis à mal par la crise sanitaire actuelle, force est de constater qu’il a résisté tant bien que mal. Car l’Afrique, qui évolue vers le libre échange à travers le développement de la Zeclaf (zone de libre échange continentale africaine), a des objectifs de développement ambitieux, en coopération avec les Nations Unies (à l’horizon 2030) et l’Union Africaine, à l’horizon 2063.

D’ici là, le continent dans son ensemble veut se doter d’infrastructures de transports ferroviaires performantes, de la capacité à produire seul sur son territoire l’ensemble des produits de consommation de base, d’un secteur spatial concurrentiel, d’une université virtuelle, entre autres. Si certains de ces sujets sont déjà dans une phase de développement concrète, la stratégie d’ensemble est établie. A travers des mécanismes de financement performants et durables, le continent s’échine désormais à conserver la valeur créée localement, ce qui lui permet dans le même temps de pérenniser sur des bases saines la formation et l’avenir de sa jeune population.

Par P.T

 

Flotteurs Argo, de la surface à la profondeur

Pour mieux comprendre l’océan, des flotteurs ont été disséminés aux quatre coins de la planète afin de mesurer la température, la salinité, la lumière, le pH, les nitrates, l’oxygène, etc. Il s’agit du programme Argo, impliquant différents pays. Nous avons échangé avec Hervé Claustre, directeur de recherche au Laboratoire d’océanographie de Villefranche, qui travaille sur la partie biologique et chimique, pour détailler les objectifs, résultats et futurs développements de ce programme.

Techniques de l’Ingénieur : Pouvez-vous nous expliquer ce qu’est le programme Argo ?

Hervé Claustre : La mission Argo a été lancée en 1999, essentiellement pour regarder l’évolution de la température et de la salinité de l’océan à l’échelle globale, entre la surface et les deux premiers kilomètres de profondeur. Son objectif était de mettre 3 000 flotteurs dans l’océan mondial. Ce qui a été atteint il y a 8 ou 10 ans. Depuis, les robots se sont spécialisés et améliorés : nous avons l’Argo historique, le Deep Argo pour les profondeurs et le BGC Argo pour mesurer les paramètres biologiques et chimiques. Nous souhaitons avoir 4 000 flotteurs dont 2 000 Argo, 1 000 Deep et 1 000 BCG. Sachant que les deux derniers feront également les mesures de salinité et température sur les deux premiers kilomètres, mais permettront d’aller sur d’autres problématiques comme la santé de l’océan ou son acidification. Beaucoup de pays y participent. Celui qui contribue le plus au programme, c’est les États-Unis.

Comment fonctionne un flotteur ?

Un flotteur-profileur Argo change sa flottabilité grâce à des ballasts – sorte de vessies – à l’intérieur et à l’extérieur de l’engin. Entre les deux, un système hydraulique pompe de l’huile de l’intérieur vers l’extérieur pour faire remonter l’engin, et inversement pour plonger. Ensuite, il est doté d’électronique de contrôle, de capteurs de pression, température, salinité, et d’un système de communication par satellites Argos. Le flotteur reste pendant 9 jours à 1 000 mètres de profondeur ; le 10ème jour, il descend à 2 000 mètres et c’est quand il remonte qu’il va acquérir les données. Quand il arrive en surface, l’antenne permet de prendre un point GPS et c’est à ce moment-là qu’il communique avec le satellite. Mais désormais, c’est de la technologie satellite iridium – la téléphonie par satellite – plus rapide, avec plus de bande passante, qui permet d’envoyer plus de données. Avant, on envoyait les données tous les 10 mètres. Désormais, on peut le faire tous les mètres. Nous avons la possibilité d’envoyer des commandes au robot : « tu vas sortir plus fréquemment » ou encore « tu vas améliorer la résolution verticale de tes mesures : un échantillon tous les mètres au lieu de 10 mètres ». Cela permet de s’adapter à ce qu’on observe, ou si on a prévu une période d’événements, comme au printemps. Maintenant, de plus en plus de flotteurs vont sous la glace. Ils ont un système pour détecter la banquise. Quand elle se forme, la température de l’eau est en dessous du point de congélation de l’eau de mer qui est de -1,8°C. Le robot sait que s’il rencontre des eaux très froides en arrivant à la surface, il ne doit pas remonter. Dans ce cas, il doit se remettre à une profondeur de consigne et stocker les données acquises.

Qu’est-ce qu’apporte la déclinaison Deep ?

La profondeur moyenne de l’océan est de 4 000 mètres environ, sachant que la plus profonde est la fosse des Mariannes avec 11 000 mètres. Mais cette profondeur n’est pas fréquente et très localisée. La déclinaison Deep permet au robot d’aller jusqu’à 6 000 mètres de profondeur. Car, lorsqu’on navigue à 2 000 mètres de profondeur, comme avec les flotteurs classiques, on est frustré de ne pas pouvoir aller plus bas. Et lorsqu’on veut regarder l’impact du changement climatique et l’amortissement de l’excès de chaleur liée à l’effet de serre, ce n’est pas entre 0 et 2 000 m de profondeur qu’on peut l’observer. Et plus le temps passe, plus on commence à en voir les traces dans l’océan plus profond.

Les premiers articles scientifiques sur les profondeurs ont dû paraître il y a deux ans. Les chercheurs avaient commencé à détecter des effets d’augmentation éventuelle dans certaines zones et pas d’autres. Il fallait aussi montrer, au travers de ces études, que la technique est bien opérationnelle. Mais avant d’avoir des résultats généralisables, il faut mettre beaucoup plus de flotteurs. Le programme Deep Argo est encore dans sa phase de développement technologique. Les flotteurs vont jusque 6 000 mètres, mais il faut être sûr que les capteurs embarqués soient suffisamment précis à cette profondeur. La communauté y travaille.

Et qu’en est-il de la déclinaison BGC ?

La déclinaison BGC permet de mesurer, actuellement, la concentration en chlorophylle, un indicateur de présence du phytoplancton. On mesure également la concentration en particules qui donne des indications sur la quantité de carbone organique dans l’océan résultant de la photosynthèse par le phytoplancton. Certains océans peuvent être plus riches que d’autres, et c’est ce que l’on caractérise. Ensuite, nous quantifions la concentration en oxygène. Le phytoplancton en produit, mais l’océan en prend également de l’atmosphère. On mesure le pH pour l’acidification de l’océan. Ce pH diminue à cause de l’augmentation de CO2 dans l’atmosphère dont une partie est absorbée par l’océan. L’acidification a un impact sur les récifs coralliens, mais également sur les activités côtières de production d’espèces à coquille. Ensuite, on a un capteur à nitrate, un engrais naturel dans l’océan. Il apporte l’azote qui permet de fabriquer les protéines de la matière vivante. Ce capteur nous renseigne sur la capacité potentielle d’une zone de l’océan à produire du phytoplancton. Ce dernier a besoin des nitrates provenant des couches profondes de l’océan, et de la lumière de la surface (200 premiers mètres). Et le dernier capteur est celui de la lumière pour regarder la pénétration de la lumière à différentes longueurs d’onde dans l’océan. On définit différentes couches, dont l’euphotique [zone de surface où la lumière pénètre dans les eaux, NDLR] dans laquelle le phytoplancton peut se développer grâce à la photosynthèse.

Que déduire de ces mesures ?

Sur le phytoplancton, on a par exemple beaucoup plus d’informations, et partout dans l’océan. Cela nous permet de faire des généralisations et de réaliser des séries temporelles pour connaître les tendances liées à l’activité humaine. Ensuite, le fait que l’océan soit de plus en plus chaud le rend de plus en plus stratifié. À cause de cette stratification, les couches profondes de l’océan ont de plus en plus de mal à entrer en contact avec l’atmosphère. Progressivement, l’oxygène dans les couches profondes est consommé par les bactéries. C’est ce qu’on appelle la désoxygénation de l’océan. Cela peut potentiellement avoir des impacts sur la vie marine.

De plus, nous mesurons la pénétration de la lumière dans l’eau pour savoir si celle-ci sera arrêtée dans les zones de forte présence de phytoplancton. Si le phytoplancton est nombreux, la lumière pénétrera moins en profondeur que certaines zones océaniques appelées « déserts », comme les zones tropicales peu riches en phytoplancton, donc extrêmement bleues. Alors que dans les eaux proches des côtes, par exemple le long des côtes sud-américaines, les courants froids de l’Antarctique apportent des éléments nutritifs, dont des nitrates, qui remontent à la surface où la lumière est suffisante pour que le phytoplancton se développe. Les eaux sont très vertes en raison de la production de chlorophylle.

Quels sont les futurs développements ?

Je viens de décrocher un gros projet financé par l’Europe pour développer une nouvelle classe de flotteurs pouvant intégrer plus de capteurs. L’un d’entre eux prendra des images pour classer les particules en fonction de leur taille, pour savoir quel type de zooplancton – crustacé ? gélatineux ? – sont dans la zone appelée crépusculaire, la twilight zone. C’est une zone que l’on connaît peu, sous la zone photique – entre 200 et 1 000 m de profondeur. Dans cette zone, les stocks de poissons ou d’animaux avec peu de valeur marchande ont été sous-estimés d’un facteur 10 peut-être, et pourraient à terme devenir une source d’enjeu économique. Ces espèces pourraient servir à la production de farine animale pour l’aquaculture. Ce projet permettra de dresser une sorte d’inventaire en commençant par le déploiement d’une vingtaine de prototypes, avec un objectif de 1 000 flotteurs.

Des collègues développent de leur côté des capteurs qui dérivent des techniques d’ultrason pour les mettre sur la tête de mammifères marins, comme les éléphants de mer. Ces derniers, quand ils plongent pour attraper leurs proies, permettent au capteur de détecter les organismes présents dans la zone. Ce type de capteur est en cours de transformation pour pouvoir ainsi l’intégrer dans Argo. Et puis, d’autres techniques sont en cours de développement pour écouter les sons de l’océan : le vent, la pluie, la communication des mammifères marins, la pollution sonore des bateaux proches des côtes…

Est-ce que vous remontez des échantillons d’eau ?

Non. Ce que nous faisons éventuellement, quand nous déployons le flotteur avec un bateau – souvent océanique – au milieu de l’océan, c’est que nous mettons d’autres instruments à l’eau pour prendre d’autres mesures de référence. Ces dernières nous assurent que nos capteurs de flotteur ont bien été calibrés au moment de leur déploiement.

Participez-vous à d’autres projets ?

Oui, un projet éducatif. Nous avons mis en place un programme « Adopt a float » permettant à une classe de primaire ou collège d’adopter un flotteur et le suivre tout au long de sa campagne scientifique. Le projet contribue à sensibiliser la jeunesse.

Un mois dans l’espace #19

Jeff Bezos et Richard Branson, touristes dans l’espace

L’information a fait les gros titres de la presse et créé quelques polémiques : Richard Branson, PDG de Virgin Galactic, a effectué le 11 juillet dernier un vol qui avait pour finalité de permettre à quelques chanceux de rester quelques minutes en apesanteur dans l’espace. Suite à cela, les passagers se sont posés sans encombre sur Terre :

De son côté, Jeff Bezos, fondateur d’Amazon et officiellement l’homme le plus riche du monde, a participé au premier vol habité organisé par Blue Origin, la société qu’il a fondée. Le vol s’est parfaitement déroulé, avec des images extraordinaires, comme en témoigne la vidéo ci-dessous :

Ces deux performances technologiques, tout aussi impressionnantes qu’attendues, ont eu un écho mondial, et ont également déclenché une polémique : à l’heure où le réchauffement climatique et la nécessité de consommer moins d’énergie fait consensus, le développement du tourisme spatial apparaît pour certains comme un luxe un brin démagogique. Si les estimations varient, on estime qu’il faut consommer 4,5 tonnes de CO2 pour envoyer un passager dans l’espace. Un chiffre astronomique. Virgin Galactic, dans le même temps, a annoncé avoir vendu quelques 600 billet, à 250 000 dollars l’unité : à peine né, le tourisme spatial n’en a pas fini avec les polémiques.

Un premier module retiré de l’ISS

Le 26 juillet dernier, à l’occasion du départ du cargo Progress M-16, un module a été détaché de la station spatiale internationale. Pirs, c’est son nom, est le premier module à subir un tel sort depuis le démarrage de l’assemblage de l’ISS en orbite, en 1998.

Pirs a ainsi laissé sa place pour l’amarrage d’un autre module, Nauka, qui s’est déroulé quelques heures plus tard, avec une surprise : en effet, suite à l’amarrage du nouveau module sur l’ISS, les moteurs de ce petit dernier se sont allumés, obligeant les cosmonautes à allumer d’autres moteurs sur l’ISS, pour compenser cette mise en route imprévue et garder l’ISS sur son orbite. La Nasa a expliqué via Twitter que  « les propulseurs ont commencé à fonctionner (…) de manière inattendue et par inadvertance, déplaçant la station de 45 degrés hors de sa position. Les opérations de redressement l’ont replacée dans sa position [initiale] et l’équipage n’est pas en danger. L’allumage des propulseurs a cessé et la perte de position a été arrêtée. La station est de nouveau à la position prévue ».

Voici l’amarrage de Nauka en vidéo (l’amarrage a lieu à la 54ème minute) :

Ingenuity parcourt un kilomètre sur mars

L’hélicoptère de la Nasa, qui fait sensation sur Mars depuis quelques mois, a battu un nouveau record la 24 juillet dernier. Pour son dixième vol, Ingenuity a volé à 12 mètres d’altitude, une première, sur une distance d’ 1,6 kilomètres, ce qui constitue également un  nouveau record.

L’ombre d’Ingenuity à l’occasion de son dixième vol. ©Nasa

L’engin a survolé la région martienne de Raised Ridges, que pourrait bientôt découvrir Perseverance, le module qui parcourt la planète rouge depuis le sol. Ce dernier est également au travail, et a même créé de l’oxygène il y a quelques jours !

Pour Ingenuity, qui devait au départ n’effectuer que 5 vols, le succès est total, et la Nasa prépare désormais le 11ème vol de l’aéronef, qui constituera un nouveau record du genre. Un de plus.

Image de une : le module PIRS a été retiré de l’ISS ©Nasa

L’océan, entre connu et inconnues

L’océan joue un rôle important dans le système climatique : pompe à carbone (CO2), redistribution et stockage de chaleur. Il joue notamment le rôle de gros thermostat du climat en lissant les modulations climatiques. Il est d’autant plus un acteur crucial de la lutte contre le réchauffement climatique. De plus en plus de données permettent aux scientifiques de comprendre l’océan, mais de grandes inconnues restent encore à découvrir. Techniques de l’ingénieur vous propose de faire le point sur ce que l’on connaît de cette grande étendue d’eau, avec Juliette Mignot, océanographe à l’Institut de recherche pour le développement, et membre du laboratoire LOCEAN (CNRS/IRD/MNHN/Sorbonnes Universités).

Techniques de l’ingénieur : Quel est le rôle de l’océan dans un contexte de réchauffement climatique ?

Juliette Mignot : L’océan est notre allié dans la lutte contre le réchauffement climatique. Il absorbe environ 90 % de l’excès de chaleur généré sous l’effet de serre anthropique. Une très grande partie de la chaleur due au CO2 que l’on met dans l’atmosphère va donc dans les profondeurs de l’océan. Cela signifie que le réchauffement actuel est largement atténué par l’océan. Et c’est d’ailleurs l’un des graves dangers car une partie de ce réchauffement est cachée par l’inertie thermique de l’eau : la chaleur stockée va être plus lente à réémerger que celle de l’atmosphère. En plus d’atténuer la chaleur, il absorbe également entre 25 et 30 % du dioxyde de carbone qu’on émet, par des jeux d’équilibre chimique à l’interface terre-mer. Le CO2 émis, c’est environ 50 % qui restent dans l’atmosphère contribuant ainsi à l’effet de serre anthropique, 25 % absorbé par la biosphère terrestre et 25 % par l’océan.

Qu’est-ce que cela signifie ?

Même si on réduit dès demain drastiquement les émissions de gaz à effet de serre, cet excès de chaleur mettra des décennies à se résorber. C’est-à-dire que nous aurions encore des conséquences pendant de nombreuses années, le temps que toute cette chaleur stockée dans l’océan se disperse.

L’océan est un allié, mais à quel prix ?

En effet, il ne le fait pas à moindre coût… D’une façon générale, sans changement climatique, l’océan a tendance à être plus chaud en surface, avec des eaux plus légères en surface et plus denses en profondeur. Le fait de réchauffer l’océan par la surface va contribuer à stratifier l’océan. Et plus on le réchauffe, plus on augmente cette stratification, et plus on l’augmente, plus les échanges entre surface et océan profond vont être compliqués car il faut plus d’énergie pour réussir à mélanger les eaux. Il est donc plus difficile d’injecter la chaleur, mais aussi toutes sortes d’éléments chimiques et biochimiques, en profondeur.

Quel est l’impact ?

Ces échanges sont fondamentaux pour la vie marine. Le cycle de vie marine entre la surface et le fond de l’océan est altéré à cause de cette intensification du réchauffement à la surface de l’océan. Il faut intégrer de la chaleur vers le fond, mélanger l’océan, pour faire pénétrer l’oxygène dans les eaux profondes et faire remonter les nutriments vers la surface. Ensuite d’un point de vue purement chimique, l’océan va s’acidifier. Le CO2 qui pénètre à l’interface terre-mer, une fois dans l’eau, ne reste pas sous forme carbone. Il passe sous forme ionique HCO3-, un ion acide, et déplace l’équilibre acide-base naturel de l’océan vers l’acidité. Depuis qu’on observe le changement climatique, on constate l’acidification. Et ceux qui en souffrent le plus sont les coraux, très sensibles à l’équilibre chimique. Un autre effet est l’élévation du niveau de la mer. L’océan étant plus chaud, il va se dilater et va augmenter son volume. Enfin, on altère la dynamique de l’océan, l’intensité, la direction et les propriétés de certains courants marins. Or, ceux-ci jouent un rôle indispensable en termes de redistribution de la chaleur reçue du soleil à la surface de la Terre.

On mesure quelques changements, mais que reste-t-il à apprendre ?

À l’heure des super technologies et des satellites, difficile de se rendre compte qu’en dessous de 5 cm de l’océan, les mesures ne peuvent se faire qu’avec des capteurs in situ. Et on a de plus en plus de moyens automatisés pour aller sous cette couche de surface, dont le programme Argo et ses 4 000 flotteurs dans tout l’océan. Ce n’est pas beaucoup comparé au volume de l’océan. Surtout que l’intérieur de l’océan est compliqué à observer et demande beaucoup de moyens. Même si nous avons des bons moyens, une des grandes inconnues est de pouvoir mesurer l’océan intérieur, pas forcément profond, pour pouvoir bien quantifier cette augmentation de chaleur, les changements dans les écosystèmes, les rétroactions locales, etc.

Quelles sont les limites de ces technologies ?

Les modifications des courants marins, par exemple, sont difficiles à mesurer. Ces courants marins contribuent à la redistribution de la chaleur des tropiques vers les hautes latitudes : c’est la circulation thermohaline. Dans deux ou trois endroits dans le monde, notamment en Atlantique où ces courants sont importants, nous avons des mesures quasi continues, mais seulement depuis une vingtaine d’années. Difficile d’avoir du recul. Et connaître le passé, le présent et le futur de cette circulation océanique et si elle va ralentir, est fondamental pour mieux comprendre ce qui nous attend, les éventuelles rétroactions, et comprendre le système.

Est-ce un problème de technique ou de moyens ?

C’est un problème de moyens oui, car si on en avait la possibilité, on mettrait plus de capteurs. Cependant, le but n’est pas non plus de couvrir l’océan de capteurs, car il faut faire attention également à l’ingérence qu’ils pourraient provoquer. Et puis c’est également un problème technique dû au système difficile à observer. Ce sont des problèmes inhérents au système observé. D’ailleurs, si on avait discuté il y a dix ans, je vous aurais dit que même en surface, il existe des variables que nous ne savons pas observer en continu, comme la salinité. Une variable importante dans l’océan. Maintenant, cela fait une dizaine d’années qu’on observe bien la salinité avec les satellites, la température depuis les années 60 et la glace de mer depuis les années 70.

On imagine d’autres développements de satellites qui le permettront…

On peut effectivement espérer des développements qui nous permettront d’aller sous la surface de l’océan avec les satellites. Actuellement, il est compliqué d’avoir un rayon capable de traiter tout ce qu’il rencontre sur son chemin dans l’océan et de renvoyer ensuite l’information au satellite. Notamment pour fournir une température de l’océan profond, cela demanderait un rayon hypercomplexe bien différent du rayon dans l’atmosphère et dans l’océan. Les questions de la mesure des courants marins par satellite, même en surface, ne sont pas, elles non plus, résolues actuellement, malgré de belles avancées sur la télédétection des vagues et des courants liés aux modulations de la surface de la mer.

L’utilisation de la modélisation vous aide à avancer vers une meilleure connaissance ?

La modélisation nous aide à plusieurs points de vue. Pour progresser sur la compréhension de l’océan, on réalise des simulations océaniques par exemple à très haute résolution spatiale et temporelle, nous permettant de comprendre la dynamique des tourbillons océaniques et leur interaction avec les courants. Pour comprendre le fonctionnement du système climatique, on préfère souvent privilégier des simulations moins précises spatialement mais qui peuvent être très longues, et intégrer des interactions avec d’autres compartiments du système climatique (océan, atmosphère, etc.). Nous avons également tout un pan de recherches, de techniques de modélisation, de processus, de techniques d’intelligence artificielle pour apprendre, sur des modèles très fins comme un modèle de turbulence océanique, l’effet de celle-ci à grande échelle qu’on va ensuite injecter dans des modèles de climat. Il reste beaucoup de challenges. Nous allons vers l’inconnu. Nous sommes en train de faire une expérience à grandeur humaine, et nous ne pourrons pas revenir en arrière.

COP26 : au Jour du Dépassement, 100 Jours de Possibilité

Aujourd’hui, c’est le fameux « jour du dépassement ». À compter de ce jeudi 29 juillet, l’humanité hypothèque sa planète. Alors que la pandémie avait retardé ce jour de trois semaines, au 22 août en 2020, il revient au niveau de 2019, calcule l’ONG américaine Global Footprint Network. Cette année, il faudrait donc 1,7 Terre pour répondre durablement aux besoins de la population mondiale.

100 Jours de Possibilité pour rééquilibrer la planète

Le Global Footprint Network, l’Agence écossaise de protection de l’environnement et Schneider Electric lancent ce jour 100 Days of Possibility (100 Jours de Possibilité) à l’approche de la COP26. Cette initiative présente des solutions éprouvées et reproductibles à grande échelle, dans tous les secteurs de l’économie et mobilisables par chaque pays, ville ou entreprise. Objectif : équilibrer l’empreinte écologique de l’humanité et les ressources biologiques que les écosystèmes naturels de la planète peuvent régénérer durablement de façon à faire reculer le jour du dépassement.

« Il nous faut accélérer de trois à cinq fois les initiatives pour réduire les émissions de CO2 en vue de respecter la trajectoire de 1,5°C de l’Accord de Paris », souligne Olivier Blum, directeur général stratégie & développement durable Schneider Electric, cité dans un communiqué. « Pour relever ce défi ensemble, il faut désormais se concentrer sur des actions concrètes ayant un impact à court terme, à savoir l’adoption des technologies et solutions numériques et électriques qui existent aujourd’hui. »

Comment calcule-t-on le jour du dépassement ?

« Le Jour du dépassement de la Terre marque la date à laquelle la demande de l’humanité en ressources et services écologiques au cours d’une année donnée dépasse ce que la Terre peut régénérer cette année-là », explique le Global Footprint Network sur son site officiel. Ce jour, l’empreinte écologique des activités humaines, c’est-à-dire les surfaces terrestre et maritime nécessaires pour produire les ressources consommées et pour absorber les déchets de la population, dépasse la biocapacité annuelle de la Terre, c’est-à-dire la capacité des écosystèmes à se régénérer et à absorber les déchets produits par l’Homme.

Pour faire ce calcul, l’organisme se base sur les comptes nationaux d’empreinte et de biocapacité disponibles et évalue la tendance à l’année en cours. Elle inclut également les données plus récentes provenant de sources réputées. Ainsi, en combinant les données de l’agence internationale de l’énergie (AIE) sur les émissions et les données les plus récentes du Global Carbon Project, l’équipe de recherche conclut à une augmentation de 6,6 % de l’empreinte écologique mondiale par rapport à 2020. L’AIE estime en effet que les émissions de gaz à effet de serre liées à l’énergie devraient largement rebondir cette année. Le deuxième changement le plus notable concerne l’effet de la déforestation et de la dégradation de l’Amazonie sur la biocapacité forestière mondiale. L’équipe de recherche estime en effet une diminution de 0,5 % de la biocapacité forestière mondiale.

Les thèses du mois : L’innovation technologique transforme le continent africain

Pour notre dossier de juillet, « L’innovation technologique transforme le continent africain », voici les thèses sélectionnées par le REDOC SPI. Retrouvez le résumé de ces thèses ainsi que les thèses des mois précédents sur le site de notre partenaire.

 

L’émergence des « startuppers » au Maroc : institutions, trajectoires, réseaux sociaux
Quentin Chapus
Doctorat : Sociologie, démographie. Sociologie du travail, 01-10-2020
Laboratoire interdisciplinaire pour la sociologie économique

 

Assessing the impact of the use of information and communication technologies in the agricultural sector in Africa: the case of mobile telephony
Sabrine Bair
Doctorat : économie, 30-09-2020
Centre d’économie industrielle

 

Effets des politiques sectorielles d’innovations sur les interactions systémiques pour une transition technologique dans l’agriculture et l’élevage. Cas des filières Banane plantain et Porcine en Côte d’Ivoire
Cho Euphrasie Monique Angbo kouakou (Mme KOUAKOU)
Doctorat: Sciences Économiques, 28-02-2019
Laboratoire : Innovation et développement dans l’agriculture et l’agro-alimentaire

 

Paiement électronique en Tunisie. Le secteur bancaire entre l’adoption de l’innovation et la lutte contre la fraude
Mohamed Bouhafa
Doctorat : Sciences de gestion, 17-04-2019
Groupe de recherche en management

 

L’intelligence économique en Algérie : analyse des brevets comme indicateurs de la puissance innovatrice
Nour-Eddine Aissaoui
Doctorat : Sciences de l’information et de la communication, 29-11-2019
Institut Méditerranéen des Sciences de l’Information et de la Communication

 

Les enjeux du changement organisationnel dans les PME au Maroc : le cas du secteur du tourisme à Marrakech
Abdellatif Bensaid
Doctorat : Sciences de gestion, 11-12-2019
Laboratoire : Recherche interdisciplinaire en management et en économie (Lille)

 

L’effet de la synergie entre management de la qualité et orientation marché sur l’innovation produit des entreprises marocaines certifiées ISO 9001
Younès El manzani
Doctorat : Sciences de gestion, 08-06-2019
Centre de recherche Magellan

 

L’innovation managériale en contexte algérien : difficultés et perspectives. Approche par études de cas. Recherche sur les ressorts de l’innovation managériale face à un environnement entrepreneurial hostile.
Amel Ahras
Doctorat : Sciences de gestion, 10-12-2020
Laboratoire : TRansitions Energétiques et Environnementale

 

La figure de l’innovateur chez les Baga et Susu de Guinée : histoire sociale, verrous et jalousie
Mathieu Thierry Fribault
Doctorat : Anthropologie sociale et ethnologie, 19-02-2020
Centre Norbert Elias

 

L’accompagnement entrepreneurial : la métamorphose des accompagnateurs en facilitateurs
Aurélien Ferry
Doctorat : Sciences de gestion. Prospective, innovation, stratégie, organisation, 21-12-2018
Laboratoire interdisciplinaire de recherche en sciences de l’action

Le best of presse : au fil de l’actu sci-tech #4

Ici vous trouverez notre récap’ de l’actualité scientifique et technologique qui a bercé ou chamboulé le mois de juillet. Et, comme le veut la tradition : à la fin de cet article, deux informations bonus !

Le fric, c’est chic

En moins de 10 jours, l’espace s’est très brièvement enrichi de 213,9 milliards $. Jeff Bezos, père fondateur d’Amazon et, avec 209,2 milliards $ dans les caisses, homme le plus riche sur Terre (et, pendant quelques minutes, dans l’espace) s’est affranchi des lois de la pesanteur le 20 juillet, à bord d’une fusée New Shepard (Blue Origin). L’occasion, pour nous autres terriens ordinaires, de découvrir son goût pour les chapeaux de cowboy – clin d’œil à Space Cowboys de Clint Eastwood peut-être ? 

Une semaine plus tôt, le 11 juillet, il était précédé par l’entrepreneur Richard Branson, à la tête d’une fortune chiffrée à 4,7 milliards $ (des broutilles en comparaison à Bezos, soit), qui s’est envolé dans sa fusée Virgin Galactic. Attention, cependant, si vous tenez à assouvir votre rêve extravagant d’enfant, il faudra réserver un budget, plutôt rondelet, de 250 000 $ : c’est le prix estimé d’un ticket chez Virgin Galactic, une fois que les vols commerciaux seront ouverts à tous, rapporte NPR


Heureusement pour les futurs amateurs de tourisme spatial, des alternatives plus « accessibles » (nuance !) existent : en septembre 2020, nous vous parlions par exemple de Zephalto, qui développe un ballon stratosphérique exploitable pour le tourisme spatial dès 2024. Le prix d’un billet s’élèvera à plusieurs dizaines de milliers d’euros. 

Hubble n’est pas mort

On garde la tête dans les étoiles ! Depuis des années, la presse le martèle, avec une certaine nostalgie : « adieu Hubble ! » et « merci Hubble ! ». Mais le vénérable télescope spatial trentenaire (initialement déployé en 1990) n’en est pas encore à sa dernière ronde orbitale. Alors qu’un dysfonctionnement remettait en doute sa longévité, obligeant les opérateurs de la Nasa à le mettre en pause pendant plus d’un mois, le bug a été réparé le 16 juillet. Hubble est donc « de retour », annonce Science. Pour l’instant en tout cas ! 

Le successeur de Hubble, le télescope spatial James-Webb, devrait démarrer son ascension très bientôt, en novembre 2021. En avril 2020, on vous parlait de comment James-Webb pourrait révolutionner la recherche des exoplanètes capables d’abriter des êtres vivants : « Ce télescope permettra de savoir facilement si des exoplanètes ayant la taille de la Terre possèdent également une atmosphère qui contient de l’eau. On fera donc beaucoup de progrès dans la connaissance des planètes propices à la vie », déclarait Xavier Bonfils, astrophysicien à l’Institut de planétologie et d’astrophysique de Grenoble.

Motus et bouche cousue

Dans cet article, The Atlantic propose une lecture éclairante sur la fraude scientifique, avec le cas d’un chercheur ayant falsifié pas moins de 84 études publiées dans des revues reconnues… Une fois le pot aux roses découvert, les répercussions ont été bien timides en comparaison à des affaires similaires dans d’autres milieux (le gaming par exemple), analyse le média américain qui essaie de dégager les raisons derrière cette culture du déni. 

Falsifier des données est une chose, mais qu’en est-il des erreurs qui passent inaperçues ? Les algorithmes de traitement de texte pourraient aider à les repérer ! C’est le but du projet pluridisciplinaire Nanobubbles, porté notamment par le Laboratoire d’informatique de Grenoble et tourné vers le monde de la nanobiologie, et ayant fait l’objet d’un article publié sur notre site en décembre 2020

Le rythme dans les clous

C’est le moins qu’on puisse dire du robot Spot ! L’entreprise Boston Dynamics continue de défier les limites de la robotique, comme dans cette vidéo qui montre plusieurs de ses robots Spot danser au rythme d’une chanson du groupe sud-coréen BTS. Une vidéo tout bonnement bluffante, qui célèbre l’acquisition de Boston Dynamics par Hyundai, et qui pourrait très bien passer pour un court-métrage de Pixar : 


En dehors des pistes de danse et des chorégraphies complexes, Spot est d’abord destiné à des tâches moins gracieuses (patrouiller et monter la garde, emprunter des chemins impraticables, etc.). Ainsi, en avril 2020, nous revenions sur les premiers pas de Spot dans le monde de l’industrie

Machines d’antan

Une ancienne machine improvisée aurait-elle aidé à transporter les imposantes pierres de Stonehenge ? C’est en tout cas la théorie séduisante d’un amateur d’égyptologie qui s’est longuement confié à la BBC, et qui a même imaginé et construit un prototype de cette machine hypothétique ! 

Chez Techniques de l’Ingénieur, les vieilles inventions couvertes de poussière, et leurs évolutions à travers les âges, nous intéressent particulièrement. Elles sont mises à l’honneur dans notre série atypique « Les oubliettes des sciences », dont le premier chapitre est à lire ici

Des choux, à la mode de chez nous

Que dire du chou romanesco ? À part, bien sûr, qu’il a meilleur goût que le chou de Bruxelles (en même temps, ce n’est pas difficile*). La réponse : tout, visiblement ! Une équipe de chercheurs du CNRS et de l’Inria a élucidé le mystère derrière son aspect en fractales, en s’appuyant sur la modélisation mathématique et la biologie végétale. Les fractales font partie des formes géométriques les plus reconnaissables du monde animal et végétal et se retrouvent dans de nombreux phénomènes naturels. Cette découverte, qui aide à mieux comprendre les mécanismes qui mènent à leur formation, fait même la couverture de la prestigieuse revue Science

(Bonus) Des poissons rouges géants et des insectes bien gênants

Au Minnesota, aux Etats-Unis, une espèce invasive bouleverse l’écosystème d’un lac de Burnsville : relâchés dans la nature après avoir séjourné en aquarium (où ils atteignent une taille d’environ 5 cm de long), les poissons rouges s’avèrent extrêmement voraces et deviennent immenses ! C’est ce que rapporte la BBC, qui rappelle qu’un problème similaire avait été rencontré en 2017, à Munich, en Allemagne.  

Enfin, plus bas dans la chaîne alimentaire, parlons insectes. Jugés insultants envers la communauté roumaine, les noms vernaculaires en anglais de deux espèces d’insectes sont en passe d’être changés. Les noms « gypsy moth » et « gypsy ant » seront en effet retirés du lexique reconnu par la Société américaine d’entomologie. Une décision qui va dans le sens de l’inclusion, selon Michelle Smith, présidente de la société savante, interrogée par le New York Times

*L’auteure de cet article tient à préciser qu’elle apprécie sincèrement les choux de Bruxelles. L’emploi de cette formulation est purement stylistique et ne vise aucunement à blesser la sensibilité de nos lecteurs et lectrices. 

Crédit image de une : Intissar El Hajj Mohamed//Techniques de l’Ingénieur

A Madagascar, des générateurs solaires facilitent l’accès à l’électricité

L’accès à l’électricité est réparti de manière très inégale sur le continent africain. A Madagascar, la majorité de la population n’a pas un accès à l’électricité de manière continue.

Fort de ce constat, Yann Kasay a décidé de créer l’entreprise Jirogasy, afin de faciliter l’accès à l’électricité à un plus grand nombre, à travers le développement d’objets connectés et de générateurs solaires. L’entreprise, implantée à Madagascar, veut aussi à travers son activité jouer un rôle dans le développement du pays.

Techniques de l’Ingénieur : Pouvez-vous nous parler de votre parcours personnel, qui a mené à la création de Jirogasy ?

Yann Kasay : Je suis un entrepreneur franco-malgache, fondateur et CEO de la start-up Jirogasy. Je me suis spécialisé depuis plusieurs années sur les questions d’innovation, d’accès à l’énergie, au digital et à l’éducation.

Yann Kasay, le cofondateur et CEO de Jirogasy.

En 2017, j’ai décidé de me concentrer à plein temps sur la création de systèmes embarqués et d’objets connectés au profit du développement de l’Afrique, ce qui a donné lieu au démarrage de l’activité de Jirogasy dans le secteur de l’énergie solaire un an plus tard.

Le fait de me diriger vers le secteur de l’énergie solaire part d’une histoire personnelle. En 2017, lors d’un voyage à Madagascar, je me retrouve avec un accès à l’électricité de 2 heures par jour pendant plusieurs semaines dans un des hôtels pourtant bien équipé du nord-est du pays. Je m’intéresse alors au sujet et je me rends compte que plus de 85% de la population du pays est dans le même cas et que 600 millions de personnes en Afrique n’ont pas accès à l’électricité.

Je fais alors le constat que parmi les initiatives déjà présentes, l’ensemble des projets importent leurs matériels de l’étranger. Je me donne alors comme objectif de produire des systèmes solaires « made in Afrique » en mettant à profit mes compétences de « maker » autodidacte et les compétences d’ingénieur en électronique de mon frère, cofondateur de Jirogasy.

Présentez-nous l’entreprise Jirogasy.

Jirogasy est une entreprise « tech » basée à Madagascar et créée en 2017 pour concevoir, localement, des objets connectés et des générateurs solaires à destination des acteurs publics et privés en Afrique. Notre objectif principal est d’innover en créant des produits « made in Madagascar » qui aident nos partenaires à répondre aux objectifs de développement durable (ODD). Ce, dans le but de contribuer à l’implémentation d’un modèle de croissance responsable sur le continent africain en capitalisant sur la réponse à des problèmes locaux par des solutions locales, afin de générer le maximum de valeur ajoutée à Madagascar.

Nous produisons des générateurs solaires et des ordinateurs solaires – dont l’ordinateur solaire tout-en-un Jirodesk 2 – notre dernier produit. Une des innovations autour de ce produit est d’avoir intégré un régulateur solaire, un ordinateur ainsi que nos différents systèmes d’alimentation et de remontée de données en un seul produit. Cet appareil est particulièrement utile dans les zones dépourvues d’électricité car il est facile d’utilisation et totalement autonome (ses batteries sont reliées à des panneaux solaires pour une autonomie de cinq heures). Avec un disque dur de 64 Go, un processeur Intel Celeron de 4 Go et un écran de 21 pouces, il permet d’effectuer tous les travaux bureautiques nécessaires (via Windows 10), et d’apporter de l’électricité et de l’éclairage pour un foyer de 2 à 3 pièces grâce au surplus d’électricité produit par les panneaux solaires.

Quelles sont les technologies développées dans les produits (générateur, ordinateur) que vous fabriquez ?

La première particularité de nos produits est qu’ils sont fabriqués entièrement dans notre atelier à Madagascar. Au fil des années, nous avons pu nous constituer une ferme d’imprimantes 3D et une ligne de production comptant un ensemble de CNC ainsi qu’un laboratoire électronique avec l’outillage nécessaire. Cela nous permet de maîtriser plusieurs compétences nécessaires à la conception de nos produits localement, comme le traçage de nos circuits imprimés, et la pose de nos composants CMS de façon semi-automatisée. Depuis 2020, certaines CNC et les imprimantes 3D nous permettent également de produire l’ensemble des pièces plastique et acier nécessaires au design de nos produits à Madagascar.

Jirodesk 2, le dernier produit lancé par Jirogasy.

Au-delà de la conception locale, nos produits sont équipés d’un protocole de remontée de données développé par les équipes de Jirogasy qui nous permet de faire de la maintenance à distance et prédictive, mais aussi de proposer des offres innovantes aux clients.

Nous utilisons un réseau maillé [lorsque la connexion repose sur plusieurs sources de Wi-Fi et non sur un seul routeur, NDLR] via un protocole Lora [protocole de télécommunication permettant la communication à bas débit d’objets connectés, NDLR] pour la communication entre notre serveur et nos produits entre eux. La constitution de ce réseau propre à Jirogasy intégré à nos produits nous permet de communiquer avec nos produits même dans les zones les plus enclavées et dépourvues d’infrastructures télécom.

Quelles sont les autres activités développées par Jirogasy ?

Au-delà de la conception et la production d’objets connectés et solaires, nous avons développé des compétences dans l’installation de petits systèmes photovoltaïques (<5kw). Avec notre équipe de 17 collaborateurs, nous pouvons donc également épauler d’autres startups ou des ONG pour réaliser les projets d’électrification rurale permettant aux populations des zones dépourvues d’électricité en les assistant sur les tâches de dimensionnement, d’installation, ou de maintenance de systèmes solaires.

L’idée derrière Jirogasy est de répondre à une problématique locale. Est-ce un modèle de développement qui gagne l’ensemble du continent africain ?

Nous avons démarré Jirogasy en pensant que les personnes les plus à mêmes de répondre aux problématiques de l’Afrique sont les premières personnes concernées, à savoir les Africains. Nous pensons que rapatrier une partie ou l’ensemble de certaines chaînes de valeur en Afrique, et développer une industrie de l’innovation forte et compétitive sont nécessaires pour le développement des pays du continent africain. Je constate que lorsque nous avons commencé il y a trois ans et demi, il existait peu d’initiatives tech «made in Africa », mais ce thème est de plus en plus discuté et nous espérons que cela se développera de façon significative dans les prochaines années.

Quelle est votre vision de l’innovation ?

Innover c’est d’abord effectuer un état des lieux de l’existant. Je pense que c’est par la déconstruction de plusieurs technologies et la combinaison d’idées préexistantes que naissent les innovations les plus abouties. Je pense ensuite que l’audace joue un rôle clé dans l’innovation et que derrière chaque innovation se cache un inventeur ou une équipe audacieuse qui tente ce que d’autres n’ont pas osé pour différentes raisons.

Avez-vous l’impression que l’innovation évolue sur le reste du continent ?

L’Afrique traverse une période intéressante où l’essor de technologies comme le « mobile banking » lors de ces 10 dernières années ont permis un déclic. Je pense que l’émergence de cette technologie a permis de faire tomber un complexe et nous a montré que l’Afrique pouvait adopter une technologie avant le reste du monde. Depuis le « leap frog » (bond technologique), une génération d’entrepreneurs africains s’attèlent à inventer l’Afrique de demain, ce qui je l’espère conduira à un développement inclusif et responsable du continent.

Maintenant que plusieurs initiatives se lancent sur certains aspects de la chaîne de valeur industrielle, il est nécessaire que les acteurs dialoguent entre eux et établissent des relations panafricaines qui conduiront à la naissance d’un écosystème industriel fort qui pourra, à terme, apporter de la valeur ajoutée non seulement à ses marchés domestiques, mais également aux marchés des autres continents.

Propos recueillis par Pierre Thouverez