Revue du Web #135 : les vidéos les plus étonnantes du mois

L’impression 3D dans votre assiette

La fabrication additive a également un rôle à jouer dans le secteur de l’alimentation ! Dans cette vidéo, deux étudiantes de l’UTC Compiègne reviennent sur les applications de l’impression 3D alimentaire en nous montrant tout le potentiel de la technologie. Elle permet de repenser certains plats, d’offrir des solutions alternatives à la consommation de viande ou encore de concevoir des produits adaptés à certains régimes alimentaires.

Un troisième bras surhumain

Les chercheurs de l’Université de Sherbrooke au Canada, ont mis au point un exosquelette équipé d’un bras hydraulique, capable d’aider son porteur dans de nombreuses tâches. Le bras, qui possède 3 degrés de liberté, est constitué d’une structure en aluminium et en fibre de carbone, pour un poids de 4,2 kg. Il est équipé d’un préhenseur à trois doigts. Il peut soulever 5kg et atteindre une vitesse maximale de 3,4 mètres par seconde soit une puissance déployée lui permettant de traverser un mur, selon ses créateurs. Ses mouvements sont heureusement limités dans un espace défini, afin de protéger l’opérateur.

Un robot pour aider les chirurgiens

Les opérations chirurgicales ne sont jamais simples. Certaines pratiques peuvent en effet durer des heures et fatiguer les médecins. C’est pourquoi les efforts des chercheurs ont été concentrés dans la robotique. Grâce à la collaboration entre Intel et l’université de Californie à Berkeley, ce robot peut imiter les mouvements de suture chirurgicale à partir de vidéos qu’il a regardé. Parmi les tâches du Motion2Vec, on compte la suture, le passage d’aiguilles, l’insertion d’aiguilles et la réalisation de nœuds. Les chercheurs ont programmé ce robot grâce à des vidéos d’entraînement et à de véritables opérations chirurgicales. Les résultats sont globalement satisfaisants, avec un taux de réussite de 85,5%.

Produire de l’électricité avec une veille machine à laver

La passion de ce youtubeur australien est de récupérer des déchets et les transformer en objets et inventions utiles, pour économiser de l’argent et de l’énergie. Dans la vidéo ci-dessous, il explique comment une vieille machine à laver modifiée lui assure une auto-suffisance en électricité depuis 16 ans. En effet, le moteur tourne grâce à une turbine hydraulique Pelton actionnée par l’eau ce qui produit suffisamment d’énergie pour chauffer son eau et faire fonctionner tous les appareils basse consommation de sa maison.

Découvrez votre futur robot chien de garde

L’entreprise de robotique Boston Dynamics publie régulièrement des vidéos captivantes de son quadrupède robotique, Spot. Ce dernier est officiellement mis en vente. Son coût : un peu moins de 75 000 dollars.
La sécurité n’est toutefois qu’une des applications possibles de Spot puisque son utilité s’étend à des domaines tels que l’inspection de pipelines et d’infrastructures, ou la recherche et le sauvetage.

Des tours en béton pour stocker de l’énergie propre

La start-up Energy Vault compte sur une tour de béton de 120 mètres de haut, composée de 6 grues, pour stocker de l’énergie renouvelable à grande échelle. Cette tour dirigée par un logiciel de prévision, profitera des moments de surproduction de puissance pour élever des blocs de matières composites de 35 tonnes. Emmagasinant ainsi de l’énergie qui pourra être mobilisée, avec un bon rendement, lors de la redescente des blocs. De quoi délivrer 4 MW en décharge continue durant 8 heures affirme Energy Vault. Ce nouveau type de stockage des énergies renouvelables se veut économiquement compétitifs face aux combustibles fossiles, dont la consommation ne dépend pas des aléas météorologiques.

Webinar Cetim : découvrez votre Top des « Web-découvertes »

Qu’est ce qu’une « Web-découverte » du Cetim  ?

Une « Web-découverte » est une conférence en ligne d’1h30 pour s’acculturer à un sujet technique en lien avec 4 grandes thématiques industrielles.
Ces conférences en ligne, présentées par les experts du Cetim et animées par un journaliste de la rédaction du magazine d’Actualité des Techniques de l’Ingénieur, apportent un éclairage technique et technologique aux enjeux et besoins des industriels sur des points clefs en lien avec l’ingénierie, la caractérisation et les matériaux, les essais et la simulation, ainsi que la fabrication et le contrôle.

Quel est votre top « Web-découverte » du Cetim ?

Fabrication-Contrôle

Les technologies de fabrication évoluent et se fiabilisent. Par ailleurs, dans un contexte d’exigences accru, le domaine du contrôle évolue très vite grâce aux nouvelles technologies d’investigation, la numérisation des données, leur intégration progressive au sein des process.

1- Paramètres influents en usinage
2- Initiation à la propreté des pièces mécaniques
3- Contrôle de soudure par ultrason, TOFD et PAUT
4- Assemblages soudés : les enjeux sur la conception, les procédés, leur industrialisation et le comportement des structures
5- Introduction au soudage, brasage et soudo-Brasage

Ingénierie

A l’heure de la digitalisation, les outils et les méthodes au service de l’ingénierie  évoluent et permettent de mettre en place de nouvelles activités au sein de votre entreprise dans les phases de conception et d’industrialisation.

1- Mécanique des fluides appliquée aux appareils de robinetterie
2- Excellence opérationnelle : changez vos pratiques et optimisez vos flux (module 1)
3- Contexte de l’éco-conception : les grands enjeux

Simulation-Essais

Les outils de simulation font partie intégrante des démarches proactives de conception/investigation tant au niveau des produits que des process. Les essais, normalisés ou non, restent une étape de validation capitale dans le processus de mise sur le marché des produits. Maîtriser le couplage essai/simulation devient crucial pour répondre aux enjeux de coût/qualité/délais.

1- Analyse des concentrations de contrainte dans un modèle Eléments Finis
2- Découverte de la fatigue des matériaux/différents essais de fatigue : présentation, objectif et illustration (module 2)
3- Panorama des méthodes de contrôle de fuite

Caractérisation/Matériaux 

Les matériaux et leurs caractéristiques évoluent et constituent un facteur d’innovation majeur. Ils constituent également un facteur de compréhension de phénomènes liés à la dégradation et aux défaillances.

1- Découverte de la fatigue des matériaux : définition, vocabulaire et faciès de rupture (Module 1)
2- Plastiques : matériaux / process et analyse des défauts
3- Connaissance des matières plastiques/formulations

La boule de cristal de l’IA brouillée par la pandémie

Coup de blues pour les ardents partisans de l’IA comme solution miracle. La pandémie a eu de nombreux impacts sur les entreprises : baisse d’activité, mise en place plus ou moins dans l’urgence du télétravail, difficultés à gérer ses stocks…

Mais elle a aussi brouillé les modèles prédictifs à base de Machine Learning (déclinaison de l’IA) de plus en plus utilisés pour anticiper les comportements des consommateurs. Avant le début de la pandémie, les achats les plus courants sur des sites d’e-commerce « généralistes » comme Amazon étaient les étuis et les chargeurs de téléphone, les écouteurs, les ustensiles de cuisine…

Dès le début de la crise sanitaire, les internautes se sont rués principalement sur les manettes de consoles de jeux vidéo, les cahiers d’écritures, les masques anti-gouttelettes et les flacons de gel hydroalcoolique.

Les consommateurs s’adaptent au nouveau contexte engendré par cette crise sanitaire et économique. Une étude de Business Insider Intelligence et eMarketer en mars 2020 indique que le commerce électronique est susceptible de se développer car les consommateurs évitent les magasins physiques.

Impossible d’anticiper des crises

La pandémie a aussi eu des impacts sur les recommandations boursières basées sur l’analyse d’articles de presse. Comme le ton de ces articles était en majorité plus pessimiste que d’habitude, les conseils d’investissement ont été fortement biaisés.

Aucune IA n’avait anticipé ces changements radicaux. « L’apprentissage machine (dit apprentissage supervisé) est fondé sur une inférence logique connue depuis très longtemps. Appelée induction, elle correspond du passage de cas particuliers à des règles générales. On essaie de trouver des régularités. De ce fait, l’apprentissage machine ne peut pas anticiper les crises majeures comme la pandémie actuelle car elles ne correspondent pas à des régularités. Aucune crise passée ne ressemble précisément à celle que nous vivons actuellement. Il est donc difficile d’établir une analogie avec ce qui s’est déjà produit », explique Jean-Gabriel Ganascia, professeur à l’Université Pierre et Marie Curie et responsable de l’équipe ACASA (Agents Cognitifs et Apprentissage Symbolique Automatique) du LIP6.

« Faisant suite au buzz « big data », l’IA bénéficie d’un formidable battage médiatique laissant penser que plus les données sont volumineuses meilleures sont les prévisions des algorithmes d’apprentissage automatique. Cela marche effectivement pour certains domaines d’application montés en épingle comme la reconnaissance d’image ou le jeu de Go, mais nettement moins bien pour la prévision d’un comportement humain. Cela n’a pas d’impact personnel fort lorsqu’il s’agit d’une application marketing de recommandation en ligne, mais cela peut être dramatique en police ou justice prédictive avec des taux d’erreur de 30 à 40 % pour l’évaluation d’un risque de récidive. Mais le reconnaître, dégonfler la baudruche de l’IA, remettrait en cause le business des GAFAM », prévient Philippe Besse, Professeur à l’INSA au département de Génie mathématique et modélisation.

Le comportement humain restera encore longtemps mystérieux…

La Roche-Posay fait le pari des tubes cosmétiques intégrant du carton

Sébastien Paty

La Roche-Posay compte parmi les plus grandes marques du groupe L’Oréal. Elle commercialise depuis mai un nouveau lait solaire de 200 mL. Sa particularité ? Il s’agit du premier tube cosmétique intégrant du carton, résultat d’un partenariat entre L’Oréal et son fournisseur Albéa, leader mondial des packagings destinés aux produits de beauté. Entretien avec Sébastien Paty, directeur du développement produits pour La Roche-Posay. À l’interface des équipes marketing et des laboratoires de formulation, il gère l’industrialisation des nouveaux produits.

Techniques de l’ingénieur : Ce nouveau tube est qualifié de première mondiale. Quelle est sa particularité ?

Sébastien Paty : Toute l’innovation consiste à remplacer le plastique par du carton dans le corps du tube. Il s’agit d’un tube laminé dont le corps du tube est composé de deux tiers de carton certifié FSC et d’une fine couche de plastique en polyéthylène pour assurer la conservation de la formule. Cela ressemble à du Tetra Pak, mais sans aluminium. Albéa fabrique ces emballages vides en Europe, nous les remplissons et les soudons dans nos usines en France.

Cela fait 45 % de plastique en moins dans l’ensemble du tube. Il s’agit de la première génération de cet emballage. La tête du tube et la capsule sont en polypropylène. Nous travaillons pour réduire le poids de la capsule en plastique, car il n’existe pas encore d’alternative au plastique pour tout ce qui est bouchage.

La France est un excellent marché pour évaluer l’accueil des consommateurs. Nous lançons ce tube en exclusivité mondiale pour La Roche Posay. D’autres marques du groupe L’Oréal l’adopteront prochainement. Le tube carton a vocation à prendre de plus en plus de place dans notre catalogue. Nous avons un plan de lancement et d’extension de cet emballage à l’international, puis une extension de la gamme.

Vous parlez d’une première génération… ?

Les tubes cosmétiques actuels ne sont pas recyclables, car ils contiennent des mélanges de plastiques. Cette première génération de tube intégrant du carton est un premier pas vers la recyclabilité, mais nous devons dépasser la barre des 50 % de carton sur l’ensemble de l’emballage pour le faire entrer dans la filière de recyclage existante pour les emballages Tetra Pak. Malgré tout, l’analyse du cycle de vie place ce tube parmi les meilleurs du marché sur cette catégorie. À l’horizon 2022, la deuxième génération nous permettra de dépasser la barre des 50 % et les recycleurs pourront alors délaminer l’emballage et séparer le carton du plastique.

Comment ce nouvel emballage s’inscrit-il dans votre stratégie pour diminuer l’usage du plastique ?

La marque La Roche-Posay a une feuille de route ambitieuse sur le désengagement progressif du plastique fossile. Nous nous engageons à utiliser 70 % de plastique recyclé en 2025 pour remplacer les trois grands types de plastique vierge que nous utilisons : le PET, le polyéthylène et le polypropylène. Remplacer du plastique vierge par du recyclé demande un important travail pour sourcer le plastique recyclé de grade alimentaire et l’industrialiser chez nos fournisseurs. Cela nous permettra d’économiser 10 000 tonnes de plastique vierge d’ici 2025.

Un autre axe de travail repose sur le remplacement du plastique par des matériaux alternatifs. Le tube carton est un très bon exemple de ce que l’on peut faire. Nous travaillons sur de nouveaux objectifs pour 2025 et 2030, afin de réduire notre intensité plastique, c’est-à-dire utiliser moins de plastique par unité produite.

Le troisième axe est l’allègement pur et simple de nos matériaux. Nous avons diminué le poids global de nos flacons de 10% ces dernières années. C’est un travail assez complexe car nous devons nous assurer, tout le long de la chaîne de valeur, que ces allègements ne mettent pas en péril la qualité de nos produits.

Travaillez-vous sur la réutilisation et de nouveaux systèmes de distribution ?

Ce sont des choses que l’on étudie. À Davos, le groupe L’Oréal s’est engagé à ce que 100 % de nos emballages soient recyclables, réutilisables ou compostables d’ici 2025. Mais nous priorisons les axes sur le recyclage et la réutilisation plutôt que le compostage.

Nous nous intéressons aux systèmes de collecte comme Loop et ceux proposés par TerraCycle. Mais ils n’ont pas encore démontré leurs bénéfices environnementaux sur l’ensemble de leur cycle de vie. Nous attendons d’avoir la preuve que l’ACV est favorable. Nous nous intéressons aussi beaucoup au vrac et avons plusieurs études en cours. La grande majorité de nos formules contient de l’eau, un milieu propice au développement microbien. C’est donc plus compliqué à faire que du vrac sec. Quand nous avons un produit scellé, nous sommes sûrs de sa sécurité sanitaire. Mais lorsque l’on est sur du remplissage, il faut trouver le bon modèle économique, mettre en œuvre la bonne logistique et développer un système pour s’assurer que les flacons apportés par les consommateurs soient propres.

Quels sont pour vous les freins au remplacement du plastique dans les emballages cosmétiques ?

Nous sommes engagés sur la réduction et, à terme, l’éradication de la matière fossile. Dans le monde des cosmétiques, l’utilisation du plastique est inévitable. Avant tout, c’est une matière qui permet de protéger les formules cosmétiques. C’est une matière qui a énormément de qualités, mais deux défauts : elle est d’origine fossile et n’est pas recyclée à 100 %. Il faut donc s’engager sur la réduction de notre consommation, le remplacement de la part fossile par du recyclé et aller vers plus de recyclabilité pour s’assurer que les emballages sont remis dans la boucle en fin de vie.

Sortir du plastique c’est bien, mais il faut regarder toutes les analyses de cycle de vie pour trouver les meilleures alternatives. Le groupe L’Oréal fait partie des premiers soutiens de la fondation Ellen MacArhur. Nous travaillons aussi avec l’éco-organisme Citéo et la fédération des entreprises de beauté (FEBEA) sur la recyclabilité des produits. Le travail est long car tous les nouveaux packagings sont passés au crible de cahiers des charges qualité très stricts. Toute innovation doit répondre à ces standards, conserver l’ergonomie et la qualité.

Une mousse métallique composite pour le transport de matières dangereuses

Ces recherches viennent renforcer et compléter des travaux précédents qui concluaient sur les performances accrues de ces mousses métalliques composites vis-à-vis de l’isolation thermique à haute température.

Mousse métallique composite avant l’essai en feu de nappe (à gauche), et après 100 minutes à 825 °C (à droite), Crédit : NC state university

Les mousses métalliques composites

Comme leur nom l’indique, les mousses métalliques sont des structures poreuses. Elles sont composées de sphères métalliques creuses, incorporées dans une matrice métallique. Les alliages qui constituent les sphères et la matrice peuvent être identiques, ou différents : acier-acier, titane-acier, aluminium-acier, etc.

Ces matériaux aux propriétés impressionnantes, qui sont la spécialité du docteur Afsaneh Rabiei, au NC State (Department of Mechanical and Aerospace Engineering), ont déjà fait leurs preuves par le passé. En plus de présenter une porosité qui leur confère une légèreté évidente et des propriétés d’isolation thermique, leurs caractéristiques mécaniques sont exceptionnelles. Ainsi, leur champ d’application potentiel est large : blindage balistique, barrières aux radiations ou encore le transport de matières dangereuses.

Résistance à un feu de nappe

Des travaux précédents avaient mis en évidence le fait que les mousses métalliques composites acier-acier étaient bien plus efficaces pour l’isolation contre les chaleurs extrêmes, en comparaison avec les alliages d’acier qui les constituent, pris individuellement.

Cette nouvelle étude a pour but de prouver l’aptitude de ces mousses métalliques composites (CMF) acier-acier à résister à un incendie créé par la combustion d’une nappe de combustible liquide, une condition nécessaire à la qualification du matériau pour le transport de produits dangereux.

Pour mesurer cette aptitude, les matériaux ont donc été soumis à un test standardisé par le Code of Federal Regulations américain (49 CFR, Appendix B to Part 179) et appelé “Simulated Pool Fire Testing”. Ce test consiste à exposer une face d’un panneau de matériau CMF à une température d’au moins 816°C pendant 100 minutes. Des capteurs de température sont disposés de l’autre côté du panneau : si la température dépasse les 427°C sur cette face opposée, à n’importe quel moment, le test échoue.

Un test réussi haut la main

Le CMF acier-acier a passé ce test avec succès, et de très loin : alors qu’une plaque en acier de la même épaisseur atteint les 427°C en 12 minutes, dans le cas du CMF la température mesurée n’a pas dépassé les 379 °C au bout des 100 minutes du test. Cette particularité est d’autant plus notable que ce CMF est trois fois plus léger que la plaque d’acier de référence.

Prochaine étape : la résistance aux “feux torche”

Si la résistance aux feux de nappe est une condition nécessaire à la qualification du matériau, elle n’est pas suffisante. Celui-ci doit également être capable de résister à un jet de matière enflammée. Cette résistance aux “feux torche” est la prochaine étape des travaux de l’équipe du Dr Rabiei. Si ces futurs essais sont concluants, les CMF pourront peut-être un jour entrer dans la fabrication des wagons-citernes utilisés pour le transport de matières dangereuses.

D’après NC state university : “Pool Fire Testing Moves Composite Metal Foams Closer to Widespread Applications”. Publié le 19 mars 2020.

Pour en savoir plus

“Steel-Steel Composite Metal Foam in Simulated Pool Fire Testing”

Authors: A. Rabiei and K. Karimpour, North Carolina State University; D. Basu and M. Janssens, Southwest Research Institute

Published: March 18, International Journal of Thermal Sciences

DOI: 10.1016/j.ijthermalsci.2020.106336

Emploi, faillite, relocalisation, régionalisation : quels défis pour l’industrie française ?

Denis FerrandAvec la reprise de l’activité, la crise économique prend le pas sur la crise sanitaire et impacte l’industrie française. Les entreprises doivent réagir rapidement pour survivre mais également pour préparer l’avenir. Au mois d’avril, Denis Ferrand, le directeur général de l’institut d’analyse économique Rexecode et le président de la Société d’Economie Politique, avait animé un Webinar pour Techniques de l’Ingénieur sur l’impact du Covid-19 sur les perspectives économiques mondiales. Aujourd’hui, il revient sur l’impact de la crise sur l’industrie française et analyse les défis que cette dernière devra relever.

Techniques de l’Ingénieur : Comment peut-on évaluer les impacts de la crise sur les entreprises de l’industrie française ?

Denis Ferrand : Pour mieux comprendre les impacts de cette crise, deux choses sont à appréhender. Tout d’abord, il faut prendre en compte la situation avant le Covid-19, qui était marquée par de grosses difficultés de recrutement. Depuis 3 ans, la pénurie de main d’œuvre est ce qui bloque la croissance. Elle est principalement due à une pénurie de compétences spécifiques. Nous remarquons un problème d’adéquation des compétences, qui vaut pour tous les métiers, tous les secteurs et dans presque toutes les régions. Ces difficultés étaient mises en sommeil pendant le confinement, mais avec la reprise de l’activité elles vont revenir en effet boomerang. Le deuxième point à prendre en compte est le tarissement de la demande. Les entreprises vont donc devoir revoir leurs choix d’investissement et de recrutement à la baisse.

Quel impact la crise a-t-elle eu sur l’emploi durant le confinement ?

Les entreprises ont évité au maximum le licenciement de personnels qu’elles ont probablement eu du mal à recruter et ont privilégié le chômage partiel. D’ailleurs, lorsque nous regardons les chiffres de Pôle Emploi, les entrées pour cause de licenciement ont chuté pendant le confinement. Ces chiffres révèlent aussi qu’en mars et avril, 1 100 000 demandeurs d’emploi supplémentaires ont été comptabilisés en catégorie A [absence d’activité professionnelle, NDLR]. Mais c’est principalement car les demandeurs d’emploi des catégories B et C [en activité partielle, NDLR] sont passés en catégorie A. C’est le cas des travailleurs dans la restauration, la vente, ou les personnes en contrat court. Par ailleurs, si les chiffres augmentent, c’est également car les demandeurs d’emploi le restent plus longtemps. Il est donc primordial de regarder les dynamiques de flux et non uniquement le nombre de demandeurs d’emploi pour bien comprendre la situation actuelle.

Qu’en est-il de l’impact sur l’emploi dans les mois à venir ?

Le phénomène exactement inverse va se produire avec le redémarrage des restaurants et commerces, donc les demandeurs d’emploi en catégorie A vont retrouver une activité partielle. D’autre part, il va y avoir un tarissement de l’emploi, non pas à cause de licenciements mais parce que les entreprises vont moins embaucher. Avec BPI France, nous avons interrogé des PME pour comprendre les conséquences de la crise du Covid-19 sur elles. 80% d’entre elles avaient des projets de recrutement avant la crise, et les 2/3 d’entre elles ont décidé soit de reporter, soit d’annuler leurs projets d’embauche. Même si ces PME n’étaient pas des industriels, l’effet est le même pour tous. Nous assistons à un gel d’embauche car, tout comme les investissements, c’est une variable sur laquelle les entrepreneurs peuvent jouer quand ils font face à un effondrement de leur chiffre d’affaire.

Des faillites sont-elles à prévoir ?

Avec le redémarrage de l’activité, nous entrons dans la deuxième phase de crise qui est la plus dangereuse pour les entreprises. En effet, elles doivent se remettre à produire, à payer des salaires, à acheter la matière première, sans qu’aucun argent ne soit encore rentré. Nous avons toujours vu des pics de faillites lors des sorties de récession.

La question à se poser maintenant est : est-ce que toutes les entreprises doivent être sauvées ? La réponse est complexe car il faut déterminer des critères de choix. Il s’agit donc d’identifier les entreprises qui ont assez de solidité pour redémarrer et celles qui auraient dû disparaître dans tous les cas, même sans la crise. Rappelons que chaque année, entre 45 000 et 50 000 d’entreprises disparaissent donc c’est un processus normal. La crise du Covid-19 peut l’amplifier mais il faut surtout s’assurer que des entreprises ne disparaissent pas pour de mauvaises raisons, alors qu’elles avaient de bonnes conditions de viabilité.

Quels secteurs industriels vont être les plus touchés ?

L’automobile a particulièrement souffert durant le confinement avec 90% d’immatriculations en moins, tout comme l’aérien. Cela dit, en septembre 2001, tout le monde pensait que l’aérien allait s’effondrer or il est reparti encore plus fort. Réaliser des prévisions définitives s’avère compliqué. Certaines activités ont totalement été arrêtées quand d’autres ont progressé donc il n’y a pas les mêmes solutions à apporter selon les secteurs.

Les entreprises fragilisées vont devoir faire des économies pour survivre, les investissements pour l’innovation et la R&D vont-ils être impactés ?

Les entreprises qui vont ressortir renforcées de cette crise seront celles qui auront réalisé des investissements et notamment en innovation. Ces temps de crise sont des accélérateurs de transformation. On le voit dans la rapidité d’adoption de certaines technologies que nous n’utilisions pas avant. Donc les entreprises qui se seront adaptées le plus rapidement seront gagnantes. La R&D serait dans l’absolu le dernier investissement à sacrifier, mais c’est aussi un des premiers postes sur lesquels les entreprises peuvent le plus facilement arbitrer. Ce qui crée une forte tension entre le court terme et le long terme. A court terme, les entreprises doivent survivre et répondre aux échéances de paiement donc elles doivent ménager la trésorerie et couper dans les investissements, notamment en R&D. Pourtant, cette décision les place en mauvaise posture à moyen terme.

Que pensez-vous de la relocalisation des entreprises françaises ?

Je suis assez partagé. Deux facteurs me semblent indispensables pour relocaliser. D’abord, sommes-nous capables d’avoir un rapatriement dans des conditions de coût qui soient identiques à celles de la localisation éloignée ? La relocalisation n’est possible que si les conditions de compétitivité et d’attractivité sur notre territoire sont équivalentes à ce qu’elles étaient auparavant. Ensuite, est-ce que les demandeurs vont durablement accepter de payer plus cher pour le même produit ? Clairement, je ne pense pas. Par le passé, ça ne s’est jamais vérifié. Peut-être avons-nous totalement changé d’état d’esprit aujourd’hui mais jusqu’à présent, nous nous précipitons toujours vers l’achat le moins cher.

Plus que relocaliser, je pense qu’il faut davantage envisager le local. Il y a du côté des entreprises une tendance à penser régional, donc à travers les pays voisins. Par exemple, pour approvisionner les Etats-Unis, une entreprise va choisir de produire au Mexique plutôt qu’en Asie. Ainsi, le Made in Europe serait à privilégier sur le Made in France concernant des questions stratégiques car l’échelle nationale risque d’être associée à un marché trop étroit. Cela pourrait concerner les produits sanitaires, de défense, d’alimentation. C’est un processus que les entreprises doivent entreprendre d’elles-mêmes, sans attendre de décisions politiques.

Les entreprises déjà fragilisées vont-elles avoir les ressources nécessaires pour initier de tels changements ?

C’est une fois de plus la tension du court et du long terme. Pour survivre, les entreprises doivent être agiles. D’ailleurs, outre la régionalisation qui me semble nécessaire, elles doivent aussi prendre en compte la transition écologique. Celles qui réalisent dès maintenant des choix écologiques draconiens auront plus de chances de s’en sortir par la suite. Or en ce moment elles ont moins de ressources, et en parallèle, le prix du pétrole s’est effondré donc spontanément, les entreprises se tourneront vers l’énergie la moins chère à savoir l’énergie carbonée. L’important aujourd’hui est de réévaluer toutes les décisions prises avant le Covid-19 et de déterminer si elles doivent être abandonnées, modifiées ou accélérées.

Comment va se dérouler la reprise à l’échelle du pays ?

Maintenant, il va y avoir du rattrapage de l’activité. Nous pouvons envisager une perte de 10% du PIB en 2020, puis un rattrapage de ce que nous avons perdu en 2020 à partir de 2021. Dans tous les cas, nous risquons de rester dans un niveau d’activité plus faible que ce que nous avions en 2019, donc les prévisions des entreprises à 2021 ne seront plus exactes. Cette baisse d’activité va se répartir entre une baisse des emplois, moins de progression de salaire, moins de marge des entreprises et un déficit public plus élevé.

Si une crise sanitaire devait à nouveau survenir, comment l’industrie française pourrait réagir à une nouvelle phase de confinement ?

Le confinement n’est clairement pas la bonne option. S’il a eu lieu, c’est parce que nous n’étions pas préparés et nous n’avions pas les dispositifs pour faire face à un besoin sanitaire urgent. Du point de vue économique, nous remarquons des écarts majeurs entre les Etats en fonction de la durée et dureté du confinement. La force économique de l’Allemagne sera donc multipliée par rapport à la France. Il faudrait davantage s’inspirer de la Corée du Sud qui n’a pas été confinée et qui a mis en place des tests de traçage et l’isolement des personnes malades seulement et non de toute la population.

Nouvelle menace économique sur le recyclage du plastique

La situation est très difficile pour le recyclage des plastiques. « Le taux d’activité pendant la période de confinement et encore aujourd’hui est de l’ordre de 50 % par rapport à avant la crise », prévient Jean-Luc Petithuguenin, président de Federec et président de Paprec. Les débouchés pour le plastique recyclé sont par exemple à l’arrêt dans le secteur automobile et dans le bâtiment.

Un faible prix du pétrole qui menace l’équilibre économique de la filière

La baisse du prix des matières vierges, de l’ordre de 30 % en quelques semaines, met sous très forte pression les débouchés pour les granulés recyclés. Le PET fait exception. Et pour cause, l’Europe prévoit une obligation d’incorporation de plastique recyclé d’au moins 25 % pour les bouteilles PET transparentes d’ici 2025, puis de 30 % pour toutes les bouteilles d’ici 2030.

« Le PET vierge oscille en général autour de 1 000-1 100 euros la tonne, mais atteint en ce moment 700 euros la tonne, explique Jean-Luc Petithuguenin. Le coût de transformation du PET recyclé est de l’ordre de 1000 euros la tonne pour un prix de vente de 1 200 euros ». Dans ces conditions, seules les obligations d’incorporation permettent d’assurer les ventes de plastique recyclé. « Cela nous laisse penser que la seule façon durable de faire exister le recyclage du plastique en Europe est l’obligation d’incorporation, poursuit-il. On se dirige vers une législation qui pourrait être mise en place avant la fin de l’année avec des obligations dans tous les secteurs ». Les taux sont en cours de négociation tripartites entre les recycleurs, les plasturgistes et l’État.

De nouvelles filières menacées

La modernisation des centres de tri pour déployer l’extension des consignes de tri à l’ensemble de la France continue. « La baisse de compétitivité du recyclé par rapport au vierge va accroître la difficulté de trouver un débouché pour des plastiques qui n’étaient pas triés avant et qui vont l’être, reconnaît Jean-Luc Petithuguenin. Il ne faut pas se raconter d’histoires, pour ces plastiques, la seule alternative possible est non pas le recyclage, mais la valorisation énergétique, qui consiste à utiliser le pouvoir calorifique du plastique pour faire des combustibles solides de récupération (CSR) de façon à alimenter des boucles de chaleur ou d’électricité verte. »

Dans ces conditions de prix, le débat autour de la valorisation énergétique des plastiques souples est relancé. « La seule chose que le gouvernement peut faire, c’est de favoriser l’émergence d’une filière de valorisation pour les nouveaux plastiques triés », souligne Jean-Luc Petithuguenin. Federec demande aussi des bonus-malus réellement incitatifs dans le cadre des régimes de Responsabilité Elargie des Producteurs (REP). « Quand un emballage ne sera pas recyclable mais sera quand même mis sur le marché, si la sanction est de 10 ou 15 points de son prix de vente, il va naturellement disparaître », défend Jean-Luc Petithuguenin.

Identification vocale : ses promesses et ses dangers

Depuis fin mai, Google expérimente le paiement par identification vocale – à ne pas confondre avec la reconnaissance de la parole – au travers du micro des enceintes connectées Google Home. Il n’est plus nécessaire d’empoigner son smartphone pour valider une transaction sur le Play Store à l’aide d’un mot de passe par exemple : la voix de l’utilisateur autorisé suffit. Une manière pratique d’accélérer les actes d’achat. Cette option vient en complément de la fonction Voice Match, laquelle était déjà capable de distinguer plusieurs membres au sein de la même famille.

Google est loin d’être un pionnier, car la voix, comme moyen biométrique, est mise en œuvre depuis quelques années par des services bancaires (HSBC au Royaume-Uni avec le concours de Nuance, notamment) et des opérateurs télécom. Il s’agit néanmoins d’une belle occasion de faire un point sur cette technologie. A la tête du Laboratoire d’Informatique à l’université d’Avignon et spécialiste de l’utilisation de la voix dans l’authentification, Jean-François Bonastre livre son expertise sur les évolutions de l’identification vocale, ses fragilités et les questions éthiques qu’elle soulève.

Techniques de l’Ingénieur : L’empreinte vocale n’est pas une expression appropriée selon vous. Pouvez-vous préciser ?

Jean-François Bonastre : L’empreinte vocale n’existe pas. On ne dispose pas de référentiel, à l’instar des minuties pour une empreinte digitale. D’autre part, la voix d’une personne varie durant la journée, en fonction de son état physiologique et émotionnel, et tout au long des étapes de sa vie. Les systèmes d’identification vocale doivent faire face à cette variabilité. La voix s’apparente plutôt à une signature, à l’image d’une signature manuscrite. Elle tient davantage de la biométrie comportementale, qui dépend au moins autant de l’acquis que de l’inné. Par chance, l’acquis n’est pas totalement contrôlable, donc une voix reste suffisamment stable pour que l’on puisse identifier le locuteur.

Quelles sont les techniques utilisées pour analyser et identifier une voix ?

Les techniques modernes ont débuté dans les années 2000 avec l’apprentissage automatique et la modélisation statistique des paramètres de la voix, ou mélange gaussien. Le système apprend un modèle de voix générique, avec ses variations, à partir des enregistrements vocaux d’une centaine de personnes. Quand vous parlez une dizaine de secondes dans l’application mobile de Google pour la phase d’enrôlement, ce modèle moyen est ajusté en tenant compte des spécificités de votre voix. Ces différences servent à vous identifier. Les vecteurs d’information, ou i-vecteurs, se sont développés à compter des années 2010. On les extrait d’un signal audio d’une dizaine de secondes afin de créer une signature. Le système apprend à rechercher les différences puis compare les signatures, quand il s’agit de valider une transaction par exemple.

Le système i-vecteur est également capable d’éliminer un bruit ambiant, si celui-ci est enregistré au préalable, et de normaliser la variabilité due au téléphone : sa base d’apprentissage comprend des centaines de modèles de téléphone et leurs nuisances particulières. Grâce à cette méthode, le taux d’erreur a été divisé par deux. Les modèles à réseaux de neurones et le deep learning sont les évolutions les plus récentes et conduiront probablement à un petit gain de performance ces prochaines années. L’approche est la même que précédemment, sauf que les données d’entraînement sont plus nombreuses. C’est la technologie qu’utilise Google. Les systèmes i-vecteurs sont plus performants si les extraits sonores durent une trentaine de secondes, avec beaucoup d’exemples de nuisances. Dans la situation où les extraits ne durent que quelques secondes dans un environnement très variable – cas typique d’une enceinte Google dans le cercle familial – les réseaux de neurones prennent l’avantage.

Quel est le degré de fiabilité de l’identification vocale, comparée à d’autres techniques biométriques ?

La signature vocale n’est pas une modalité d’identification aussi forte que l’empreinte génétique, digitale (à condition que celle-ci soit prise correctement), voire rétinienne. Mais la voix peut être associée à d’autres protocoles de sécurité pour prouver l’identité d’une personne : prononciation d’un mot de passe ou d’un code PIN, réponse à une question secrète… C’est une distinction parfois difficile à saisir : la signature vocale n’est pas la plus sûre, mais la voix, en tant que scénario pratique d’identification, permet d’atteindre un bon niveau de confiance.

Peut-on duper un système d’identification vocale ?

Commençons par rappeler qu’aucun système de sécurité n’est infaillible. L’imitation de la voix d’autrui par un être humain est un premier type d’attaque. Mais ces imitateurs s’exercent à tromper la perception humaine et sont moins efficaces face à une machine. Viennent ensuite les attaques technologiques, à commencer par l’enregistrement de la voix (replay attack). Ce subterfuge fonctionne assez bien, mais les systèmes détectent de mieux en mieux certaines traces laissées par le micro et le haut-parleur. Ensuite, des logiciels sont disponibles gratuitement pour convertir un enregistrement vocal et le faire ressembler à une voix-cible. Si l’utilisateur est novice, des contre-mesures existent. En revanche, si ce logiciel est aux mains d’un expert qui s’investit plusieurs mois, l’attaque est presque indétectable : le taux de fausses acceptations augmentera sensiblement. Enfin, un pirate, avec l’aide de réseaux de neurones, peut tenter de construire des voix-prototypes qui ont des chances de tromper le système d’identification vocale d’une banque. Cette attaque n’est pas conçue pour viser une personne spécifique mais, quand un système d’identification compte plusieurs millions d’utilisateurs – c’est le cas de Google – le risque que le pirate obtienne des milliers d’accès est loin d’être nul.

Quelles contraintes réglementaires s’appliquent à l’identification vocale ?

L’identification par la voix, comme toute donnée biométrique, entre dans le cadre du Règlement général sur la protection des données (RGPD). Mais, de façon étonnante, la voix elle-même n’est pas considérée comme une donnée sensible. Or, la voix renseigne sur l’état d’une personne, son passé (au travers de l’accent) et bien d’autres informations, ce qu’une IA est capable d’analyser. Google, comme tous les GAFAM, est susceptible de revendre de telles données, qui pourraient intéresser des cabinets de recrutement. On imagine les possibilités de discrimination. Il paraît évident que les jurisprudences vont évoluer pour que la voix soit une donnée protégée au titre de la vie privée. Les utilisateurs en seront les bénéficiaires, de même que les entreprises-clientes, responsables d’un point de vue juridique en cas de discrimination.

Un module thermoélectrique souple pour transformer la chaleur du corps humain en électricité

En plus d’être souple et étirable, ce matériau composite totalement nouveau présente des propriétés thermoélectriques et une conductivité électrique élevée. Autant de caractéristiques qui intéressent fortement l’industrie naissante des vêtements connectés ou wearables.

Un textile est qualifié d’intelligent lorsqu’il est capable d’interagir de manière active avec son environnement. Pour être “intelligent”, il doit intégrer de l’électronique, ce qui nécessite de développer des systèmes électroniques compatibles avec la notion de vêtement, c’est-à-dire souples et étirables. Pour y arriver, de nouveaux matériaux doivent aussi être conçus.

Un matériau totalement nouveau

Le PEDOT:PSS est le plus connu et le plus utilisé des polymères conducteurs, mais il a un défaut : sous forme de films, il est trop dur et trop fragile pour être utilisé dans les wearables. Pour résoudre ce problème, l’équipe de chercheurs du Laboratory of Organic Electronics de l’université de Linköping a développé un matériau composite associant les propriétés du PEDOT:PSS à un liquide ionique contenant du caoutchouc polyuréthane, une matière extrêmement élastique.

Un film composite peut-être étiré jusqu’à 600% de sa longueur initiale. Une fois relâché, il reprend une longueur légèrement supérieure. Credit : Linkoping University. Licence Creative Commons 4.0 Source : https://www.nature.com/articles/s41467-020-15135-w/figures/1

En plus d’être 100 fois plus souple et 100 fois plus étirable que le PEDOT:PSS, le composite qu’ils ont inventé peut aussi être imprimé sur des surfaces de nature variée. Ainsi, son application sur des surfaces flexibles ne pose plus de problème puisque le composite est largement capable de suivre le mouvement. Par ailleurs, le procédé qui permet de fabriquer ce matériau est à la fois économique et n’est pas dangereux pour l’environnement.

Un panel d’applications varié

Ce composite n’est qu’un exemple des possibilités offertes par l’idée initiale de cette équipe de chercheurs. En effet, le principe qui consiste à combiner des liquides ioniques, des polymères conducteurs et des élastomères peut être étendu à une très grande variété de matériaux. Une nouvelle famille de nanocomposites est en train de voir le jour et leur champ d’application est vaste : batteries, capteurs, générateurs thermoélectriques, supercondensateurs et d’une manière générale, toutes les applications qui nécessitent des conducteurs électriques qui soient à la fois élastiques et épais.

D’après la story de Monica Westman Svenselius, pour Linkoping University

Pour en savoir plus

Covid-19 : produire des matériaux antimicrobiens, des innovations made in France

Dans plusieurs secteurs d’activités, la reprise après la période de confinement a été soumise à de nombreuses adaptations. Le défi, notamment pour les professionnels accueillant du public, est de trouver des solutions pour endiguer la circulation des bactéries et virus, le coronavirus en tête de file. Pour cela, la distanciation physique est de rigueur. Face à ces constats, plusieurs sociétés françaises proposent d’aller plus loin dans la prévention en inventant des matériaux antimicrobiens.

La photocatalyse sur les tissus contre la Covid-19

Dans le Rhône, à Caluire-et-Cuire près de Lyon, la société Trajet – Aunde a mis au point des tissus qui ont la capacité de se désinfecter sans avoir besoin du moindre désinfectant. Pour parvenir à un tel résultat, les textiles subissent un traitement à base de dioxyde de titane. Ainsi, ces derniers deviennent résistants aux bactéries et virus grâce au principe de la photocatalyse. Cela signifie qu’exposés à un rayonnement UV, naturel ou artificiel, les tissus traités ont la capacité de se débarrasser de toute substance polluante.

Un dépistage réalisé en laboratoire a permis de démontrer que le coronavirus ne survit pas sur cette surface. « Sans avoir besoin d’être lavé ou mouillé, le tissu élimine en une minute plus de 99,99 % de la charge virale », indique Jérôme Blanc, président de Trajet – Aunde. Ainsi, il n’y aurait plus besoin de procéder à une désinfection entre deux utilisations d’un même tissu. C’est pourquoi Trajet – Aunde estime que ses produits sont adaptés à la lutte contre la propagation du coronavirus dans les transports en commun. À l’avenir, la PME développera la même technologie sur d’autres types de tissus, toiles et voilages.

Une toile biocide à base de particules d’argent

L’argent possède également des propriétés permettant de lutter contre la propagation des microbes. Cette information est notamment confirmée par des travaux de l’Institut national de l’environnement et des risques (Ineris) et la thèse doctorale en chimie biologie présentée par Marianne Marchioni à l’Université de Grenoble en 2018. « La consommation moyenne d’argent a doublé entre 1960 et nos jours, mue par l’évolution du secteur industriel de l’électronique […] ainsi que par le développement des nouvelles applications de l’argent dans les domaines du textile et de la médecine comme agent biocide », indique Marianne Marchioni.

C’est sur ce principe que repose l’innovation de la société Serge Ferrari, qui a mis au point un tissu biocide conçu à base de particules d’argent actif. L’entreprise indique « avoir développé et breveté une technologie destinée à ses membranes composites pour réduire la charge virale des coronavirus ». Concrètement, au contact de cette toile, la charge virale des coronavirus serait réduite de 95 % en quinze minutes, et de 99,5 % après une heure. Le tissu peut recouvrir les poignées de porte, les bureaux ou encore du mobilier urbain.

Une peinture bactéricide à base de cuivre

Autre métal connu généralement utilisé pour ses propriétés biocides : le cuivre. Aux États-Unis, des scientifiques des Instituts nationaux de santé (NIH), des Centres pour le contrôle et la prévention des maladies (CDC), de l’Université de Californie (UCLA), et de l’Université de Princeton ont étudié la résistance du coronavirus sur différents matériaux. Leurs résultats publiés dans le New England Journal of Medicine indiquent que le virus SARS-CoV 2, responsable de la Covid-19, peut survivre environ vingt-quatre heures sur du carton, et même deux à trois jours sur du plastique ou de l’acier inoxydable. Mais au contact du cuivre, le virus n’est détectable que durant quatre heures.

C’est pourquoi la société héraultaise MetalSkin Medical a choisi d’utiliser le cuivre pour proposer une peinture capable de détruire bactéries, virus et autres germes. « Cette technologie est une peinture à froid antibactérienne formulée avec un alliage de cuivre (à +90 %) et des polymères, d’une épaisseur d’environ 200 micromètres », indique la société.  MetalSkin Medical affirme que cette peinture élimine 99,97 % de bactéries. Créé en 2013, ce produit s’adressait initialement au secteur de la santé. Aujourd’hui, Stéphane Penari, fondateur de la société, assure que son produit est utilisable dans divers secteurs d’activité, notamment dans l’industrie pharmaceutique ou agroalimentaire.

Une relecture de la règle de Hotelling pour décrire les cours des ressources naturelles

Bien qu’elle n’ait jamais permis d’expliquer ni même de prédire l’évolution du prix des ressources minérales et énergétiques comme le cours du pétrole, la règle de Hotelling a toujours conservé une place centrale en économie des ressources naturelles. C’est en effet sur sa base que sont construits de nombreux modèles de calculs plus sophistiqués pour expliquer la réalité des trajectoires de prix de ces marchés. Une étude publiée dans le Canadian Journal of Economics révèle qu’Harold Hotelling, l’économiste et mathématicien américain qui inventa cette règle en 1931, avait décrit les principaux facteurs permettant d’expliquer l’évolution des cours des ressources non renouvelables.

À la suite du choc pétrolier en 1973, lorsque des économistes ont repris le travail de Hotelling, ils ont retenu uniquement son équation de base. Elle se résume ainsi : face à un stock de ressources épuisables, un producteur va prendre la décision de le vendre ou non en fonction des taux d’intérêt. Concrètement, s’il estime que la valeur de son stock va peu évoluer comparé au niveau des taux d’intérêt, il prendra alors la décision de vendre rapidement sa matière pour ensuite placer son argent et ainsi faire fructifier son capital. Au contraire, s’il pense que la valeur de son stock va davantage augmenter que le niveau des taux d’intérêt, alors il conservera son stock pour le vendre plus tard.

Le coût de production dépend des contraintes géologiques

Grâce à un travail de recherche à partir des brouillons et de la correspondance de Hotelling, l’étude du Canadian Journal of Economics démontre que Hotelling avait décrit trois facteurs fondamentaux permettant d’expliquer les trajectoires de prix. Le premier concerne la finitude de la ressource et son caractère limité. « Le deuxième facteur décrit l’augmentation du coût de production liée aux contraintes géologiques et à la difficulté à extraire la ressource naturelle, explique Roberto Ferreira da Cunha, chercheur au Berkeley Research Group. Le dernier tient compte du coût induit par l’accélération de la production, qui s’explique par la nécessité d’investir au fur et à mesure que la production augmente au-delà de la capacité existante, à l’image du besoin de construire de nouvelles infrastructures telles que des raffineries ». Par une sorte de malentendu, les lecteurs de la théorie de Hotelling n’ont pas retenu ces deux derniers facteurs. Il faut dire qu’ils étaient suggérés en quelques lignes et n’avaient pas été traduits en équation. « À l’époque, Hotelling n’avait pas forcément les outils mathématiques pour les écrire puisque certaines théories ne vont être inventées qu’à partir des années 50 », complète Antoine Missemer, économiste chercheur au CNRS.

À travers cette relecture, les deux chercheurs de l’étude proposent aujourd’hui de rebâtir une règle de Hotelling alternative qui intègre ces deux facteurs additionnels. Résultat : la trajectoire de production prend à présent la forme d’une cloche, traduisant ainsi la réalité observée sur les différents marchés des ressources minérales et énergétiques. En 1956, Marion King Hubbert, un géophysicien américain avait d’ailleurs modélisé une telle courbe qui porte son nom : la courbe de Hubbert. En pratique, elle s’interprète de cette façon : le sommet de la production est atteint lorsque la moitié environ de la ressource a été exploitée. Alors qu’Hubbert s’arrêtait à la description des quantités de matières produites, Hotelling cherchait à décrire des trajectoires de prix afin qu’un producteur maximise son profit. À présent, la règle de Hotelling alternative décrit une courbe de prix en forme de « U ». En faisant abstraction de la demande, elle traduit le fait que les prix des ressources baissent dans un premier temps au fur et à mesure que la production augmente, puis se mettent à croître quand la ressource vient à manquer et qu’elle devient de plus en plus difficile à extraire.

De nouveaux gisements grâce aux progrès technologiques

Si ce nouveau modèle, inspiré par Hotelling, aide à mieux comprendre l’évolution des cours passés et actuels, prédire les trajectoires de prix futurs s’avère un exercice périlleux. La raison principale s’explique par la difficulté à évaluer les stocks de ressources non renouvelables même si d’autres éléments peuvent également entrer en jeu, comme l’évolution de la demande, le progrès technique, la concurrence, les réalités géopolitiques… Prenons l’exemple du pétrole où, à la fin des années 90, de nombreux experts pensaient que la production mondiale allait atteindre un pic avant la fin des années 2000 face à la raréfaction des gisements conventionnels. Leur prédiction a été contredite par l’exploitation de pétrole et de gaz de schiste aux États-Unis. « Les stocks de ressources deviennent des réserves dont la capacité va dépendre des avancées technologiques permettant d’extraire de nouveaux gisements, analyse Antoine Missemer. Mais cela ne signifie pas pour autant que ces ressources sont illimitées ». Aujourd’hui, les experts se demandent si un pic, cette fois-ci de la demande, n’a pas été atteint en novembre 2019, avant que la pandémie mondiale liée au Covid-19 ne fasse chuter brutalement la consommation de pétrole. À l’avenir, les politiques climatiques menées par les Etats afin de réduire les gaz à effets de serre risquent également de peser sur cette demande. Un changement de contexte que n’avait probablement pas imaginé Hotelling au début du 20ème siècle.

Datacenters : plus performants et moins gloutons

Le « Green Deal » européen, publié fin 2019, est ambitieux. Il prévoit notamment d’imposer des normes d’émission plus strictes aux industries, des taxes sur l’énergie et des normes de qualité de l’air plus sévères.

Tous les pays de l’UE doivent être climatiquement neutres à 100 % d’ici 2050 et atteindre un objectif de 50 % d’ici 2030. Et l’industrie des datacenters n’échappe pas au Green deal : sa neutralité en carbone doit être effective dans dix ans !

Mais avec la pandémie du Covid-19, le Green Deal ne semble plus être la priorité numéro un de la Commission européenne. Quel que soit l’avenir de ce programme, les datacenters n’ont cessé d’améliorer leurs performances techniques tout en réduisant leur consommation.

En 2018, ils représentaient environ 1 % de toute l’électricité consommée dans le monde, soit la même part qu’en 2010. En moyenne, 40 % de cette énergie est utilisée par les systèmes de refroidissement pour assurer le fonctionnement de l’installation 24h/24, 7j/7.

Pourtant, la quantité de calculs effectués dans les datacenters a plus que quintuplé entre 2010 et 2018. Mais l’Agence Internationale de l’Energie (International Energy Agency-IEA) s’attend à ce que cette tendance se poursuive (voir le graphique ci-dessous).

Et une étude de l’Université Northwestern, du Lawrence Berkeley National Laboratory et de Koomey Analytics confirme cette évolution : les récents gains d’efficacité réalisés par les centres de données ont été bien plus importants que ceux observés dans d’autres grands secteurs de l’économie mondiale.

Les chercheurs qui ont réalisé cette étude ont en effet mis au point un modèle très détaillé de la consommation énergétique des centres de données mondiaux. Ils ont intégré de nouvelles données provenant de nombreuses sources, notamment des informations sur les stocks d’équipement des centres de données, les tendances en matière d’efficacité et la structure du marché.

Le modèle qui en résulte permet une analyse détaillée de l’énergie utilisée par les équipements des centres de données (tels que les serveurs, les dispositifs de stockage et les systèmes de refroidissement), par type de centre de données (y compris le cloud computing) et par région du monde.

Les chercheurs ont conclu que les récents gains d’efficacité réalisés par les centres de données ont probablement été bien plus importants que ceux observés dans d’autres grands secteurs de l’économie mondiale.

« Le manque de données a entravé notre compréhension des tendances mondiales en matière d’utilisation de l’énergie dans les centres de données pendant de nombreuses années », a déclaré le coauteur de cette étude Jonathan Koomey de Koomey Analytics. « De telles lacunes dans les connaissances rendent la planification des affaires et des politiques incroyablement difficile ».

Grâce à leur modèle, ils ont pu constater que, bien que la demande de données ait augmenté rapidement, les gains d’efficacité massifs ont permis de maintenir la consommation d’énergie à peu près au même niveau qu’au cours de la dernière décennie.

En s’appuyant sur ce modèle, les chercheurs peuvent faire des recommandations stratégiques pour mieux gérer cette consommation d’énergie à l’avenir :

  • renforcer les normes énergétiques informatiques telles qu’ENERGY STAR ;
  • accroître les investissements en R&D dans les technologies de calcul, de stockage et d’évacuation de la chaleur afin d’atténuer la consommation future d’énergie ;
  • encourager l’achat d’énergies renouvelables pour atténuer parallèlement les émissions de carbone…

« Bien que les progrès historiques réalisés par les datacenters en matière d’efficacité énergétique soient remarquables, nos conclusions ne signifient pas que l’industrie informatique et les décideurs politiques peuvent se reposer sur leurs lauriers », a déclaré Éric Masanet, qui a dirigé l’étude.

Selon ce professeur adjoint à l’école d’ingénierie McCormick de Northwestern, « il reste suffisamment de potentiel d’efficacité pour durer encore plusieurs années. Mais la demande sans cesse croissante de données signifie que tout le monde – y compris les décideurs politiques, les opérateurs de centres de données, les fabricants d’équipements et les consommateurs de données – doit intensifier ses efforts pour éviter une éventuelle forte augmentation de la consommation d’énergie ».

Les géants de l’IT, mais aussi les gros consommateurs d’énergie, n’ont pas attendu ces conseils pour entamer de lourds investissements

En 2019, les trois plus grands opérateurs (Facebook, Google et ATT) ont acheté 3,613 gigawatts d’énergie renouvelable en utilisant des accords d’achat d’électricité (AAE).

Source : Renewable Energy Buyers Alliance

En janvier, Microsoft a dévoilé un plan visant à réduire de moitié ses émissions de carbone d’ici 2030, tant pour les émissions directes que pour l’ensemble de sa chaîne d’approvisionnement et de valeur.

Facebook s’appuie de plus en plus sur les énergies éolienne et solaire pour alimenter des datacenters. L’achat de sources locales d’énergie renouvelable est désormais un facteur clé dans la localisation de ses nouveaux centres de données.

Quant à Google, il a développé une plateforme informatique intelligente qui permet de réduire l’impact carbone de son énorme réseau de centres de données en programmant de gros travaux informatiques durant des périodes où ils peuvent être alimentés par des énergies renouvelables.

Pollution plastique : renforcer la cohérence des initiatives

« Le cadre international est assez fragmenté et mal adapté à la pollution plastique des océans », prévient Glen Wright, chercheur en politique internationale de l’Océan à l’Iddri. En effet, selon une nouvelle étude de l’Institut du Développement Durable et des Relations Internationales, plusieurs instruments jouent un rôle pour lutter contre la pollution plastique. Mais aucun ne fournit une réponse globale au problème. Par exemple, la Convention de Stockholm sur les polluants organiques persistants ne couvre que certains produits chimiques. En plus, la convention de Londres sur la prévention de la pollution des mers et la Convention internationale pour la prévention de la pollution marine par les navires (Marpol) ne couvrent que la pollution par les navires. Les autres instruments, comme la convention de Bâle sur le contrôle des mouvements transfrontières de déchets dangereux et de leur élimination, ou la convention des Nations unies sur le droit de la mer, ne comprennent pas de dispositions spécifiques sur les déchets plastiques marins.

Le plastique s’invite dans l’agenda politique. Quatre résolutions de l’Assemblée des Nations Unies pour l’environnement ont été consacrées aux déchets marins et aux microplastiques. Le G7 a élaboré une charte sur les plastiques dans les océans. Les déchets plastiques sont aussi pertinents pour plusieurs des objectifs de développement durable (ODD) des Nations Unies. En particulier l’ODD 9 sur l’industrie, l’innovation et les infrastructures, l’ODD 12 sur la consommation et la production responsables et l’ODD 14 sur les océans. Mais ces politiques volontaires ne sont pas juridiquement contraignantes.

Des engagements internationaux, régionaux et nationaux

S’ajoutent plusieurs initiatives à différences échelles : nationales, régionales et privées. Elles visent à réduire l’utilisation des plastiques, à empêcher les déchets plastiques d’origine terrestre et maritime de pénétrer dans l’océan, à promouvoir une approche d’économie circulaire et à encourager les innovations et la recherche de matériaux de substitution.

De plus en plus de pays se dotent de stratégies nationales. Elles visent l’interdiction de certains plastiques à usage unique ou posent des objectifs de réduction, mettent en place des taxes ou définissent des objectifs de recyclage. C’est par exemple le cas de la France, de la Norvège, de l’Indonésie, du Japon… mais aussi de l’Union européenne.

« Au niveau régional, les programmes régionaux du PNUE s’intéressent depuis longtemps à la pollution tellurique et beaucoup ont convenu de protocoles juridiques pour coordonner ces questions et réduire la pollution, explique Glen Wright. Plusieurs régions discutent actuellement de plans spécifiques pour la pollution plastique ». En effet, plusieurs programmes des mers régionales de l’ONU-Environnement (ex-PNUE) ont élaboré des protocoles juridiquement contraignants spécifiques sur la pollution d’origine terrestre : les Caraïbes, la Méditerranée, l’Afrique de l’Ouest et l’océan Indien occidental. Certaines régions ont également adopté des plans spécifiques pour lutter contre les déchets marins, y compris le plastique. C’est par exemple le cas du Plan régional sur la gestion des déchets marins en Méditerranée. Les initiatives régionales se heurtent toutefois souvent à un manque de capacités, de financements et à un engagement limité.

Le besoin de nouvelles initiatives à tous les niveaux

Malgré toutes ces initiatives, les défis restent nombreux. Les experts pointent du doigt la nécessité d’améliorer les systèmes de gestion et de traitement des déchets, surtout dans les pays en développement. Il convient de mieux surveiller et comprendre la pollution plastique, de révolutionner nos systèmes économiques et nos modes de consommation et de production. Cela passera par la mise en œuvre d’une responsabilité élargie des producteurs et par le soutien à l’innovation et la recherche pour développer des matériaux alternatifs.

Dans cette perspective, d’autres initiatives portées par la société civile et le secteur privé se développent. On trouve d’un côté les opérations de nettoyage des océans comme celles portées par The Ocean Cleanup ou The Sea Cleaners. En plus, des initiatives isolées ou collectives pour améliorer l’économie circulaire se développent plus récemment. Il s’agit par exemple de l’engagement mondial pour la nouvelle économie des plastiques de la fondation Ellen MacArthur. De l’autre côté, les programmes de recherche et les campagnes médiatiques et de communication visent à développer les connaissances et la prise de conscience du public.

Vers un traité international ?

« Il y a une multiplication des initiatives à différentes échelles, mais parfois l’articulation entre elles n’est pas claire, relève Glen Wright. La communauté internationale a commencé à discuter de l’opportunité d’élaborer un instrument juridiquement contraignant, un traité spécifique pour combattre la pollution plastique. »

Face aux difficultés d’élaborer un traité international et au temps nécessaire pour y parvenir, l’Iddri reste critique à l’égard de cette approche. L’issue de ces négociations étant incertaine, l’institut souligne la nécessité de considérer des options complémentaires. Il recommande ainsi de renforcer la cohérence et de mieux coordonner les initiatives existantes et de renforcer des synergies entre les conventions existantes. En plus, il invite à développer de nouvelles initiatives au sein des cadres mondiaux et régionaux existants.

L’exploitation minière en eaux profondes contestée

Selon les compagnies minières, l’exploitation minière de nodules polymétalliques dans les eaux profondes du Pacifique engendrerait des bénéfices sociaux et économiques pour les économies insulaires. Mais un nouveau rapport commandé par la Deep Sea Mining Campaign et MiningWatch Canada montre que ces arguments vont à l’encontre du consensus scientifique. Les auteurs appellent à un moratoire.

« Non seulement l’extraction des nodules va détériorer les fonds marins pendant des milliers d’années, mais elle pourrait avoir des conséquences sur le reste de l’océan et sur les personnes qui en dépendent », avertit Andrew Chin, auteur principal du rapport. Synthèse de plus de 250 articles, le rapport montre qu’une telle exploitation impacterait la pêche, le cycle et le stockage du carbone, les espèces, les habitats et les écosystèmes. En plus, les déchets miniers pourraient entraîner des impacts sanitaires importants en raison de la dépendance des habitants aux produits de la mer.

Extraire ou non les nodules polymétalliques ?

Les fonds de l’océan Pacifique attirent les convoitises des compagnies et des investisseurs miniers. En particulier, ils visent les nodules polymétalliques riches en minerais, indispensables selon eux pour assurer une transition mondiale vers les énergies renouvelables. Ces minerais sont extraits jusqu’à 6 km sous le plancher océanique, à des pressions allant jusqu’à 600 bars. Si aucune exploitation commerciale n’a encore été autorisée, l’Autorité internationale des fonds marins, établie par l’Organisation des Nations Unies, a déjà émis 30 permis de prospection sur des millions de kilomètres carrés de grands fonds marins des océans Indien, Atlantique et Pacifique.

Le rapport met en avant les solutions alternatives à cette exploitation minière. Il s’agit notamment de développer l’économie circulaire qui prône la réduction, la réutilisation et le recyclage des métaux, ainsi que l’éco-conception. « Il existe des moyens bien plus durables de répondre aux besoins en minéraux grâce à une meilleure réglementation de l’exploitation minière terrestre, des économies circulaires basées sur une conception intelligente, le recyclage et la réduction de la demande grâce au développement de nouvelles technologies telles que les piles qui ne dépendent pas de métaux rares et coûteux obtenus avec un coût environnemental élevé », complète Alex Rogers, spécialiste de l’écologie des eaux profondes et réviseur expert.

Techniques de l’Ingénieur soutient les étudiants : Consultez la rubrique de votre choix !

Techniques de l’Ingénieur vous soutient pour préparer sereinement la fin de l’année.

Cette semaine, la rubrique qui a recueilli le plus de votes est : Fondamentaux en chimie.

Pour vous aider à réviser vos partiels, examens ou concours, vous pouvez d’ores et déjà profiter en accès libre de cette ressource documentaire.

Consultez sans limite les 19 000 articles de référence, fiches pratiques et articles d’actualité de Techniques de l’Ingénieur.

Profitez chaque semaine de la rubrique dont vous avez besoin

Cette semaine, la rubrique la plus plébiscitée par les étudiants est : Fondamentaux en chimie. 

Rendez-vous à la rentrée pour profiter de nouvelles rubriques en accès libre !

 

 

Siemens Gamesa lance une machine de 14 MW pour l’offshore éolien

La course au gigantisme se poursuit dans l’éolien offshore, en quête d’une meilleure rentabilité, la fameuse LCOE (LEvelized Cost of Energy). Créée à partir du modèle 10 MW de SGRE, la SG 14-222 DD d’une capacité de 14 MW pourra en effet atteindre jusqu’à 15 MW grâce à la fonction Power Boost, précise le fabricant allemand. Elle devrait être commercialisée en 2024.

Le rotor fait 222 mètres de diamètre, les pales ont 108 mètres de long et la surface balayée est de 39 000 m². Chaque pale IntegralBlade® de 108 mètres de long est coulée en une seule pièce en utilisant les technologies brevetées de Siemens Gamesa pour les pales. En outre, la surface balayée de 39 000 m² de la turbine équivaut à environ 5,5 terrains de football standard.

La SG 14-222 DD augmente de plus de 25 % la production annuelle d’énergie par rapport à son éolienne offshore SG 11.0-200 DD (11 MW, dont le mise en production commerciale est prévue en 2022) et une augmentation de 75 % de la production d’énergie annuelle par rapport au modèle SG 8-167 DD (8 MW) qui va équiper prochainement une majorité des parcs éoliens en mer française, ajoute SGRE.

Le poids de nacelle relativement faible est de 500 tonnes, contre 380 t pour la 8 MW. Ce poids, léger pour une machine de cette puissance, permet à Siemens Gamesa d’utiliser en toute sécurité une tour et une sous-structure de fondation optimisées par rapport à une nacelle plus lourde. Les avantages se présentent donc sous la forme de coûts réduits par turbine en minimisant les matériaux d’origine et en réduisant les besoins de transport, tout en demeurant dans des fourchettes de manutention qui existent. Les navires grues sont en effet dimensionnés pour lever et installer de telles charges.

A titre de comparaison, la 8 MW avait une hauteur maximale de 207 m en bout de pale et d’un rotor de 167 m de diamètre. En revanche, la plateforme à entraînement direct développée par SGRE est reprise par la 14 MW. Plus de boîte de vitesse, ce qui permet d’alléger largement le poids des nacelles en bout de mât.

Elle bénéficie en outre d’un retour d‘expérience inégalé. Depuis 2006, plus de 1 000 éoliennes à entraînement direct ont été mises en service sur des parcs éoliens en mer en Europe et dans le monde, rappelle SGRE. Dix jours après avoir annoncé le lancement de sa 14 MW, SGRE a indiqué que les premières machines de ce type devraient être implantées à Taiwan. Un accord avec Hai Long Offshore Wind (Hai Long) prévoit que la nouvelle éolienne offshore SG 14-222 DD sera utilisée lors du projet Hai Long 2 de 300 MW à Taiwan.

L’usine du Havre, une première mondiale

Parallèlement à cette annonce, SGRE a lancé officiellement le chantier de son usine française, au Havre, en Normandie. Siemens Gamesa tient à souligner que l’ensemble des éoliennes en mer du parc en mer de Saint-Brieuc seront « Made in France ». Elles seront assemblées dans la future usine SGRE sur le Port du Havre. Et ce sera une première mondiale, puisque, pour la première fois, un fabricant d’éoliennes offshore disposera sur un même site d’une usine d’assemblage des turbines et des nacelles, d’un atelier pour la construction des pales, ainsi que d’une zone logistique dédiée à l’installation des projets marins. La fabrication des éoliennes débutera en 2021 et permettra la création de plus de 700 emplois. Ailes Marines, la filiale d’Iberdrola, est le premier opérateur à avoir annoncé une commande ferme pour le parc de Saint-Brieuc (496 MW au total). Suivront les machines pour le parc de Fécamp, développé par EDF Renouvelables, Enbridge et wpd. L’usine du Havre, qui devrait aussi « exporter », a vocation, à terme, à également fabriquer les 14 MW.

« L’offshore est dans notre ADN », déclare Andreas Nauen, PDG de la division offshore de SGRE dans un communiqué publié à cette occasion. « Depuis que nous avons contribué à la création de l’industrie éolienne offshore en 1991, nous avons été déterminés à augmenter en toute sécurité les performances opérationnelles, à minimiser les risques technologiques et à créer un coût de l’énergie toujours plus bas. La SG 14-222 DD traduit notre volonté de montrer la voie dans un monde alimenté par une énergie propre. En fait, une seule unité permettra d’éviter environ 1,4 million de tonnes d’émissions de CO2 par rapport à la production d’électricité au charbon au cours de sa durée de vie prévue sur une durée initiale de 25 ans », ajoute-t-il.

L’arrivée de monnaies numériques rebat les cartes de la finance

La Chine préparait une version numérique de son yuan. Présenté en 2018, ce projet de « Digital Central Electronic Payment » (DCEP) serait l’un des maillons favorisant le plan de relance (131,4 milliards d’euros) de son économie qui devrait chuter cette année pour la première fois en 40 ans en raison de la pandémie de coronavirus.

« Le fond du sujet est la guerre commerciale entre les États-Unis et la Chine, car c’est la suprématie du dollar qui est en jeu. Elle peut être remise en cause d’ici cinq à dix ans par des monnaies digitales surtout si elles sont émises par des banques centrales autres que la US Federal Reserve », estime Maître Hubert de Vauplane. Cet avocat au barreau de Paris co-dirige l’activité FinTech au sein du cabinet Kramer Levin Naftalis & Frankel LLP.

Comme les Chinois, les Américains réfléchissent au lancement d’un dollar numérique. Un groupe d’experts privés s’est d’ailleurs réuni en mars dernier, autour de la Digital Dollar Foundation pour étudier ses applications potentielles.

L’Europe n’est pas en reste. Depuis l’annonce du projet de cryptomonnaie Libra de Facebook en juin 2019, les travaux des banques centrales sur la création d’une monnaie digitale se sont accélérés. Dans une étude rendue publique en janvier dernier, la Banque des règlements internationaux (BRI) indique que 80 % des banques centrales étudient la création d’une monnaie digitale d’une manière ou d’une autre. C’est 10 points de plus qu’un an auparavant.

Un futur euro digital

C’est le cas de la Banque de France. Fin 2019, son gouverneur avait annoncé le lancement d’expérimentations et d’un appel à projets concernant la création d’une monnaie digitale au premier trimestre 2020. L’objectif est de tester d’abord une monnaie numérique interbancaire qui puisse servir de laboratoire en vue d’un éventuel futur « euro digital ».

Même des entreprises privées y réfléchissent. Le cas de Facebook est le plus emblématique. VISA a déposé en novembre 2019 une demande de brevet auprès de l’Office américain des brevets et des marques (USTPO) pour une « monnaie fiduciaire numérique » (« Digital fiat currency »). Ce brevet s’applique au dollar numérique, mais aussi aux autres monnaies numériques des banques centrales telles que la livre, le yen et l’euro.

Pourquoi cet intérêt pour la monnaie numérique ? « Dans un monde numérique comme celui que nous connaissons aujourd’hui, nous payons encore avec des cartes bancaires. Dans le monde de demain où l’industrie aura été digitalisée, ce ne sera plus le cas. Cette industrie vieille de 30/40 ans a fait ses preuves (notamment à propos des fraudes). Mais cette solution va devenir obsolète, car elle présente aussi des limites : trop lente, trop compliquée, trop coûteuse, pas de débits immédiats, peu d’interopérabilité. Une monnaie digitale permettrait de réduire ces coûts », précise Maître Hubert de Vauplane.

Elle pourrait donc être un sérieux concurrent du dollar (sans le remplacer définitivement) dans les transactions internationales (ce qu’on appelle de la monnaie digitale de gros, à l’opposé de la monnaie digitale de détail pour les petits achats).

La guerre des normes

« Pour VISA, c’est l’occasion de ne pas trop perdre la main et de ne pas se laisser déborder par une nouvelle technologie, mais il y a de fortes chances pour que ces monnaies digitales ne passent pas par cet acteur… La hantise de toute l’industrie financière est d’être dans la situation des fabricants de calèches du XXIe siècle. Ces derniers ne sont pas devenus des fabricants d’automobiles alors qu’ils avaient toute l’infrastructure pour le devenir. Ils ont raté la révolution du moteur à explosion », rappelle Maître Hubert de Vauplane.

Des cartes vont être potentiellement rebattues. Même des géants comme Apple et Google pourraient voir leur business model remis en cause, car leurs solutions de paiement par mobile reposent sur des cartes bancaires…

Toutes ces perspectives sont encore lointaines. « Mais la bataille a lieu maintenant, car les normes techniques et les solutions sous-jacentes retenues (quel type de blockchain ou quelle autre modalité technique) vont guider la monnaie digitale de demain. Comme toujours, c’est une guerre des normes », prévient Maître Hubert de Vauplane.

Or, « la puissance d’un pays réside dans sa capacité à imposer des normes », rappelait Bernard Carayon (à cette époque, Rapporteur spécial au nom de la Commission des Finances sur le Budget du Premier ministre), lors de la conférence d‘ouverture au SSTIC (Symposium sur la sécurité des technologies de l’information et des communications) en 2004.

Les énergies renouvelables, un levier de la relance économique

Fin mars 2020, le parc français des énergies renouvelables s’élevait à 54 234 mégawatts (MW). La hausse annuelle est de 2 574 MW. Mais la crise sanitaire impacte les volumes installés dans toutes les filières au deuxième trimestre. À la veille d’une crise économique majeure, le syndicat des énergies renouvelables (SER) dresse plusieurs propositions pour pérenniser les filières des énergies renouvelables. Il souhaite en faire un volet stratégique du plan de relance. Les objectifs sont triples : favoriser la création d’emplois et de valeur ajoutée dans nos territoires, décarboner l’économie et développer des filières françaises.

Adoptée fin avril, la programmation pluriannuelle de l’énergie (PPE) planifie la transition énergétique d’ici 2028. Selon une étude commandée par le SER, les énergies renouvelables généreront à cet horizon 24 milliards d’euros de valeur ajoutée en France et représenteront 264 000 emplois directs et indirects, contre 166 000 emplois en 2019. « Une stratégie de densification du tissu industriel situé en France, en réduisant de moitié les taux d’importation, permettrait de générer 20 milliards d’euros supplémentaires sur la période de la PPE », prévient le SER.

Simplifier et accélérer les projets ENR

Les lourdeurs administratives françaises jouent toujours contre les projets d’énergie renouvelable. « Parmi les pays européens, nous avons le record de durée de développement des projets énergie renouvelable, partage Jean-Louis Bal, président du SER. Nous sommes les recordmen pour l’éolien avec 7 à 8 ans en moyenne, mais cela concerne aussi le photovoltaïque et les réseaux de chaleur ». Le SER dresse donc plusieurs propositions pour accélérer et fluidifier le développement des projets. En particulier, il soutient la dématérialisation du dépôt de demandes de permis de construire et d’autorisation environnementale. En plus, il souhaite accélérer l’instruction des candidatures aux appels d’offres et l’instruction des recours contre les projets.

Le SER appelle à pérenniser les revenus liés à la fiscalité carbone et à les affecter à des mécanismes d’accompagnement des ménages, des collectivités et des entreprises à la transition énergétique. Dans le prolongement de l’initiative franco-allemande pour la relance européenne, il appelle à renforcer le système communautaire d’échange de quotas d’émission (ETS), en ligne avec l’objectif de neutralité carbone en 2050. Il sera couplé à un prix plancher pour le carbone et à un mécanisme d’inclusion carbone aux frontières. Au niveau national, il s’agira d’augmenter la contribution climat-énergie (CCE).

Miser sur le bâtiment et les citoyens

Une autre proposition vise à faire de la neutralité carbone du bâtiment un pilier de la relance. MaPrimeRénov’, la nouvelle aide financière pour la rénovation énergétique, remplace le crédit d’impôt pour la transition énergétique (CITE). À partir de 2021, les foyers à haut revenu ne seront plus éligibles à cette aide. « Nous proposons de revenir sur ce nouveau périmètre qui a exclu les déciles 9 et 10, ceux aux plus hauts revenus, avance Jean-Louis Bal. Ce sont ceux qui contribuaient le plus au développement des énergies renouvelables dans le bâtiment ». Pour les ménages les plus modestes, le SER propose en plus la création d’un « chèque énergie renouvelable » sur le modèle du chèque énergie.

Enfin, le SER demande de sécuriser le développement des réseaux électriques, de gaz et de chaleur, et d’accompagner le développement des entreprises à l’international. Le syndicat demande toujours de stabiliser le cadre réglementaire. Cela passe entre autres par le respect des trajectoires, et notamment de la cadence des appels d’offres. Plus globalement, le SER invite l’Etat à initier un plan de communication national pour rappeler la nécessité de développer les énergies renouvelables et répondre aux contre-vérités, notamment sur l’éolien.

Étape majeure pour le projet de fusion nucléaire ITER

En deux jours, une équipe d’environ 200 personnes a installé la base du cryostat, une cuve en acier de 1 250 tonnes, pour la mettre en place dans le puits qui va accueillir le tokamak, un énorme tore au sein duquel la réaction de fusion aura lieu. Cet élément est la partie inférieure du « boîtier » qui va encapsuler le tokamak, l’ensemble étant placé dans un puits de 30 mètres de profondeur et de 30 m de diamètre.

Les éléments composant la base du cryostat ont été fabriqués par Larsen & Toubro dans son usine d’Hazira en Inde. Ils ont été livrés en 2015 sur le site d’ITER, à Cadarache. Et le composant de 1 250 tonnes a été assemblé sur place. Il attendait depuis juillet dernier sur site pour une mise en place. La difficulté de l’opération a consisté à vérifier que les déformations lors du levage et de la mise en place ne dépassaient pas les valeurs acceptables.

Le cryostat aura un rôle de « thermos » permettant d’isoler le système magnétique qui va être mis à l’intérieur, des températures cryogéniques de l’extérieur.

Dans un tokamak, trois conditions doivent en effet être remplies pour obtenir des réactions de fusion : une température de l’ordre de 150 millions de degrés Celsius, une densité de particules suffisante pour produire le plus grand nombre de collisions possibles, et un temps de confinement de l’énergie suffisamment long pour que les collisions se produisent avec la plus grande vitesse possible. Ainsi, le cœur du tokamak est constitué d’une chambre à vide en forme d’anneau (tore). Sous l’influence d’une température et d’une pression extrêmes, le gaz d’hydrogène se mue en plasma, au sein duquel les atomes d’hydrogène peuvent fusionner et produire de l’énergie.

La fusion présente plusieurs avantages par rapport à la fission nucléaire utilisée dans les réacteurs du parc nucléaire existant. D’abord, le « combustible » est abondant, l’hydrogène pouvant être fabriqué à partir d’eau. Ensuite, la fusion n’utilise pas de matière fissiles (comme l’uranium ou le plutonium) susceptibles d’être utilisées à des fins militaires. En outre, la fusion ne produit pas de déchets radioactifs à vie longue (des dizaines de milliers d’années), les matériaux utilisés peuvent être recyclés ou réutilisés dans les 100 ans après arrêt de l’installation, selon les concepteurs. Enfin, le risque d’accident est largement réduit, la fusion s’arrêtant en cas de perturbation et la quantité de matière présente dans l’enceinte ne permet pas d’alimenter des réactions au-delà de quelques secondes, évitant ainsi toute réaction en chaîne. En revanche, comme la fission, la fusion n’entraîne que des émissions de CO2 marginales.

Si la fusion n’a pas encore été utilisée commercialement, c’est à cause de la complexité à mettre en œuvre une telle source d’énergie : notamment parvenir à une température très élevée à laquelle aucun matériaux connu ne peut résister, ce qui implique de former un plasma « dans le vide » sans toucher les parois du tokamak.

Objectifs 2025 et 2035

L’objectif des équipes d’ITER demeure de positionner l’ensemble des grands composants d’ici 2021, afin de respecter la date de décembre 2025 pour démarrer les premiers essais sur la machine et produire le « premier plasma » imitant le soleil. Néanmoins, il faudra attendre 2035 pour que l’installation de fusion soit pleinement opérationnelle avec une exploitation complète du plasma deutérium-tritium auto-entretenu. La machine réalisera des décharges de plasma de longue durée et testera également, pour la première fois, les technologies, les matériaux, ainsi que les régimes de plasma requis pour produire de l’électricité dans une perspective commerciale. Avec un volume de plasma dix fois supérieur à celui de la plus grande machine de fusion opérationnelle aujourd’hui.

Le record de puissance de fusion produite est à ce jour détenu par le tokamak européen JET (Joint European Torus), au Royaume-Uni. En 1997, il a produit 16 MW de puissance de fusion pour une puissance de chauffage totale de 24 MW. Ce ratio de 0,67 devrait être porté à 10 par ITER, soit 500 MW de puissance de fusion pour une puissance en entrée de 50 MW. Attention, ITER ne fonctionnera pas en continu, et l’électricité produite ne sera pas injectée sur le réseau.

En 1985 le projet a été lancé, mais les membres d’ITER (la Chine, l’Union européenne, l’Inde, le Japon, la Corée, la Russie et les États-Unis) ne se sont engagés dans une collaboration de 35 ans pour construire et exploiter l’installation expérimentale ITER qu’en 2006.

L’accord signé alors par les partenaires prévoit un financement par les sept membres. Au passage, le Royaume-Uni, qui sort de l’Union européenne, a demandé à continuer à participer au projet. Des 5 milliards de dollars prévus au départ, le projet mise désormais sur 20 milliards de dollars (près de 18 milliards d’euros), pour construire le plus grand réacteur à fusion du monde. L’Union européenne, où sera installé ITER, fournit 46 % du budget, et au sein de ce chiffre, la France, pays d’accueil, 20 %, les 80 % de la contribution européenne étant répartis sur Bruxelles. Chacun des six autres partenaires fourni 9 % du budget global. A noter que seulement 20 % du financement global est fourni en « cash », les pays membres s’engageant sur la livraison de composants.

Demo, la suite

Si ITER est un prototype, Demo, qui sera le projet de démonstration commerciale, avance en parallèle. Ainsi, récemment, un consortium comprenant Ansaldo Nucleare, Empresarios Agrupados Internacional et Framatome s’est vu attribuer par la Commission européenne un contrat-cadre de quatre ans, d’une valeur de 10 millions d’euros (11 millions de dollars), pour l’étude pré-conceptuelle du successeur d’ITER.

Une machine qui ne verra le jour qu’au mieux en 2050, et aura pour objectif de démontrer la production continue d’énergie, en fournissant de l’électricité au réseau.

Le contrat, dont Ansaldo Nucleare représente environ 40 % de la valeur totale, vise à une évaluation physique et technologique de l’architecture du système de l’usine de fusion nucléaire, de sa configuration générale et des processus d’ingénierie du système.

Cloud souverain : la mauvaise stratégie de l’Europe

Louis Naugès

Louis Naugès peut être qualifié de « tonton flingueur ». Ce passionné d’innovations numériques et de leurs potentiels dans les organisations a son franc-parler. Il est vrai qu’il maîtrise son sujet depuis très longtemps : il a créé sa première société, Bureautique SA, en 1980. Enseignant et animateur de séminaires, cet « optimiste numérique » est un Européen convaincu. Le cloud (il a cofondé en 2006 Revevol, la première société de services cloud en Europe) n’a plus de secret pour cet expert, car il suit les développements de cet écosystème depuis une quinzaine d’années. Il ne mâche donc pas ses mots à propos du projet Gaia-X (du nom de la déesse grecque de la Terre).

Ce projet GAIA-X est destiné à donner naissance à un écosystème numérique ouvert dans lequel les données peuvent être mises à disposition, rassemblées et partagées en toute sécurité et confiance. « Grâce à ce concept d’infrastructure de données fédérée, nous permettons à l’Europe de développer son potentiel dans l’économie de la donnée avec un écosystème dynamique », expliquent les concepteurs de ce projet.

Techniques de l’Ingénieur : Le ministre allemand de l’Économie Peter Altmaier a annoncé le lancement du premier projet de cloud souverain à l’échelle européenne, appelé Gaia-X. Quelle est votre opinion ?

Louis Naugès : Vous avez raison de préciser que c’est le ministre allemand qui a présenté ce projet, car il est avant tout allemand. Il a été initié par le ministère de la Recherche d’outre-Rhin ; la France ne fait que rejoindre cette initiative. Elle sera certainement le seul autre pays européen à s’y raccrocher. Ce projet est très structuré et très scientifique, c’est un très gros travail. Mais c’est une catastrophe. J’ai lu les quelque 200 pages excessivement complexes de Gaia-X et je ne comprends pas la motivation ni l’objectif. Même les techniciens n’y comprennent rien !

Pourquoi selon vous Gaia-X serait un échec ?

Ce projet pèche par son ambition à vouloir englober tout ce que l’on peut faire comme informatique dans le cloud avec notamment l’Internet des objets (IoT) et le Edge computing. Or, chaque technologie qui serait intégrée dans Gaia-X est très complexe. Vouloir tout gérer et réussir tout en même temps est une gageure. Et il y aura certainement très peu d’argent dans ce projet. D’ailleurs, aucun chiffre n’est avancé par les Allemands. Gaia-X est avant tout un projet politique. Mais, aujourd’hui, le cloud est un marché mondial.

N’est-ce pas important que l’Europe réagisse face aux géants américains ?

Ce projet arrive en 2020 alors que le secteur du cloud est complètement stabilisé et verrouillé par trois acteurs américains (Microsoft, Amazon et Google) qui font 90 % du marché. Et il y a maintenant, trois géants chinois (Tencent, Alibaba et Baidu) qui débarquent. Et toutes ces entreprises investissent chacune entre 10 et 15 milliards de dollars par an. Tencent vient même d’annoncer 70 milliards de dollars d’investissements en 5 ans pour « rattraper » Alibaba qui est le leader actuel en Chine.

Concernant l’infrastructure dans le cloud, l’Europe ne pourra jamais rattraper son retard. Je ne me satisfais pas de le constater en tant que citoyen européen. Mais c’est la réalité. Avec Gaia-X, l’Europe va encore jeter de l’argent par les fenêtres comme elle l’a fait avec Cloudwatt et Numergy [ces deux fournisseurs de cloud public lancés en 2012 dans le cadre des investissements d’avenir ont dû fermer quelques années après, NDLR], car il y a encore des personnes qui croient (ou qui font semblant) que l’Europe peut relever ce défi.

Que préconisez-vous ?

L’Europe ne peut plus rattraper son retard en matière d’infrastructure dans le cloud. Cependant, elle doit miser sur les applications dans le cloud, ce qu’on appelle le SaaS (Software as a service). Il y a déjà des milliers d’éditeurs SaaS en Europe qui réussissent très bien, notamment en matière de sécurité informatique et de gestion des données.

C’est donc cette industrie, qui a démarré toute seule, qu’il faut aider et soutenir financièrement, car elles ne cessent d’innover et de se développer. Nous avons de fortes compétences avec des entrepreneurs et des développeurs remarquables. Le problème, c’est que ces entreprises se font généralement racheter lorsqu’elles atteignent une certaine taille.

J’ai moi-même une société qui édite des applications qui gèrent des terminaux sous Android et qui tournent sur les infrastructures de Google. Si je n’ai pas une vision mondiale, je n’ai aucune chance de m’en sortir, car le marché hexagonal c’est 10 % du marché mondial pour ce système d’exploitation. Je n’ai pas un discours destructeur, je suis réaliste.

L’État a choisi Microsoft pour l’hébergement du Health Data Hub, cette plateforme française destinée à la recherche sur les données de santé. Ce choix fait polémique. Qu’en pensez-vous ?

Les datacenters de Microsoft sont plus sécurisés que les équivalents français ou européens. Les géants américains protègent leurs infrastructures avec un très haut niveau de sécurité. Personne ne peut faire mieux ; Microsoft a plus de 2 000 personnes à temps complet qui gèrent la cybersécurité. Toutes les données sont chiffrées sur les clouds publics américains, ce qui n’est pas le cas avec tous les hébergeurs de données. Et depuis quelques années, une entreprise ou un ministère peut avoir sa propre clé de déchiffrement ou ajouter une couche de chiffrement.

Une méthode pour produire directement de l’eau oxygénée dans les hôpitaux

Le peroxyde d’hydrogène est particulièrement efficace dans la biodécontamination. Une étude du National Institutes of Health (NIH) américain a d’ailleurs validé son utilisation en tant que solution de décontamination des masques N95 (l’équivalent des FFP2 européens).

Le problème du peroxyde d’hydrogène

Lutter contre la pénurie de masques jetables impose de trouver des méthodes de décontamination fiables. Si l’eau oxygénée est particulièrement efficace, cette substance a un inconvénient majeur : elle est instable. De formule chimique H2O2, cette molécule porte bien son nom, puisqu’à peine fabriquée, elle commence à se transformer en eau et en oxygène. Une bouteille neuve doit ainsi être utilisée dans les 2 mois suivant sa fabrication, sachant que le produit se dégrade encore plus vite une fois ouvert.

Cette particularité empêche la création de stocks conséquents et contribue à augmenter les coûts d’approvisionnement.

Une solution simple, économique et écologique

La solution développée par l’équipe de chercheurs de l’UC San Diego est basée sur une réaction chimique d’électrolyse en milieu acide. Cette méthode extrêmement simple à l’avantage de nécessiter peu de matériel : une fiole, de l’air, un électrolyte, un catalyseur et de l’électricité, bref une matière première facile à trouver en milieu hospitalier.

D’après le professeur assistant Zheng Chen, du département de NanoIngénierie de l’UC San Diego, en charge de cette étude, le but est de “créer un dispositif portatif qui peut être directement branché à domicile, ou à l’hôpital, de manière à générer du peroxyde d’hydrogène à la demande”.

Ainsi, cette manière de procéder résoudrait la question du stockage du peroxyde d’hydrogène tout en permettant d’économiser entre 50 et 70 % de son coût.

Par ailleurs, cette méthode de production “artisanale” à l’avantage d’être moins toxique que les procédés industriels.

La cellule développée par les chercheurs pour la production de peroxyde d’hydrogène. Credit : UC San Diego Jacobs School of Engineering.

Le catalyseur est la clé

Le secret de cette méthode a priori simple réside dans l’utilisation d’un catalyseur spécial. Constitué de nanotubes de carbone partiellement oxydés et liés à des atomes de Palladium, ce catalyseur est ainsi l’élément déclencheur de la réaction.

Néanmoins, cette méthode n’est pas encore optimisée pour cette application, car la production de peroxyde d’hydrogène pour l’hôpital n’était pas le but premier. En effet, l’épidémie de Covid-19 a frappé alors que l’équipe de chercheurs travaillait au développement d’une technique permettant de réduire l’impact environnemental du recyclage des batteries, le peroxyde d’hydrogène étant l’un des produits chimiques utilisés pour récupérer les métaux des batteries usagées.

Ces travaux sont donc à l’étape de la faisabilité : la prochaine étape sera de rechercher un électrolyte neutre, de type solution saline, à la place d’un électrolyte acide, plus adapté aux applications cliniques et domestiques.

Pour en savoir plus

Recherche désespérément programmeurs en vieux langages informatiques…

« Nous avons des systèmes qui ont plus de 40 ans », a déclaré le gouverneur du New Jersey, Phil Murphy, à CNN. Touché par une vague de licenciements, cet État (mais aussi le Connecticut et le Kansas) croule sous les demandes d’enregistrements de chômeurs.

Mais ces services s’appuient sur de très vieux systèmes informatiques et en particulier le COBOL. Résultat, ces États ont le plus grand mal à embaucher des informaticiens maîtrisant ce langage sauf quelques-uns qui sont à la retraite…

Le COBOL (Common Business-Oriented Language) est né à la fin des années 1950 sous la volonté du ministère de la Défense des États-Unis qui avait constitué un consortium de sociétés informatiques, dont IBM, Honeywell, Sperry Rand et Burroughs.

Ce langage est ensuite devenu un rouage essentiel. D’énormes bases de données écrites en COBOL sont toujours utilisées dans le monde. Beaucoup d’entre elles semblent figées, comme si elles avaient été créées récemment.

Un rapport datant de 2017 avait révélé que plus de 220 milliards de lignes de code COBOL étaient encore utilisées dans le secteur financier, par de grandes entreprises et certaines administrations. Les auteurs de ce rapport avaient prévenu : « si quelque chose tourne mal, peu de gens savent comment le réparer  ».

IA, c’est plus sexy !

Le COBOL survit aujourd’hui, car IBM maintient activement ses propres implémentations et soutient de nombreuses applications comme celle proposée par Micro Focus, une entreprise anglaise d’informatique du Royaume-Uni. Cette édition commerciale du COBOL fonctionne sous Windows.

Cependant, les langages informatiques évoluent, comme le montre cette animation. La plupart des universités et des centres de formations n’enseignent plus le COBOL, ni même le FORTRAN (FORmula TRANslator). Ils sont considérés comme obsolètes, démodés et sans issue dans l’industrie de l’IT. Seules quelques universités (notamment en Inde) proposent encore des cours sur le COBOL.

L’intelligence artificielle (IA), la réalité virtuelle et augmentée (VR/AR), ou encore la conception de jeux semblent plus « sexy » et prometteuses pour la majorité des jeunes développeurs.

Pourtant, FORTRAN (inventé en 1954) est encore très utilisé dans le domaine de la défense et de la science, notamment pour les prévisions météorologiques reposant sur des supercalculateurs Cray.

Aujourd’hui, de nombreuses Directions des systèmes d’information (DSI) de grands comptes ou de banques font face à un dilemme. D’un côté, elles apprécient COBOL, car c’est un système fiable. Ce code est écrit dans un langage très structuré et facile à lire. Mais de l’autre, les spécialistes en COBOL sont devenus des perles rares.

Car en soi, le langage COBOL n’est pas un problème. Le casse-tête concerne son intégration et son interaction avec des codes plus récents tels que Java. Et changer de langage est une pratique à haut risque. En avril 2018, la banque TSB (Trustee Savings Bank) a tenté de migrer plus de 1,3 milliard de données clients. Résultat, un important crash informatique et des clients ne pouvant plus accéder à leur compte en ligne.

Finalement, certaines banques sont en train de repenser la formation proposée à leurs équipes informatique et envisagent sérieusement d’intégrer l’apprentissage du COBOL. D’autres embauchent des freelances âgés de plus de 60 ans pour intervenir sur les systèmes d’information historiques…

Nous Sommes Demain : le collectif qui veut transformer l’économie

Le collectif Nous Sommes Demain a été initié il y a deux ans par Mouves, le Mouvement des entrepreneurs sociaux. Il impulse une dynamique au carrefour de l’économie sociale et solidaire et des entreprises classiques engagées pour la transition sociale et écologique. Dans la lignée de la loi PACTE, il propose à l’ensemble des acteurs de promouvoir une vision commune de l’économie de demain. Le collectif lance désormais sa plateforme noussommesdemain.com pour porter ses propositions. Caroline Neyron, déléguée générale du Mouvement des entrepreneurs sociaux et porte-parole du collectif, répond à nos questions.

Techniques de l’Ingénieur : Le collectif Nous Sommes Demain prône une transformation sociale et écologique des entreprises. Autour de quelles valeurs ?

Caroline Neyron : Nous avons identifié 4 piliers indissociables qui permettent à une entreprise de transformer son modèle pour avoir à cœur les enjeux sociaux et écologiques. Il s’agit de l’impact social, de l’impact environnemental, du partage du pouvoir et du partage des richesses. Dans ces 4 piliers, nous avons développé 17 indicateurs clés à destination de n’importe quelle entreprise, quelle que soit sa taille, son secteur, son statut et son territoire.

Autour de ces 17 indicateurs, nous avons créé un outil concret pour les entreprises : l’impact score. Il les aide à s’évaluer et à prendre le chemin de cette transformation. Le référentiel concerne par exemple l’empreinte carbone, la place des parties prenantes et des salariés dans la gouvernance, ou la répartition des bénéfices entre salariés et actionnaires. Il s’intéresse au pourcentage de budget attribué à une mission d’utilité sociale et environnementale, aux échelles de rémunération ou encore au pourcentage de fournisseurs locaux et labellisés.

Chaque indicateur propose une mesure minimale, intermédiaire et maximale. Les entreprises s’engagent à améliorer leurs modèles pour respecter a minima les engagements minimum de tous les indicateurs.

Qui sont les membres de votre collectif ?

Notre collectif comprend des réseaux d’entreprises sociales et solidaires, de la Bio, du Commerce équitable, mais aussi plusieurs réseaux d’entreprises engagées comme le CJD, Entrepreneurs d’Avenir, 1% pour la planète, la communauté des entreprises à mission, Réseau entreprendre, Start-up du territoire, etc. Au total, nous sommes un collectif de 25 réseaux d’entreprises qui regroupent près de 400 000 entreprises. Chaque réseau propose à ses adhérents de participer aux groupes de travail et de mettre en application l’impact score. Nous menons actuellement un bêta-test de l’impact score auprès de 4 000 entreprises jusqu’en septembre. L’enjeu sera alors de le généraliser à l’ensemble des entreprises et de le promouvoir pour qu’il soit généralisé au maximum d’entreprises dans nos réseaux et bien au-delà.

Quelles différences y a-t-il entre l’impact score et les normes et labels de RSE ?

Nous avons travaillé à partir des labels Lucie, la certification B Corp, le label RSEi, etc. Certains aspects se recoupent avec les normes et les labels, mais nous avons défini des éléments structurants qui peuvent être adaptés à l’ensemble des entreprises, à une boulangerie locale, à une entreprise du CAC40. C’est un pas de côté par rapport aux logiques de normes et de labels spécifiques pour faire ressortir les éléments les plus structurants de base qui permettent de faire évoluer son modèle, pour plus de lisibilité des salariés, consommateurs, etc. et encourager à se tourner vers les labels.

Quels messages portez-vous à destination des décideurs politiques et économiques ?

L’année dernière, nous avons mis en place les premières Universités d’été de l’économie de demain au lendemain des Universités d’été du MEDEF. Il en est ressorti 5 propositions de plaidoyer à partir desquelles nous retravaillons en ce moment pour mettre au point un plan complet de relance par la transformation sociale et écologique. Il sera présenté aux décideurs publics en juillet prochain. Il sera ensuite débattu fin août aux prochaines universités d’été avec notamment Bruno Lemaire, Agnès Pannier-Runacher, Cédric O, Muriel Pénicaud et Marlène Schiappa.

Souveraineté numérique : une fausse bonne idée ?

Depuis que le gouvernement a évoqué StopCovid, cette application fait beaucoup parler d’elle. Elle est disponible depuis le 2 juin. Un bug Bounty a permis de repérer quelques failles de sécurité et des doutes subsistent quant à la confidentialité des données.

Au-delà de ces inquiétudes, StopCovid soulève une question : développer une application souveraine est-il un gage de réussite ?

OS souverain

Force est de constater que la volonté de développer une solution souveraine n’a (jusqu’à présent) pas été concluante. « Contrôler les ressources internet, limiter l’hégémonie de puissances étrangères, mieux contrôler la protection des données individuelles… » telles sont quelques-unes des préoccupations de la souveraineté numérique.

Les premières évocations remontent au début des années 2000. Le PDG de la radio Skyrock, Pierre Bellanger, avait popularisé cette notion par le biais d’un livre, La Souveraineté numérique (Stock, 2014).

Différents États tentent de relever ce défi. Pour les États-Unis, cet objectif est plus facile à atteindre puisqu’ils sont leaders dans le domaine de l’informatique (et récemment, le fabricant de processeurs Intel a annoncé sa volonté de déployer plus d’usines sur le sol américain pour que les USA soient moins tributaires des pays asiatiques…).

Pour l’Europe et la France, cet objectif est plus délicat à atteindre. En 2016, le principe de la création d’un « OS souverain » est évoqué. Développer un système d’exploitation comme alternative à Windows est une tâche colossale et très risquée.

« Cela représente une quantité de logiciels astronomique, que ne peuvent réaliser que de très grosses entreprises comme Microsoft, ou bien les myriades de développeurs du logiciel libre. Le futur ‘Commissariat à la Souveraineté Numérique’ [en réflexion depuis 2017, il serait chargé de réfléchir à la souveraineté nationale et aux droits et libertés individuels, NDLR] n’aura certainement pas les moyens de financer un tel développement. Clamer ‘on va écrire un système d’exploitation’ est donc une vantardise ridicule », prévient sur son blog Stéphane Bortzmeyer, spécialiste en réseaux et informaticien.

Pourtant depuis 2006… l’ANSSI développe un OS « multiniveau » ultra-sécurisé : Clip OS. Mais l’agence officielle de sécurité précise qu’il « n’existe actuellement pas de version prête à l’emploi pour les utilisateurs ».

Seuls quelques pays, plus ou moins fermés et autoritaires, pourraient remplacer l’hégémonique Windows par un système d’exploitation souverain. C’est le cas de la Russie avec son Astra Linux, de la Chine et de la Corée du Nord (dès la fin des années 90). Dans les trois cas, il s’agit de versions modifiées de distributions GNU/Linux.

Un cloud franco-français

La France a aussi tenté de mettre en place un cloud souverain afin que des données sensibles ne soient plus hébergées dans les datacenters des géants américains comme Amazon ou chinois comme Alibaba.

C’est ainsi qu’est né Numergy en 2012, dans le cadre d’un partenariat entre SFR et Bull. Un projet de 225 millions d’euros financé à hauteur de 75 millions d’euros par l’État. Un projet similaire avait été mis en œuvre par Orange et Thalès appelé Cloudwatt. Mais en 2015, les deux projets sont abandonnés… Principales causes : des désaccords des actionnaires sur la stratégie d’investissement et d’importants déficits.

En avril 2018, un communiqué officiel du gouvernement français indique que « d’ici l’été [2018, NDLR], l’État disposera de sa propre messagerie instantanée, alternative aux applications WhatsApp et Telegram. Elle garantira des échanges sécurisés, chiffrés de bout en bout, sans dégradation de l’expérience utilisateur. »

Baptisée Tchap et destinée aux agents de l’État, elle a été lancée en avril 2019. À peine était-elle disponible que la première vulnérabilité avait été repérée par un expert en sécurité. La faille avait été corrigée dès le lendemain.

Depuis, la Direction interministérielle du numérique et du système d’information et de communication de l’État (DINSIC), qui pilote le projet, a pris une sage décision : lancer un système de récompenses (ou bug bounty) pour réduire les risques de sécurité.  Officiellement, Tchap est toujours utilisée, mais le gouvernement ne donne aucun détail sur le nombre d’utilisateurs.

Au bout du compte, la majorité des projets de souveraineté numérique ont capoté…

NISP, un spectrophotomètre infrarouge pour cartographier l’univers

Pendant six ans, le satellite Euclid va prendre des clichés de milliards de galaxies pour permettre aux scientifiques de déceler la signature de la “matière noire” et de l’“énergie sombre”. Euclid est doté de deux instruments scientifiques, placés derrière un télescope de 1,20 m de diamètre : l’imageur visible VIS (VISible) et le spectrophotomètre proche infrarouge NISP (Near InfraRed SpectroPhotometer). Ce dernier vient d’être livré le 19 mai à l’ESA, après plus de dix années de conception et fabrication. Il est le fruit d’une coopération internationale, coordonnée par la France, et incluant l’Italie, l’Allemagne, l’Espagne, le Danemark, la Norvège et les Etats-Unis.

La France livre le spectrophotomètre infrarouge NISP pour la mission spatiale européenne Euclid. Crédit : Euclid Consortium / LAM
Crédit : Euclid Consortium / LAM

La mission Euclid sera lancée en 2022 depuis le Centre Spatial Guyanais pour être mise en orbite au deuxième point de Lagrange. Il s’agit d’une région du système solaire, située à 1,5 million de km de la Terre, où les forces gravitationnelles du Soleil et de la Terre se combinent, permettant à un satellite de rester en permanence dans l’alignement des deux astres. Une orbite très prisée des missions scientifiques par la stabilité des conditions d’observation. Pour comprendre l’objectif de cette mission et des instruments qui la composent, nous avons échangé avec Jean-Gabriel Cuby, chercheur au Laboratoire d’Astrophysique de Marseille (LAM) de l’Université Aix-Marseille.

Techniques de l’Ingénieur : Pouvez-vous nous expliquer l’objectif de la mission Euclid pour laquelle le spectrophotomètre NISP a été mis au point ?

Jean-Gabriel Cuby : Euclid est une mission cosmologique dont l’objectif est la compréhension de l’univers, en particulier l’énergie sombre et la matière noire. On ne connaît pas grand-chose de cette énergie alors qu’elle représente environ 70 % du contenu de l’univers. Plusieurs théories s’affrontent, comme par exemple l’existence d’une constante cosmologique décrivant une propriété fondamentale de l’Univers ou une modification des lois de la relativité générale d’Einstein. La mission Euclid n’apportera vraisemblablement pas de réponse définitive mais permettra de fortement contraindre les différents modèles qui s’opposent. Selon ces modèles, les effets de structuration de l’univers au cours du temps ont des signatures différentes qu’Euclid mesurera.

Euclid va permettre de cartographier la distribution de ces galaxies dans l’univers et dans les grandes structures qui le composent (amas, super-amas, vides, etc.). Les propriétés de ces structures de galaxies mesurées par Euclid permettront de contraindre les différents modèles d’énergie sombre, en rejetant certains et en privilégiant d’autres. Cette cartographie, que l’on appelle grand relevé cosmologique dans notre jargon, Euclid va la réaliser pour environ 1,5 milliard de galaxies en mesurant leurs positions et leurs distances, et ce jusqu’à des distances correspondant à environ 2/3 de l’âge de l’univers.

Cela va être permis par le spectrophotomètre proche infrarouge NISP. De quoi est-il composé ?

Il y a 16 détecteurs infrarouge de 2 000 x 2 000 pixels fournis par la NASA. C’est la plus grande mosaïque de détecteurs infrarouges jamais construite pour aller dans l’espace. La structure du NISP est faite en carbure de silicium, un matériau de choix pour le spatial car très rigide et peu sensible aux dilatations thermiques tout en étant relativement léger. Le moindre kilo à lancer dans l’espace coûte en effet une fortune et les déformations thermiques et mécaniques y sont à proscrire. Il est également composé de grismes, des composants optiques complexes dont l’une des faces est gravée en un réseau de diffraction. Ils produisent un spectre de la lumière incidente, permettant ainsi de séparer les longueurs d’onde et de mesurer les raies d’émission des galaxies. En recherchant les raies d’émission dans les spectres, on va pouvoir mesurer la distance entre les galaxies.

Le relevé fait par Euclid va couvrir un champ à la fois très large et très profond. En raison de la structure du ciel composé d’étoiles de la Voie Lactée et de poussières du système solaire, la cartographie va être réalisée sur environ 1/3 de la surface de la voûte céleste, soit 15 000 degrés carrés sur les 41 000 de la totalité de la voûte. Le champ de vue individuel du NISP est de l’ordre de 1/2 degré carré. Une image va couvrir 1/2 degré carré, donc on doit faire plus de 30 000 pointés, avec pour chacun 16 poses différentes en changeant de filtres et en bougeant légèrement le télescope. Tout cela prend du temps. Environ 6 ans.

Euclid dispose également d’un deuxième instrument, l’imageur VIS…

La caméra VIS permet de réaliser une mesure statistique de la forme des galaxies. Par exemple, s’il n’y avait pas de matière et de déformation, on aurait une distribution statistiquement uniforme. Sauf qu’à cause de la matière, principalement la matière noire qui va perturber la trajectoire de la lumière, il y a des déformations statistiques qui permettent de reconstruire la quantité de matière sur la ligne de visée entre les galaxies que l’on observe et nous. Cette déformation s’appelle l’effet de cisaillement gravitationnel. La matière déformant localement l’espace, quand la lumière se propage à proximité de la matière, elle est légèrement déviée.

Les deux appareils sont très complémentaires, notamment en longueur d’onde. L’imageur VIS est sensible entre 0,6 et 0,9 micron, alors que NISP l’est de 1 à 2 microns. Les objets n’ont pas la même façon d’émettre ; ces deux domaines de longueur d’onde différents permettent d’observer plus de choses. De plus, VIS a plus de détecteurs et 9 fois plus de pixels que NISP, lui permettant de voir des détails plus fins.

La rouille, protectrice de l’électronique spatiale

L’espace est loin d’être vide. Au contraire, il est baigné de rayonnements mettant en péril l’électronique embarquée. Comment se protéger de ces rayons délétères ? La réponse pourrait venir d’un papier publié en janvier 2020 par deux chercheurs de la NCSU (North Carolina State University). Les chercheurs Michael DeVanzo et Robert B. Hayes (professeur associé d’ingénierie nucléaire) ont proposé dans Radiation Physics and Chemistry un bouclier composé d’un matériau étonnant : la rouille !

Le milieu interstellaire est constamment parcouru de rayonnements ionisants. Ils apparaissent lors de « la suppression d’un électron lié à un atome », explique Robert Hayes. « Cela peut se produire avec l’ultraviolet ou une lumière encore plus énergétique ». Ces rayons X ou même gamma risquent d’endommager les circuits électroniques des missions spatiales. Et ils ne représentent pas l’unique menace. Les rayonnements de particules chargées, eux, ne se contentent pas d’ioniser l’environnement qu’ils traversent… « Le mouvement des atomes […] tend à créer des vides […] au sein de la structure », précise Robert Hayes. Qu’il soit produit par un noyau d’hydrogène ou d’hélium, un rayonnement de haute énergie « cause bien plus de dégâts que des photons ».

Fini les poudres, place aux oxydes

La protection traditionnelle employée par les missions spatiales est l’enveloppe structurelle en aluminium, avec « un bon équilibre » entre solidité et légèreté. Il ne faut pas oublier que le poids représente « la partie la plus coûteuse » lors d’un lancement spatial. Chaque gramme de charge utile doit être accéléré jusqu’à la vitesse de libération du corps céleste auquel il souhaite s’arracher. Dans le cas de la Terre, cette vitesse s’élève à plus de 40 000 km/h. Les engins spatiaux sont donc construits selon un compromis entre résistance physique et poids. Mais on ne peut se satisfaire indéfiniment d’un compromis. « Notre bouclier est taillé pour des circuits imprimés individuels, avec une meilleure valeur de protection au poids », annonce Robert Hayes. Pour y parvenir, les chercheurs ont préféré la rouille et autres oxydes métalliques aux poudres. Mais quels avantages propres aux oxydes ont motivé leur choix ?

D’abord, ils « fournissent un matériau de numéro atomique élevé […] mais aussi faible », décrit Michael DeVanzo. En réalité, le numéro atomique élevé provient du métal, le faible de l’oxyde. Le métal, à l’important coefficient d’atténuation de masse, protège les systèmes contre les photons, quand l’oxyde permet la dispersion des neutrons. Pour ce dernier cas, Michael DeVanzo propose l’exemple du billard et du bowling : « les boules de billard se dispersent, tandis que la boule de bowling roule sur les quilles ». Ensuite, un oxyde métallique peut « rester uniforme […] contrairement aux poudres ». Instables, elles ont tendance à se déplacer à l’intérieur de la structure. Les oxydes, une fois mélangés et appliqués correctement, y restent bien ancrés. Enfin, Robert Hayes rappelle un bonus non négligeable : « ils sont bien moins chers » ! Certes, le bout du voyage n’est pas pour tout de suite. Toujours est-il que cette découverte « devrait permettre de rendre l’électronique spatiale plus résistante, plus abordable, voire les deux ». De quoi laisser rêver d’un avenir prometteur pour l’exploration spatiale humaine.

Reconditionner des cartouches d’encre en France, une relocalisation made in confinement

Pour beaucoup d’entreprises, le confinement, la fermeture des frontières et l’arrêt des unités de production ont eu des effets délétères. D’autres ont pu, au contraire, tirer profit de la situation. « Le confinement nous a donné du temps pour accélérer la réalisation de notre projet », explique Laurent Berthuel, directeur général de Printerre EA. Créée en 2007, cette start-up est originellement spécialisée dans le reconditionnement de toners pour imprimantes laser professionnelles. Durant ces dernières semaines, une nouvelle offre a été pensée pour les particuliers : une cartouche d’encre intégralement reconditionnée en France, la Cartouche Française.

En temps normal, 95 % du reconditionnement des cartouches d’encre se fait en Chine. Du fait des fermetures des frontières, l’exportation des cartouches vides a été freinée. C’est à ce moment-là que l’entreprise basée à Chérisy près de Dreux (Eure-et-Loir) a décidé de s’installer sur ce marché. Printerre EA a vu, dans la conjoncture profilée par le coronavirus, une opportunité de marché certaine. Ainsi, depuis mi-avril, la société a développé cette activité très peu présente sur le territoire national. « Aujourd’hui en France, seules deux entreprises font du reconditionnement de cartouches d’encre », précise Laurent Berthuel.

Exemple du made in France compétitif

Depuis le lancement de la production de ce nouveau produit, la start-up produit cinq mille unités par mois. « L’objectif est d’en produire mensuellement cinquante mille le plus rapidement possible », affirme Laurent Berthuel. Pour le directeur général, cet objectif est atteignable car tous les éléments nécessaires à la production sont présents en France. « Les principales matières premières dont nous avons besoin sont les cartouches d’encre usagées. Et les Français en déposent quotidiennement dans les points de collecte. Notre objectif est donc de les récupérer et de les reconditionner directement sur notre territoire », déclare Laurent Berthuel. Pour cela, la société a fait installer des bornes de collecte dans plusieurs magasins de Monoprix.

La réalisation de toutes les étapes de reconditionnement sur le sol français représente également un avantage compétitif pour l’entreprise. Afin de pouvoir être viable sur le marché, la start-up sait qu’elle doit être en capacité de proposer un produit compétitif vis-à-vis des tarifs agressivement bas des produits étrangers. « Notre objectif est de respecter le marché », explique Laurent Berthuel. Selon ses informations, les cartouches reconditionnées à Chérisy sont vendues au même prix que les références étrangères équivalentes. « Le prix a une importance capitale. Si nous proposons un produit made in France trop cher, le consommateur se tournera vers la concurrence. Mais si le produit français n’est pas plus onéreux, son choix n’est plus le même », analyse le directeur général.

Entreprise solidaire, bassin d’emplois

Pour l’instant, la start-up française ne dispose pas encore des moyens nécessaires pour concurrencer directement les mastodontes du secteur. Mais selon Laurent Berthuel, cela ne s’explique pas par un manque de moyens. Pour lui, de massifs investissements dans l’industrie et les infrastructures permettront de rapidement combler ce retard. « On ne manque pas d’argent en France », affirme-t-il. Laurent Berthuel pense que le développement de filières de nouveaux produits made in France est tout à fait envisageable, notamment dans les secteurs du recyclage et du réemploi. « Aujourd’hui, les déchets français servent à créer de la valeur à l’étranger » déplore l’homme d’affaires.

Selon Laurent Berthuel, les technologies nécessaires au déploiement de sa société sont déjà présentes sur le territoire national. Pour les obtenir, ce dernier a observé les procédés employés en Chine, et a appris aux côtés d’un homologue allemand. La main-d’œuvre est, également, déjà présente. Cette jeune pousse veut prouver que l’innovation est à la portée d’une grande diversité de travailleurs. Depuis 2012, cette entreprise solidaire emploie des travailleurs handicapés. Aujourd’hui, ils sont huit à occuper des postes de production. « Les étapes très précises et bien distinctes du procédé permettent à ces employés de reconditionner les cartouches d’encre parfaitement », explique Laurent Berthuel. Dans les prochains mois, le directeur général espère pouvoir décupler les embauches.

La crise impacte comme jamais les investissements dans l’énergie (AIE)

La crise sanitaire devrait entraîner un recul de 20 % des investissements dans le secteur énergétique en 2020, soit un retrait de quelque 400 milliards de dollars, insiste Fatih Birol, directeur exécutif de l’AIE. Un chiffre à comparer à la prévision de l’AIE, en début d’année, qui misait sur une hausse de 2 % des investissements en 2020 (ce qui aurait été la plus forte progression des six dernières années). C’est « la plus large chute de l’histoire et de loin », ajoute-t-il. Le secteur le plus touché est le domaine du pétrole et du gaz, avec un recul d’un tiers des investissements prévus (32 %). Et au sein de ce secteur, les gaz et pétrole de schiste aux États-Unis enregistrent un retrait de 50 %, avec des implications importantes, notamment sur l’emploi et sur les économies des pays dépendants des exportations de pétrole. Ainsi, Tim Gould, coordinateur du rapport, signale que les investissements dans la production ont par exemple chuté de 50 % à la Sonatrach algérienne. Le marché du GNL (gaz naturel liquéfié) est d’ailleurs revenu totalement à zéro, insiste-t-il, alors que l’année dernières, il avait enregistré un boom. En conséquence, cela entraîne une nouvelle volatilité sur le marché, sachant qu’une année de recul d’investissements conduit à retirer 2 mbj (millions de barils/jour) du marché, et si cela dure jusqu’en 2025, cela signifierait 8 mbj retirés.

Les objectifs climatiques s’éloignent…

Plus inquiétant, même si le déclin est moindre, l’AIE prévoit également une baisse de l’investissement dans les technologies propres (énergies renouvelables, efficacité énergétique, batteries), soit le premier recul après des années de vive croissance. Même si le déclin ne devrait être « que » de 11 % sur l’année, c’est particulièrement significatif par rapport aux années précédentes. C’est surtout, insiste le directeur de l’agence de l’OCDE, « beaucoup moins que ce qui serait nécessaire pour atteindre les objectifs de lutte contre le changement climatique. Il faudrait en effet enregistrer un doublement du montant des investissements ». Même si le niveau a donc moins baissé que dans d’autres secteurs (atteignant les 600 milliards de dollars), et qu’il est concevable que la chute des coûts des équipements (surtout solaires et éoliens) réduise le volume de financement nécessaire, l’atteinte des objectifs climatiques ne peut être assuré que si ce montant est doublé rapidement, insiste le coordinateur du rapport.

Côté électricité, le plongeon des investissements atteint 10 %, la faisant repasser au niveau d’il y a 10 ans, indique Tim Gould. Et, plus inquiétant, le déclin des investissements dans les réseaux (qui ont un rôle majeur à jouer pour l’intégration des ENR), qui avait déjà commencé, atteindrait -9 % cette année.

Le repli vers les technologies anciennes ?

En outre, autre source d’inquiétude, « le parc de centrales au charbon continue d’augmenter. Et les nouvelles centrales sont deux fois plus nombreuses que l’année dernière », insiste l’AIE. Des installations qui sont réalisées très majoritairement en Asie, notamment en Chine, mais aussi au Pakistan, en Indonésie, au Cambodge également.

Ces données présentent le risque « que le confinement sanitaire actuel entraine le secteur à se confiner dans des technologies anciennes », insiste le directeur de l’AIE, qui seront là pour longtemps encore et freinent la lutte contre le changement climatique. Et Fatih Birol souligne que si les investissements sont laissés « au seul marché », les émissions de CO2 mondiales pourraient bien repartir à la hausse lorsque la demande redémarrera. Et de rappeler qu’après la crise de 2008, les rejets carbonés qui avaient chuté de 0,4 Gt (gigatonnes) en 2009, ont bondi de 1,7 Gt en 2010.

L’AIE en appelle ainsi aux gouvernements pour poursuivre les efforts en matière de transition énergétique à l’aune des politiques de relance qui se profilent, tout en sachant que dans les pays en développement, l’argent risque fort de manquer cruellement.

Des micro-charges électriques générées grâce à l’acide polylactique

Avec une croissance de 20 % par an, le domaine de l’internet des objets, encore appelé IoT pour Internet of Things, se développe fortement dans le monde. En 2020, ce marché devrait représenter environ 5 000 milliards de dollars. À l’intérieur de ces objets, les capteurs communicants nécessitent d’être alimentés en électricité pour fonctionner.

Les chercheurs conçoivent des films, des fibres et des tissus à base de PLA piézoélectrique. © Projet Bioharv

Un programme de recherche transfrontalier associant des chercheurs français et belges, nommé projet Bioharv, vise à optimiser leur autonomie en énergie et réduire leur dépendance aux batteries à base de lithium. Piloté par l’IMT Lille Douai, il consiste à étudier et optimiser les propriétés piézoélectriques d’un matériau polymère : l’acide polylactique (PLA pour polylactic acid).

Les chercheurs conçoivent des films, des fibres et des tissus à base de PLA piézoélectrique. © Projet Bioharv

La piézoélectricité est cette propriété bien connue qu’ont certains matériaux à générer du courant électrique à partir d’une contrainte mécanique telle qu’une torsion, une vibration ou une compression. « À ma connaissance, mis à part une équipe au Japon, il n’existe pas d’autres travaux de recherche sur la piézoélectricité du PLA », confie Cédric Samuel, enseignant-chercheur à l’IMT Lille Douai et coordinateur du projet Bioharv.

Un polymère capable d’une piézoélectricité spontanée

Historiquement, les micro-générateurs d’énergies par effet piézoélectrique ont été développés à partir de matériaux céramiques du type PZT (Titano-Zirconate de Plomb). Dans les années 80, les chercheurs s’intéressent à des polymères fluorés pour leurs avantages en matière de flexibilité mécanique et de facilité d’utilisation. L’un d’entre eux, le PVDF (PolyVinyliDene Fluoride), a particulièrement été utilisé car il offre le meilleur rendement électromécanique. Par contre, son procédé de fabrication s’avère relativement complexe, ce qui en fait un matériau assez coûteux. « Le PLA présente l’avantage d’offrir une piézoélectricité spontanée et permet donc de concevoir des systèmes de micro-générations d’énergies à bas coût, explique le chercheur. Les méthodes pour qu’il acquiert une piézoélectricité sont assez particulières et relativement simples à maîtriser, ce qui en fait un matériau un peu à part dans le paysage des polymères piézoélectriques. »

Biodégradable, le PLA est dans un premier temps fabriqué grâce à la transformation de l’acide lactique produite à partir de la fermentation de sucres alimentaires issus de la production de maïs, de betterave, de tapioca ou encore de canne à sucre. Afin qu’il acquière ses propriétés piézoélectriques, il est ensuite nécessaire de modifier son état pour atteindre une forme semi-cristalline. Pour cela, il est chauffé au-dessus de la température de transition vitreuse, autour de 60 à 80 degrés, puis étiré afin d’obtenir une matière orientée. « Le film mono-étiré présente ainsi des propriétés piézoélectriques naturelles avec un coefficient piézoélectrique compris entre 5 et une valeur maximale relevée dans la littérature de 20 pC/N (picocoulomb par newton) », indique Cédric Samuel.

À haute fréquence (20 Hz), le PLA est capable de générer une puissance de l’ordre de 0,5 µW/cm². © Projet Bioharv

À haute fréquence (20 Hz), le PLA se révèle capable de générer une puissance de l’ordre de 0,5 µW/cm². Une performance bien moindre que celle observée avec le PVDF (40 µW/cm²) mais tout de même suffisante pour alimenter certains objets connectés nécessitant peu d’énergie. Surtout, il est beaucoup moins cher et son coût pourrait même se révéler dix fois moins élevé que le PVDF.

Les chercheurs tentent d’augmenter les propriétés piézoélectriques du PLA tout en maîtrisant son coût de fabrication. Des marges de manœuvre existent au niveau de sa chimie et de sa reformulation. « Nous incorporons des additifs qui vont favoriser certaines phases cristallines comme des agents nucléants ou des plastifiants, ajoute le chercheur.  Plus globalement, nous cherchons à atteindre des états orientés optimaux avec un taux de cristallinité suffisamment élevé ». Un autre axe du projet consiste à construire des modèles prédictifs de récupération d’énergie en fonction des conditions de sollicitation. Comme tout matériau piézoélectrique, l’énergie produite est d’autant plus importante que la fréquence de vibration est élevée. Ici, l’électricité générée pourrait même varier au carré de la fréquence de la déformation, selon des modèles théoriques encore en cours de validation expérimentale.

Des capteurs de température autonomes en électricité

Lancé à l’automne 2016, le projet Bioharv doit se terminer en février 2021. Les chercheurs veulent le poursuivre au-delà afin de démontrer une preuve de concept. À partir du PLA, ils souhaitent développer un capteur de température communicant et auto-alimenté ; le marché potentiel de ce genre d’outil est en effet important car de nombreux objets connectés en sont équipés. « Nous aimerions par exemple concevoir des capteurs afin de suivre en temps réel la température d’une route, explique Cédric Samuel. Ces mesures offrent un intérêt pour suivre le niveau de dégradation de l’asphalte sur des pistes d’aéroport, des ponts ou autre ouvrage critique. Les capteurs de température seraient auto-alimentés par les vibrations du bitume suite au passage des avions ou des véhicules. Autre exemple : nous aimerions développer un capteur pour mesurer la température de moteurs industriels afin de surveiller leur état. Il serait autonome en énergie grâce aux vibrations du moteur ». Ces premiers démonstrateurs permettraient d’attirer l’attention d’industriels sur l’intérêt de ce polymère pour générer des micro-charges électriques à faible coût et exploitable d’un point de vue applicatif.