Une nouvelle rubrique pour se lancer dans l’intrapreneuriat

C’est la combinaison des responsabilités de l’employé avec ses compétences en matière d’entrepreneuriat qui crée un intrapreneur. Un intrapreneur est l’employé qui saisit une opportunité, développe une idée et la fait passer au niveau supérieur au sein de son entreprise.

L’intrapreneuriat apporte, pour l’entreprise comme pour les collaborateurs, une respiration face aux contraintes des services classiques de Recherche et Développement. D’abord sur le timing : les projets d’intrapreneuriat sont calibrés pour être sélectionnés et accélérés sur un laps de temps relativement court, 4 à 5 années au maximum. C’est une façon d’innover alternative par rapport à la stratégie globale des grands groupes, une manière plus agile et résiliente, qui correspond parfaitement aux attentes des collaborateurs motivés pour entreprendre, en particulier des plus jeunes.

Dans les faits, comment une démarche d’intrapreneuriat réussie peut-elle être mise en œuvre ? Les principes qui gouvernent l’entrepreneur, avec sa liberté de manœuvre, peuvent-ils vraiment s’appliquer à l’intrapreneur qui, lui, subit les contraintes d’un investisseur-employeur souvent unique et issu d’une organisation mature et peu encline à prendre des risques ?

Afin de ne pas rester au stade du vœu pieux, Techniques de l’Ingénieur propose, au cœur de l’offre « Management et ingénierie de l’innovation », une nouvelle rubrique de fiches pratiques dédiées à la mise en place de l’intrapreneuriat. Son auteur, Marc Evangelista, directeur de l’incubateur Michelin, a à cœur de partager son expérience et de faciliter la mise en route d’un tel projet. À travers 3 thématiques principales, le lecteur comprendra la spécificité du management de l’innovation intrapreneuriale, saura mettre en place une organisation intrapreneuriale, et sera en mesure de constituer et d’accompagner une équipe intrapeneuriale.

Nous vous proposons de rencontrer Marc Evangelista, notre expert, lors du webinar :
L’intrapreneuriat dans l’industrie : un pari gagnant !
Le jeudi 3 février à 16h

 

Et découvrez « L’intrapreneuriat au service de l’innovation »  en consultant gratuitement une fiche pratique, cliquez simplement sur ce lien !

Pompes à chaleur : comment accéder à de la haute température ?

La pompe à chaleur sera-t-elle la technologie incontournable du XXIe siècle ? Son utilisation est déjà promue par les acteurs de la transition énergétique pour les besoins de chauffage et d’eau chaude dans les bâtiments résidentiels et tertiaires. Dans l’industrie, son intérêt est tout aussi important : les rendements élevés des pompes à chaleur et leur capacité à « prélever » de l’énergie sans épuiser de ressource naturelle en font un allié de choix pour décarboner les activités industrielles. Le cycle thermodynamique de ces machines permet en effet de « piocher » des calories dans l’environnement (air, sol ou liquide) et les faire monter en température pour un usage dédié. « L’intérêt des pompes à chaleur sera d’autant plus grand pour un industriel que le niveau de température sera élevé, typiquement au-delà de 100°C pour alimenter certains process en air chaud, vapeur, ou eau surchauffée. Nous avons lancé un état de l’art en 2021 afin de lister les technologies existantes ou en cours de développement, et les points d’attention sur ce marché encore émergent », explique Eliéta Carlu, directrice de l’Alliance ALLICE.

Être vigilant sur les COP et les fluides frigorigènes

Le premier constat du rapport publié par ALLICE mi-octobre sur les pompes à chaleur très haute température (PAC THT) est que le marché est dominé par la technologie à compression électrique. La petite dizaine de fabricants de PAC THT recensés dans le monde actuellement (Enertime, Kobe Steel, Ochsner, Hybrid Energy, Mayekawa, Engie, Combitherm, Oilon, Frigopol) met à disposition une quinzaine de machines de ce type. Le cycle thermodynamique est classique : compression, condensation, détente, évaporation. Le coefficient de performance (COP) de la machine est le rapport entre la chaleur fournie au condenseur (source chaude utilisable) et l’énergie électrique de compression. Souvent entre 2 et 4, le COP montre que la PAC restitue deux à quatre fois plus d’énergie que celle consommée pour la compression. « Néanmoins, les industriels ne doivent pas se contenter du COP seul. Ils doivent aussi savoir comment il évolue selon deux paramètres : la différence de température entre la source froide (captée à l’évaporateur) et la source chaude (diffusée au condenseur) ; et le taux de charge de la PAC, c’est-à-dire la capacité réellement utilisée par rapport à la puissance thermique maximale », détaille Lucille Payet, coordinatrice de projets collectifs chez ALLICE.

Schéma de principe d’une pompe à chaleur à compression électrique (source : Ademe)

Une petite vingtaine de prototypes de PAC THT sont testés actuellement dans le monde (Chine, Japon, Allemagne, Suisse, Autriche, France, Espagne, Norvège, Corée du Sud, Pays-Bas) pour étendre leurs plages thermiques et leur efficacité. En France, EDF soutient plusieurs projets, dont Transpac qui utilise un fluide en état supercritique (un fluide chauffé au-delà de sa température critique et comprimé au-dessus de sa pression critique).

L’autre point d’attention concerne les fluides frigorigènes utilisés pour le cycle thermodynamique des PAC THT. Comme dans toutes les pompes à chaleur, il existe deux enjeux :

  • leur pouvoir de réchauffement global (PRG) : ce sont des gaz à effet de serre et si les plus émetteurs d’entre eux ont été interdits par la réglementation F-Gas (n°517/2014), il faut privilégier les fluides à faible PRG ;
  • leur inflammabilité et leur toxicité, au regard de la norme NF EN 378:2017.

Certains fluides de type HFC sont très pratiques mais gardent un PRG élevé (858 dans le cas du R245fa, fréquemment utilisé dans les PAC THT). D’autres fluides dits « naturels » comme le R717 (ammoniac), le R718 (eau) ou le R744 (CO2) ont un PRG très faible ou nul mais imposent des contraintes techniques d’exploitation (étages de compression successifs pour l’eau, pressions élevées pour le CO2, conception adéquate des compresseurs pour l’ammoniac à cause de pressions de refoulement importantes). Le R600 (butane) dispose d’un faible PRG de 4 et de bonnes caractéristiques thermodynamiques mais il est extrêmement inflammable. Chaque fabricant fait son choix avec toutes ces contraintes. De nouveaux fluides frigorigènes en cours d’essai semblent prometteurs dans la gamme des HCFO et des HFO.

Trois technologies alternatives

Trois autres technologies de PAC THT sont en cours de développement. La première est celle du transformateur de chaleur à absorption, où le couple de fluides (souvent bromure de lithium et eau) assure la compression par réaction chimique d’absorption / désorption. Il faut nécessairement une source de chaleur fatale (calories non utilisées dans un process) qui verra son niveau de température relevé par le transformateur. Cette technologie ne dispose pas encore de retour d’expérience en France (et peu en Europe) mais une société comme Thermax présente une offre mature.

Schéma de principe d’un transformateur de chaleur à absorption (source : CETIAT)

La deuxième solution est une PAC thermochimique à adsorption, reposant sur un principe de stockage de chaleur entre deux réacteurs contenant chacun un sel adsorbant, et entre lesquels circule un fluide frigorigène. Le réacteur basse température (par exemple avec du MnSO4) sert de réservoir de chaleur : il stocke le fluide frigorigène (par exemple de l’ammoniac) pendant la phase de charge. Le réacteur haute température (par exemple avec du NiCl2) joue le rôle d’échangeur de chaleur et fournit la chaleur THT pendant la phase de décharge (réaction exothermique de l’adsorption du fluide frigorigène). Encore au stade de la R&D, ce système ne peut que transformer une chaleur fatale existante, comme la PAC à absorption.

Schéma de principe d’une pompe à chaleur à adsorption (source : ALLICE)

La troisième technologie étudiée est la PAC équipée d’un moteur Stirling et dont le fluide frigorigène est l’hélium (R704). Le fonctionnement est analogue à une PAC à compression (la compression et la détente étant réalisées dans le piston du moteur Stirling) mais il n’y a pas de changement d’état du fluide frigorigène gazeux. C’est la variation d’énergie sensible qui permet de puiser et de céder de la chaleur. Ce système est au stade de démonstrateur en Norvège et Suède sur deux sites industriels. Sa puissance est modeste mais permet des montées en température importantes, avec la possibilité de travailler à charge partielle.

Schéma de principe d’une pompe à chaleur à moteur Stirling (source : Olvondo Technology)

Avec Seasam, Notilo Plus débloque l’accès aux données sous-marines

Après avoir développé un drone sous-marin destiné au grand public pour une utilisation de loisir, l’entreprise Notilo Plus a depuis peu recentré ses activités sur le secteur professionnel en développant un drone destiné à l’industrie, capable d’embarquer tout type de capteur. En parallèle, l’entreprise a également développé une plateforme de stockage et de traitement des données qui fait largement appel à l’IA. Le co-fondateur et actuel président de Notilo Plus, Nicolas Gambini, nous livre les détails de leur fonctionnement et revient également sur la genèse de l’entreprise, née en 2016.

Techniques de l’Ingénieur : Quand et comment Notilo Plus a-t-elle vu le jour ?

Nicolas Gambini, co-fondateur et actuel président de Notilo Plus

Nicolas Gambini : L’entreprise a été fondée en 2016. L’idée, à l’époque, est née d’une observation : celle de l’émergence des drones aériens et de leurs capacités à suivre les personnes de manière autonome. Cela nous a semblé intéressant et nous nous sommes demandé s’il serait possible de faire la même chose sous l’eau, avec un drone qui serait capable de filmer des plongeurs et de leur permettre ainsi de ramener des images de leurs aventures aquatiques. Il s’agissait donc, à la base, plutôt d’un produit de loisirs.

Mais nous nous sommes vite aperçus d’une difficulté par rapport aux drones aériens : lorsque l’on s’enfonce dans l’eau, GPS, Bluetooth et wifi ne fonctionnent pas. Il nous a donc fallu inventer une technologie pour avoir un drone complètement autonome sous l’eau. C’est ce que nous avons fait avec notre premier produit, le drone iBubble. En 2017, nous avions notre premier prototype fonctionnel, qui était très gros : il faisait une vingtaine de kilos pour un mètre de long. Mais il était tout à fait capable de suivre un plongeur. Cela a été la première preuve de ce que nous étions capables de faire. Cela nous a permis de réaliser une première levée de fonds de 650 000 €. Nous avons ainsi pu travailler, en 2017-2018, à un prototype représentatif du produit final.

En parallèle, nous avons commencé à avoir des demandes émanant de comptes professionnels, comme EDF, qui souhaitaient, plutôt que de suivre un plongeur, suivre par exemple une fissure dans le béton d’un barrage. Nous avons donc commencé à réfléchir à une adaptation de notre solution pour ces professionnels. Nous avons ainsi créé le drone Seasam, qui reprend beaucoup d’éléments d’iBubble, mais nous l’avons rendu plus robuste afin qu’il puisse aller plus profondément, emporter plus de capteurs, avoir plus de puissance de calcul grâce à un ordinateur embarqué plus performant. En 2018, nous avions un prototype du drone ressemblant à 90 % au produit final, qu’il nous fallait industrialiser. Nous avons réalisé une nouvelle levée de fonds, de deux millions d’euros, qui nous a permis d’industrialiser notre produit et de commencer à le commercialiser à partir de 2019. Après une autre levée de fonds et l’entrée au capital de CMA-CGM, avec qui nous avons développé une solution d’inspection autonome des coques de navires, nous avons alors commencé à nous concentrer sur la partie « pro ». La crise sanitaire de 2020 n’a fait qu’accélérer ce mouvement, notre drone de loisirs étant très dépendant du tourisme. Nous nous sommes dit que c’était le bon moment pour mettre cela en sommeil et assumer une orientation B2B.

Quels sont les caractéristiques et les principaux intérêts de ce drone sous-marin destiné aux professionnels ?

Avec un poids de seulement neuf kilos pour une longueur de 55 cm, le drone professionnel de Notilo Plus peut être manié pas une seule personne. © Notilo Plus

En créant Seasam, nous avions la volonté de démocratiser l’accès aux données sous-marines. Cela s’est donc traduit par sa légèreté – il ne pèse que neuf kilos – et sa compacité : 55 cm de long. Il est ainsi transportable et opérable par une seule personne. Seasam est certes petit, mais aussi puissant. Il est capable d’emporter tout type de capteur. De base, il est équipé de capteurs acoustiques, avec un système de positionnement propriétaire que nous avons développé, ainsi qu’un capteur vidéo. Nous avons aussi ajouté la possibilité d’emporter d’autres capteurs en fonction des besoins de nos clients. Il peut s’agir, par exemple, d’une sonde de mesure de la qualité de l’eau, d’un capteur d’épaisseur de métal pour vérifier des coques ou des tuyaux, ou encore d’une caméra acoustique, utile en milieu très turbide. Ce qui fait la force du drone est l’intégration de toutes ces informations dans le flux principal de données. Cela permet, pour le client, de n’avoir qu’un seul flux d’information synchronisé à traiter.

L’appareil peut fonctionner sans fil – les commandes sont transmises acoustiquement – ou en filaire, ce qui permet un retour vidéo. Il est capable d’atteindre une profondeur allant jusqu’à 100 mètres. Il est alimenté par un système de batteries échangeables, de différentes capacités, qui durent entre une et quatre heures.

Le prix de base du drone est de 12 k€, et les prix peuvent monter jusqu’à 40-50 k€ en fonction des capteurs embarqués. Mais nous privilégions le business model du paiement à l’inspection : le client paie au fur et à mesure, en fonction de son utilisation.

Comment le drone se pilote-t-il ? Quel est le rôle de l’intelligence artificielle dans l’autonomisation de ses déplacements ?

Piloté grâce à une simple manette de jeu vidéo, Seasam offre un retour vidéo sur tablette, avec, en surimpression, les données de navigation. © Notilo Plus

L’interface principale est constituée par une tablette, qui remonte toutes les données, tel un cockpit, en surimpression de la vidéo. Une manette de jeu vidéo est connectée à la tablette, et permet de piloter le drone très simplement. Il s’agit d’un univers familier pour beaucoup de gens, ce qui rend le drone très simple à utiliser. Nous pouvons également proposer des formations pour les utilisations avancées, pour apprendre à maîtriser toutes les subtilités de l’appareil.

En ce qui concerne l’IA, elle a un rôle central. Plutôt que d’utiliser des capteurs à 10 000 € pièce, nous utilisons des composants beaucoup moins chers, et c’est grâce à l’algorithmie, en faisant de la fusion de données, que nous parvenons à de bons niveaux de performance dans la collecte de données. Cela nous permet donc à la fois de faire de la détection et de la navigation autonome. L’IA nous permet également de réaliser une identification automatique de points d’intérêts, via la plate-forme que vous avons également développée, Notilo Cloud.

Quels sont les intérêts de cette plate-forme ?

La plate-forme Notilo Cloud constitue un espace de stockage sécurisé des données. Elle permet également de générer des rapports. En utilisant l’intelligence artificielle, le machine learning, on peut détecter de manière automatique des points d’intérêts spécifiques à chaque secteur industriel. Elle permet également de suivre l’évolution de paramètres dans le temps, en offrant une présentation dynamique des données. Cela permet d’optimiser la maintenance des actifs sous-marins.

À quels secteurs ce drone s’adresse-t-il ?

Nous travaillons, d’une manière générale, sur toutes les infrastructures immergées. Nous travaillons donc principalement dans les domaines du transport maritime, de l’aquaculture et de l’éolien offshore. Nous travaillons aussi dans le secteur de la défense et de la sécurité civile, par exemple avec les pompiers, ou encore dans le domaine scientifique.

Plus globalement, notre volonté étant de démocratiser l’accès aux données sous-marines, nous avons une réponse à apporter à chaque secteur qui a besoin d’aller voir ce qui se passe sous l’eau. Notre solution est très versatile et notre ambition est, à terme, d’offrir des solutions à tout le monde.

Sur quels axes d’amélioration travaillez-vous éventuellement ? Quelles pistes explorez-vous en matière de R&D ?

Nos travaux de R&D visent à amener toujours plus d’autonomie à notre système : à la fois en matière de collecte des données, en lui donnant les capacités d’aller plus loin, pour l’éolien offshore par exemple, mais également sur le traitement des données. Nous cherchons à perfectionner nos algorithmes pour faire gagner du temps à nos clients et les aider dans leur prise de décision par rapport à la maintenance de leurs actifs immergés.

Reborn : désencrer pour upcycler

En 2019, 50,7 millions de tonnes de matières plastiques ont été consommées à l’échelle européenne(1). Parmi elles, environ 8,8 millions de tonnes – soit 17,4 % – de polyéthylènes(2) utilisés pour produire films et autres sacs plastiques. Des plastiques fins et souples qui échappent encore souvent au recyclage – le gisement potentiel est estimé à plus d’un million de tonnes –, ou ne deviennent au mieux que des produits de moindre qualité. En cause, notamment : l’encre qui les recouvre, contraignant les industriels au « downcycling », comme l’explique Arthur Lepage, président de la holding ExcelRise, leader européen sur le marché de l’emballage plastique. « Quand on recycle ces films, les quelques microns d’encre déposés à leur surface rendent la matière recyclée noire ou marron. C’est l’un des obstacles, si ce n’est l’obstacle principal pour pouvoir correctement recycler ces films imprimés », souligne Arthur Lepage. Face à ce constat, la holding qui regroupe ses activités packaging sous l’enseigne « Reborn » s’est lancée dans une aventure industrielle de longue haleine : 10 ans de réflexion sur la faisabilité et plus de 5 ans de R&D. Objectif : créer une ligne de désencrage qui rendrait possible « l’upcycling » des films plastiques imprimés.

Un développement complexe

« Au départ, nous avons essayé des solutions basées sur l’utilisation d’alcool et de solvants. Nous avons construit des prototypes qui brossaient la surface du film. Mais cela ne fonctionnait que pour des films en bobine, là où le gros des déchets arrive en vrac, et uniquement à petite vitesse », retrace Arthur Lepage. Autre piste explorée par le groupe : celle d’un trempage des films dans des bains de solvant avec diffusion d’ultrasons. « Cela permettait de traiter du vrac, mais nous avons rencontré des problèmes de débit. Et l’utilisation de solvants amenait des risques d’explosivité », se remémore le président du groupe Reborn. C’est finalement avec l’appui d’une start-up espagnole que Reborn est parvenu à une solution véritablement opérationnelle, basée sur l’utilisation de détergents en phase aqueuse. « Nous avons travaillé avec eux plusieurs années pour industrialiser le processus, déterminer quels étaient les équipements nécessaires pour mettre en œuvre ces détergents dans le process de recyclage », explique Arthur Lepage.

Un procédé vertueux

C’est par balles compressées qu’arrivent les films plastiques, avant d’être broyés. Déchets films ©REBORN – Nicolas Catard – Uptown

Le procédé débute ainsi par un broyage des films, conditionnés au départ sous forme de balles. Les flocons ainsi formés sont ensuite agités dans des bassins remplis d’eau chaude et de détergent, avant de subir un séchage. Une étape répétée deux fois et à l’issue de laquelle les flocons désencrés sont récupérés, puis séchés par centrifugation. Les flocons secs et propres sont ensuite chauffés afin de subir une ultime étape : celle de la granulation. « À l’issue du process, nous récupérons les encres, nous les séchons, et nous obtenons ainsi des boues d’encres en très petite quantité. Ces boues sèches sont ensuite évacuées pour être traitées en tant que déchets », précise Arthur Lepage. L’eau est ainsi utilisée en circuit fermé. Et les vertus environnementales du procédé ne s’arrêtent pas là : l’énergie est également économisée, le procédé ne nécessitant qu’un chauffage modéré de l’eau de lavage, mais aussi du plastique, qui ne dépasse pas les 120°C lors de l’étape de granulation. « Comparée à une granule vierge, une granule de plastique recyclé permet ainsi d’éviter 60 à 70 % des émissions de carbone », assure Arthur Lepage.

Vertueuse sur le plan environnemental, la matière recyclée grâce au procédé de désencrage développé par Reborn est également compétitive d’un point de vue économique, avec un coût comparable à celui de la matière vierge.

Les boues d’encre sont récupérées et l’eau utilisée en circuit fermé. C’est par balles compressées qu’arrivent les films plastiques, avant d’être broyés. Déchets films ©REBORN –Nicolas Catard – Uptown

Des objectifs ambitieux

Lancée par Reborn en novembre dernier sur son site d’Ogeu-les-Bains (Pyrénées-Atlantiques), cette ligne de désencrage baptisée B.Clear représente une première en France. Un investissement de 3 millions d’euros qui va permettre à Reborn de recycler chaque année 4 000 tonnes de films polyéthylène. Après avoir franchi cette étape, le groupe envisage désormais de déployer huit autres lignes de recyclage sur ses différents sites de production à l’horizon 2025-2026. « Nous visons le traitement de près de 40 000 tonnes de déchets de films plastiques d’ici 2026 », dévoile finalement Arthur Lepage. Un objectif auquel s’ajoute celui de produire, à la même échéance, 80 % de film plastique premium issu de matière recyclée.

Installée sur le site néo-aquitain de Reborn, la ligne de désencrage va permettre le recyclage annuel de 4 000 tonnes de films polyéthylène. ©REBORN – Nicolas Catard – Uptown

 

Microsoft mise sur l’IA pour mieux exploiter les images satellites

Les données satellitaires sont devenues essentielles depuis plusieurs années. Elles permettent de coordonner les interventions des secours en cas de catastrophes, de surveiller l’évolution de la déforestation et de façon plus générale des effets du réchauffement climatique.

De nombreux États exploitent aussi ces informations à des fins de sécurité nationale, par exemple pour suivre les exercices militaires ou les mouvements de troupes de certains pays. Mais les entreprises sont également de plus en plus demandeuses de ces images satellites, associées à d’autres données géospatiales, pour optimiser les récoltes, mais aussi les chaînes d’approvisionnement afin qu’elles soient plus fluides.

L’IA et les satellites au service de la logistique

L’optimisation des supply chains est devenue le nerf de la guerre économique, encore plus depuis la pandémie qui a boosté les livraisons du e-commerce. Or cette optimisation s’appuie notamment sur une meilleure gestion des données aussi disparates que la météo, les opérations commerciales spéciales (comme le Black Friday), la réglementation ou des contraintes particulières comme la pénurie de composants électroniques.

Pour relever ces défis, les géants du e-commerce font appel à la puissance de calcul proposée par le cloud et à l’intelligence artificielle. Résultat, les géants de l’informatique comme Microsoft et Amazon (leader mondial du cloud) multiplient les services pour permettre aux entreprises d’être plus performantes.

Et parmi les nouveaux services qu’ils proposent, il y a l’imagerie satellite. Mises à jour en temps réel, ces informations sont cruciales pour la logistique, car elles permettent de savoir combien de navires sont dans un port et combien de conteneurs ils transportent. Les images satellites permettent aussi de voir l’évolution du trafic routier et les aménagements réalisés ou en cours et qui permettront de rendre plus fluides les livraisons.

« Mais l’un des défis majeurs pour l’observation de la Terre depuis l’espace est qu’une grande partie de la Terre est couverte de nuages opaques. 67 % du monde est couvert de nuages », explique Microsoft.

S’appuyant sur Azure, sa plate-forme applicative dans le cloud, SpaceEye est un système basé sur l’IA qui génère quotidiennement des images optiques et multispectrales de la Terre sans nuages.

À droite, image générée par SpaceEye. Crédit : Microsoft

Les données satellites : la guerre Microsoft/Amazon

Ce résultat est obtenu en deux étapes. Premièrement, SpaceEye utilise l’instrument SAR (Synthetic Aperture Radar) de la mission Sentinel-1 (série de satellites d’observation de la Terre développée par l’ESA) pour produire des données de base, puisque le radar n’est pas affecté par la couverture nuageuse. La seconde étape consiste à les combiner avec des données optiques historiques pour générer une image d’IA qui prédit ce à quoi une scène peut ressembler sous les nuages.

En septembre 2020, Microsoft a aussi lancé Azure Orbital. Sa plate-forme de traitement des données satellitaires basée sur le cloud marche sur les plates-bandes de Ground Station d’Amazon Web Services (division cloud d’Amazon).

Lancé dès 2017, Ground Station compte aujourd’hui de nombreux clients du secteur aérospatial comme Spire (spécialisée dans le suivi des navires/avions et les données météorologiques) et Capella Space (spécialisée dans les satellites d’imagerie radar).

Comme AWS Ground Station, Azure Orbital permet aux opérateurs de satellites de contrôler leurs engins spatiaux via le cloud, ou d’intégrer les données des satellites avec un stockage et un traitement basés sur le cloud.

Enfin récemment, la division Azure Space de Microsoft a signé un accord avec différents partenaires, dont Airbus. Dans le cadre de ce partenariat, Airbus alimentera Azure Maps avec son imagerie satellitaire à résolution SPOT 1,5 m et ses constellations de satellites optiques Pléiades 50 cm et Pléiades Neo 30 cm fournissant des produits à très haute résolution.

Windows 11 apporte-t-il plus de sécurité que Windows 10 ?

Windows s’offre un nouveau lifting avec cette version estampillée « 11 » alors qu’en 2015 Microsoft avait affirmé que Windows 10 serait le dernier numéro de version de son système d’exploitation…

Malgré le nouveau look de l’OS (Operating system), qui s’inspire notamment de la légèreté du bureau de Chrome OS de Google ou de certains bureaux Linux, force est de constater que son utilisation ne semble pas si différente de celle de Windows 10. Il exécute toujours les mêmes applications, et la plupart des nouveautés se résument à un relookage des icônes et des fenêtres.

Reconnaissons qu’il est difficile pour Microsoft de réinventer la roue. Mais le gros travail n’est pas visible pour le commun des mortels. Il porte notamment sur une amélioration du niveau de sécurité de Windows 11 afin de limiter toute une catégorie d’attaques de logiciels malveillants.

Sécuriser le démarrage du PC

En exigeant le « Secure Boot » (démarrage sécurisé) et une puce TPM 2.0 (cette nouvelle version du standard Trusted Platform Module prend en charge de meilleurs algorithmes cryptographiques que la version 1.2), Windows 11 neutralise des attaques qui prennent le contrôle total de l’ordinateur en détournant le processus de démarrage de Windows ou en s’introduisant dans le système avant le démarrage. Des mesures de précautions prises depuis un certain temps par Apple pour macOS.

Les puces TPM existent depuis près de vingt ans et sont utilisées dans des cartes bancaires et des smartphones. Mais beaucoup de fabricants de périphériques informatiques ne les ont pas intégrées. En mettant la pression sur des intégrateurs de PC sous Windows 10 pour qu’ils activent la TPM, Microsoft avait permis de relever le niveau de sécurité des parcs informatiques.

Une puce TPM peut être vue comme un mini coffre-fort qui stocke des clés de chiffrement, des mots de passe et des certificats. Ces éléments permettent d’identifier et d’authentifier les appareils, les logiciels et les utilisateurs. En d’autres termes, cette puce permet de s’assurer que les PC sous Windows 11 sont sécurisés.

Vérifier sa compatibilité

Windows 11 est également compatible avec l’architecture TPM Pluton. Présente sur sa console Xbox One depuis 2013, elle n’existe pas encore sur les ordinateurs… Mais depuis fin 2020, Microsoft travaille avec Intel, AMD et Qualcomm pour qu’ils l’intègrent directement au sein de leurs processeurs. Cette intégration empêche les attaques physiques qui ciblent le canal de communication entre le processeur et le TPM.

Microsoft a aussi inclus la sécurité basée sur la virtualisation dans Windows 11. Cette fonctionnalité vise à protéger les solutions de sécurité (en particulier les antivirus) contre les attaques en les hébergeant dans un segment isolé et sécurisé de la mémoire du système. Le but est de cloisonner différents rouages essentiels pour éviter qu’une personne malveillante prenne le contrôle total de l’OS en désactivant ou en leurrant l’antivirus.

Si ces nouvelles mesures réduisent les risques d’attaques ciblées sur un ordinateur, elles présentent un inconvénient de taille. Windows 11 n’est compatible qu’avec des modèles récents (depuis 2015 pour la plupart des marques) et qui disposent notamment d’une puce TPM. Pour savoir si votre matériel est compatible, vous pouvez télécharger l’outil mis à disposition par Microsoft.

Certes, des ordinateurs plus vieux pourront toujours fonctionner avec Windows 11 grâce à quelques astuces, mais ils ne bénéficieront pas du même niveau de protection.

DIAMFAB met la technologie du diamant synthétique au service de la haute puissance

Dans un précédent article, Étienne Gheeraert nous présentait les possibilités offertes par l’utilisation du diamant industriel comme semi-conducteur à très haute performance, à travers le projet GreenDiamond. La start-up DIAMFAB a été créée à la suite de ce projet.

Gauthier CHICOT est le président de la start-up DIAMFAB, qu’il a co-fondée avec Khaled DRICHE (Crédit : DIAMFAB)

DIAMFAB est une société spin-off du CNRS, qui a vu le jour en mars 2019, après 2 ans et demi de maturation et d’incubation.

 

DIAMFAB a bénéficié de l’accompagnement de la SATT Linksium Grenoble Alpes et travaille en étroite collaboration avec l’Institut Néel – CNRS, le seul laboratoire à maîtriser la croissance de couches de diamant synthétiques de très haute qualité avec un tel degré de maturité.

Techniques de l’Ingénieur : En quoi le diamant synthétique est-il intéressant pour les industriels ?

Gauthier Chicot : L’électronique de puissance est un domaine en pleine croissance et les industriels sont à la recherche de nouveaux matériaux toujours plus performants pour des applications de gestion de l’énergie. Actuellement, nous observons que des matériaux comme le GaN (nitrure de gallium) et le SiC (carbure de silicium) sont en train de progressivement remplacer le silicium en électronique de puissance.

Les composants conçus à partir de ces matériaux étant arrivés au stade de l’industrialisation, les fabricants de composants pensent maintenant à l’étape suivante. Comme il est le semi-conducteur ultime, le diamant synthétique est donc le candidat évident.

DIAMFAB est une jeune start-up. Quel est le contexte de sa création ?

Depuis plusieurs années, l’Institut NEEL est régulièrement sollicité pour la fourniture de couches épitaxiées de diamant [L’épitaxie est une technique utilisée pour faire croître des couches minces de cristaux, de quelques nanomètres d’épaisseur, NDLR], dans le cadre de divers projets nationaux ou européens.

Comme la technologie devenait suffisamment mature et que les besoins en électronique de puissance se multiplient, l’idée de créer une start-up comme DIAMFAB a naturellement émergé. Étienne Gheeraert, David Eon et Julien Pernot, trois enseignants-chercheurs de l’institut, ont ainsi accompagné sa création. Comme ils font partie du conseil scientifique de DIAMFAB, ils nous font ainsi bénéficier d’un savoir-faire issu de 30 ans de R&D.

En 2017, au cours de la phase de maturation du projet DIAMFAB, nous avons cherché à affiner la technologie et à recueillir les besoins. Ceci nous a amenés à rencontrer divers industriels et laboratoires, dans le but de leur fournir des prototypes de nos wafers à haute valeur ajoutée. Nous avons constaté que le marché commençait à émerger, ce qui a permis d’amorcer la phase d’incubation du projet et de préparer le lancement de la start-up.

La technologie est mature, mais qu’en est-il du marché ? Visez-vous certaines applications en particulier ?

Les applications potentielles sont nombreuses et tous les besoins n’évoluent pas à la même vitesse suivant les secteurs. Pour le moment, nous adressons en priorité des marchés de niche à faible volume, comme le nucléaire, car le diamant est une solution idéale pour résister aux fortes radiations. Nous sommes ainsi capables de proposer des empilements adaptés à la production de diodes et de transistors.

Au-delà des niches, nous avons aussi pour objectif de fournir certains marchés comme l’automobile ou l’aéronautique. Ainsi, en automobile, le diamant présente également un fort potentiel, pour la conception de condensateurs, de diodes et de transistors destinés à fabriquer des convertisseurs 80 % plus compacts et plus efficaces. Si ce marché n’est encore qu’à ses débuts, nous sommes persuadés que le diamant sera le passage obligé pour l’électrification de nos modes de transports.

Concernant l’aéronautique, nous participons au développement de convertisseurs à haute puissance à base de transistors en diamant pour les futurs avions hybrides, dans le cadre d’un projet européen H2020, Clean Sky II.

Exemple de wafer en diamant revêtu de 2 couches épitaxiées de diamant. (Couche p++ : 0.5µm (±5%), dopage au bore >5×1020 cm-3 / couche p : 0.4µm à 10µm (±10%), dopage au bore entre 5×1014 et 1×1018 cm-3) (Crédit : DIAMFAB)

Comment voyez-vous l’avenir ?

Pour le moment, les équipements à notre disposition nous permettent de produire de petites séries de matériaux relativement performants, mais aussi de proposer à nos clients des co-développements de produits spécifiques. Nous espérons être en capacité de produire de forts volumes d’ici 3 ou 4 ans, mais avant cela, nous devons investir dans de nouveaux équipements de production et approfondir nos travaux de R&D pour répondre aux fortes exigences des applications très haute tension.

DIAMFAB accueillera bientôt son 8e collaborateur, mais nous espérons être entre 12 et 15 d’ici fin 2022, à l’issue de la levée de fonds qui devrait être lancée en courant d’année.

La cryomicroscopie repousse les frontières de la biologie

La cryomicroscopie électronique (cryo-ME) a fait l’objet d’une couverture médiatique en 2017. Le prix Nobel de chimie a été décerné à trois scientifiques pour leurs travaux de développement de la technologie : Jacques Dubochet, Joachim Frank et Richard Henderson. Cette technique d’imagerie utilise un faisceau d’électrons pour réaliser, à partir d’échantillons biologiques (protéines, ADN, virus, bactéries, cellules) cryogénisés à -180°C, des modèles 3D à de hautes résolutions, jusqu’à des détails atomiques.

Dans un article publié en avril 2021 dans la revue Médecines Sciences, Daniel Lévy, directeur de recherche en biologie à l’Institut Curie, et ses co-auteurs, détaillent les avancées de la cryomicroscopie électronique. Nous avons échangé avec lui pour comprendre l’impact de ces avancées, mais également les applications de cette technologie.

Techniques de l’Ingénieur : Quelles sont les évolutions de la cryomicroscopie électronique ?

Daniel Lévy : La cryomicroscopie est une technique d’imagerie du vivant qui s’est développée depuis les années 1970 et qui a vécu une révolution forte à partir de 2014. Ces dernières années, les microscopes et détecteurs sont également plus performants, notamment la qualité du faisceau d’électrons, des lentilles électromagnétiques plus stables, des diaphragmes automatisés, ou encore des caméras à détection directe d’électrons.

En parallèle, un développement important a été réalisé sur l’analyse des images. On va pouvoir à la fois regarder des composants cellulaires présentant des mutations ou des dysfonctionnements à l’origine d’une maladie à des résolutions que l’on n’avait pas auparavant. Ce qui est très utile pour comprendre le vivant, à la fois dans la recherche académique, mais également pour des applications biomédicales.

Pourquoi faut-il combiner la cryogénie à l’imagerie pour analyser le vivant ?

Pour faire des images les plus précises possibles, on va figer l’échantillon biologique dans une couche mince de glace vitreuse, transparente aux électrons. Cette technique permet d’éviter la formation de cristaux de glace pouvant abîmer les structures. L’échantillon doit ensuite être maintenu à -180°C pendant l’observation.

Pouvez-vous nous donner des exemples d’applications ?

Prenons l’image du virus du Covid-19 que l’on voit dans les médias : une boule avec des picots. La protéine de surface est celle qui va reconnaître un récepteur dans une cellule et y entrer. Lorsqu’on parle de variant, cela signifie qu’une mutation d’un acide aminé – une partie de la protéine – va se fixer de manière plus efficace sur une cellule humaine, et va donc entrer plus facilement. Cette mutation est visualisée par cryomicroscopie électronique.

Autre exemple : depuis longtemps, on connaît l’existence des protéines membranaires réceptrices de toutes nos sensations (douleur, goût, odorat). Lorsqu’elles sont déréglées, elles sont la source de maladies neurodégénératives. Cependant, nous n’avions pas idée de la façon dont elles s’organisaient dans l’espace et comment on pouvait agir dessus. Grâce à la cryomicroscopie, nous avons désormais des modèles dans l’espace en 3 dimensions, où l’on voit très bien à quel endroit le médicament intervient dans la protéine. Soit un activateur qui va pouvoir entrer, soit un inhibiteur qui va pouvoir la bloquer.

Cela permet de comprendre le fonctionnement et l’action d’un médicament ?

Oui, et de concevoir de nouveaux médicaments. Avant que le vaccin ARN soit injecté à des patients par exemple, on réalise des images de la formulation vaccinale pour voir à quoi cela ressemblait. Dans le cas du vaccin contre le Covid-19, ce n’est pas un simple ARN car il est englobé dans une capsule lipidique et compacté pour pouvoir entrer dans les cellules. Et pour être sûr qu’il soit bien compacté, on fait des images de cryomicroscopie.

Quelles sont les limites de l’instrument ?

Il y avait un tas de limitation technologique pour observer des protéines humaines, par des approches autres que la cryomicroscopie. Aujourd’hui, il est possible de les regarder à des résolutions quasi atomiques. Cependant, sur les aspects d’analyse d’image où on doit passer beaucoup de temps pour le traitement, cela reste encore compliqué à cause d’un mauvais rapport signal sur bruit. En d’autres termes, le signal des détails dans l’image est très faible. On va donc utiliser différentes approches algorithmiques pour faire ressortir ces détails. Cela stimule beaucoup de recherches dans la communauté des mathématiques appliquées pour faire cette approche de reconnaissance des signaux, via le machine learning et le deep learning. C’est ce qui est en cours pour faire évoluer la technologie.

De plus, depuis cinq ans, la cryomicroscopie était réservée à des experts. Aujourd’hui, ils sont rejoints par des professionnels de la pharmacologie, de la biologie fondamentale, de la recherche agronomique – pour les protéines impliquées dans la résistance aux insecticides par exemple –, des mathématiques appliquées ou encore de la physique. L’un des objectifs est que l’instrument devienne plus accessible en termes de compréhension, que les scientifiques n’aient plus à se soucier de la façon dont la technologie fonctionne. Pour le moment, les gens qui réalisent de bonnes images sont des experts. Ceux qui interprètent les images aussi.

Quels sont les autres objectifs ?

Les autres objectifs sont les applications : visualiser pour comprendre le fonctionnement du maximum de protéines impliquées avec des applications biomédicales, industrielles, agronomiques, fondamentales… Grâce à la cryomicroscopie, on a pu comprendre à l’échelle atomique comment se formaient les plaques amyloïdes dans les maladies neurodégénératives du type Alzheimer, à partir d’une biopsie de patient. On est donc sur de l’analyse directe d’échantillons de patient et non in vitro. Cela permet d’aller chercher, dans les tissus de patients, les protéines responsables de la maladie. Alors qu’habituellement, dans un laboratoire, on crée artificiellement une protéine avec différentes approches et on l’étudie. On ne va pas extraire les protéines des patients. Désormais avec la cryomicroscopie, c’est possible. On sera plus proche du patient.

La technologie est-elle bien développée en France ?

La France a pris beaucoup de retard dans cette technique. Mais elle mène des actions pour rattraper ce retard. Il y a environ 250 cryomicroscopes à très haute résolution dans le monde, et seulement 3 en France et d’autres sont prévus. Les laboratoires pharmaceutiques, comme Pfizer, Novartis et Aztrazeneca, s’équipent. Les cryomicroscopes sont des instruments très coûteux, entre 5 et 10 millions d’euros. En revanche, l’impact économique de la compréhension de protéines à impact biomédical est beaucoup plus important.

La cryomicroscopie n’est pas une expertise française ?

Non, la cryomicroscopie a avant tout été développée par des laboratoires japonais, anglais, allemand et également américain. Et les principaux fabricants de cryomicroscopes sont l’Américain ThermoFischer et le Japonais Jeol, le premier détenant environ 90 % du marché. Ce qui pose problème car il n’y a pas de mise en concurrence possible… Au départ, il y a une trentaine d’années, il y avait deux fabricants, dont l’un était Philips. Mais il a été racheté par l’américain FEI, puis ThermoFischer.

Nous avons de très bons laboratoires en cryomicroscopie en France, mais peu. Ils sont beaucoup plus nombreux dans les autres pays.

En quoi est-ce intéressant pour un ingénieur de travailler sur ce type d’instrument ?

Même si l’application est biologique, l’instrument reste un instrument de physique. Il permet donc à des ingénieurs, qui ont des formations en physique, optique, imagerie ou encore informatique, de travailler sur ces technologies.

CES : une édition sous le signe de la santé

Comme chaque année, le CES représente une vitrine de l’innovation avec son lot de gadgets plus ou moins pertinents. Les poids lourds du secteur high tech comme Samsung, LG, Intel, Sony y dévoilent leurs dernières solutions.

Mais au final, à part des ordinateurs portables plus puissants tout en étant un peu moins énergivores (grâce aux moniteurs OLED) et des smartphones 5G, cette édition reste sans réelle innovation.

Les points intéressants se trouvent ailleurs. Avec un brin de chauvinisme, nous constatons que les entreprises françaises ont collecté 23 nominations aux Awards du salon. Un bon cru donc, même si la France avait récolté 67 nominations en 2019.

On peut citer entre autres Baracoda et son thermomètre sans batterie, Chargepoly et son système de recharge de véhicules électriques, Green Systems Automotive et son système d’économie d’énergie pour la marine, NepTech et sa navette fluviale, mais aussi l’Oréal pour trois produits, Schneider et trois produits pour la maison connectée, STMicroelectronics et une carte biométrique, Valeo et son purificateur d’air pour véhicule…

Des écrans tueurs de coronavirus

« Ce qui est intéressant, c’est que de grandes entreprises et des industriels français ont maintenant intégré les codes marketing de ce salon en valorisant leur écosystème et en organisant des conférences de presse. Et ça paie puisqu’ils obtiennent des prix. Historiquement, les grandes entreprises n’étaient pas au niveau. Il n’y avait que les start-up françaises, poussées par Bpifrance et la French tech qui y candidataient », constate Olivier Ezratty, consultant et auteur spécialisé dans les technologies quantiques.

Beaucoup de domaines sont présentés au CES. Mais l’un des secteurs les plus innovants est celui de la santé. Les capteurs pour nous ausculter sont de plus en plus nombreux. On peut citer ceux de WeMed (France) et d’i-Virtual (France) avec son Caducy qui est un dispositif médical de monitoring de six paramètres vitaux sans contact exploitant un simple selfie de 30 secondes avec son smartphone.

Pandémie oblige, différentes entreprises ont présenté leur solution pour éradiquer les coronavirus ou limiter la contamination, comme des masques intégrant une lampe UVA !  La tendance est d’ailleurs à l’exploitation des UVC pour tuer des germes et des virus. Cette technique est connue depuis un certain temps, mais comme ils sont néfastes pour les êtres humains, il a fallu trouver une astuce pour la contourner.

La solution consiste à faire passer l’air dans une zone fermée et exposée aux UVC. Valeo a ainsi adapté son dispositif purifiant l’air des bus pour tuer les coronavirus. Même procédé pour la LOD (pour Light Of Disinfection). Imaginée par Olivier Moyen, président d’I Light You, entreprise de luminaires basée à Dardilly (Rhône), cette lampe fabriquée en France (700 euros) est vendue dans de nombreux pays (dont Belgique, République tchèque…) et sera déployée durant la Coupe du monde de football au Qatar.

Plus original, Air-Clenz Systems (USA) commercialise des moniteurs d’ordinateurs qui contiennent un système de ventilation qui capte l’air expiré par les utilisateurs pour le purifier.

crédit : Air-Clenz Systems

Les transports ont été fortement représentés avec la multiplication des véhicules électriques y compris des motos. « Par contre, la thématique de la conduite autonome s’est un peu calmée, car les constructeurs constatent qu’il est très difficile de généraliser ce type de conduite à part sur des routes peu fréquentées ! On en reste encore à la R&D », précise Olivier Ezratty.

Les innovations sont également lentes du côté des batteries qui restent encore un domaine compliqué, car c’est de la chimie. « Remplacer les métaux comme le nickel ou le cobalt par des matériaux moins polluants reste encore un défi à long terme », souligne Olivier Ezratty.

Batterie : pas de miracle

Pas de batteries magiques donc, mais des évolutions graduelles avec cette année l’apparition de batteries plates qui améliorent la quantité énergétique. D’autres pistes concernent la durabilité, le temps de charge ou l’anode qui est amélioré en remplaçant le carbone par du graphène ou du silicium.

Bluetti a par exemple présenté la première génération solaire sodium-ion au monde. Le système NA300 et son module de batterie B480 utilisent la technologie sodium-ion pour accélérer considérablement la charge et améliorer les performances dans les environnements à basse température.

Cette entreprise allemande affirme que sa batterie sodium-ion peut se charger de 0 à 80 % en moins de 30 minutes à température ambiante et présente un taux de rétention de plus de 85 % à basse température, autour de -20 °C.

« Mais il faut rester prudent ; il y a quelques années, Mercedes avait présenté une batterie qui utilisait du potassium à la place de métaux lourds, mais on n’en parle plus tellement aujourd’hui. Il n’y a pas de miracle », constate Olivier Ezratty.

Certificats d’économie d’énergie : jusqu’à -80% d’aides en 2022

Les certificats d’économie d’énergie (CEE) constituent l’aide privée à la rénovation énergétique. Elles fonctionnent sur le principe du pollueur-payeur : l’État oblige depuis 2006 les entreprises qui mettent sur le marché des produits polluants, principalement les fournisseurs et distributeurs d’énergie (les « Obligés »), à aider les consommateurs dans leurs travaux d’économies d’énergie. Le système des CEE fonctionne par périodes de quatre ans. Depuis le 1er janvier 2022, nous passons de la période P4 à la P5, avec plusieurs évolutions.

Pour l’ensemble des Français, les aides de nombreux travaux d’isolation vont diminuer puisque les Coups de pouce liés aux combles perdus s’arrêtent fin juin 2022 et les nouveaux montants des fiches standardisées CEE liées à l’isolation des sols, des murs et des toitures-terrasses seront baissés d’au moins 25 % d’ici le printemps 2022.

L’entreprise Hello Watt accompagne gratuitement les particuliers tout au long de leurs projets de rénovation énergétique. Elle les aide à hiérarchiser les travaux, fournit des estimations de devis et du montant des aides. Elle les met ensuite en relation avec des artisans certifiés RGE choisis avec soin et s’occupe des dossiers administratifs d’aides. Selon Hello Watt, le reste à charge de certains travaux va bondir pour les familles très modestes, notamment si elles souhaitent entreprendre des travaux d’isolation extérieure. Gautier Villard, responsable du département Rénovation Énergétique chez Hello Watt, nous explique ces changements.

Techniques de l’Ingénieur : Vous évoquez une baisse des aides dans le cadre du dispositif des certificats d’énergie, à quoi est-elle due ?

Crédit photo : Axel Nasciment

Gautier Villard : Le principe des CEE est théoriquement vertueux car égalitaire entre tous les types de travaux : un kilowattheure (kWh) économisé par le consommateur correspond à un CEE, quels que soient les travaux d’économies d’énergie réalisés. Chaque CEE est ensuite valorisé sur le marché des CEE à un prix qui fluctue. Le montant final de la prime CEE pour le consommateur dépend donc du volume de CEE (défini par l’État par type de travaux) et du prix du CEE (dépendant de l’équilibre offre – demande, telle une place de marché).

En 2022, nous nous attendons à une réduction des primes CEE suite à la baisse conjuguée des deux facteurs : volume et prix. D’une part, l’État a décidé de réduire le volume de CEE créés par chaque type de travaux d’isolation. D’autre part, le prix du CEE baisse depuis un an. Début 2021, le prix du marché était à plus de 8 € par mégawattheure (MWh) alors qu’il atteint actuellement presque 6 €/MWh, et nous anticipons une légère baisse à venir dans les prochains mois. Ainsi, rien qu’avec la baisse des prix, un particulier obtient aujourd’hui 25 % d’aides en moins.

Cette baisse n’est pas la seule, vous dénoncez aussi la fin des Coups de pouce. Quel est l’impact sur les CEE ?

Les Coups de pouce font partie intégrante du mécanisme des CEE. Ces dernières années, l’État a voulu favoriser certains types de travaux et a donc accordé davantage de CEE pour un même type de travaux. Cela distord la réalité entre CEE et kWh économisés réellement, mais a pour but de booster les aides et le nombre de travaux. Cela a donné naissance aux Coups de pouce Isolation et Coups de pouce Chauffage.

L’État a décidé d’arrêter les Coups de pouce Isolation face à des abus avec les offres à 1 euro et de réduire la voilure des Coups de pouce Chauffage. Par exemple pour l’isolation des combles perdus, le Coup de pouce prend fin en juin 2022. Ce type de travaux basculera à nouveau sur des CEE standards et donc l’aide diminuera.

Les objectifs en termes de CEE semblent être en contradiction avec les objectifs en termes de nombre de travaux…

Effectivement. Chaque période encadrant le dispositif des CEE est sujette à une négociation concernant un objectif en termes de volume de CEE à atteindre par les Obligés. Pour la P5, l’objectif retenu s’élève à environ 2 500 térawattheures (TWh), contre 2 100 TWh pour la P4 et 950 TWh pour la P3. Alors que l’objectif avait plus que doublé entre la P3 et la P4, la hausse s’élève seulement à environ 15 % entre la P4 et la P5.

L’augmentation du nombre de CEE est donc faible, ce qui a poussé l’État à arrêter les Coups de pouce et à réduire les volumes accordés pour chaque type de travaux. Il espère en effet que le nombre de travaux de rénovation augmente bien davantage que la hausse de 15 % de volumes à récupérer par les Obligés. La logique est théoriquement bonne, mais c’est sans compter l’importance du montant des aides dans la prise de décision des particuliers. La baisse des aides va dissuader les particuliers d’effectuer des travaux, ce qui aura l’effet inverse espéré par l’État.

Il faut mettre cela en perspective avec les objectifs de la stratégie nationale bas-carbone. L’État veut 500 000 logements rénovés de façon performante chaque année d’ici 2025. Aujourd’hui, les chiffres divergent, mais on doit être à moins de la moitié.

En conclusion, là où il faudrait doubler les objectifs, on les fait stagner et là où on devrait maintenir les aides ou les augmenter pour booster les décisions des Français, on les diminue.

En quoi la nouvelle période qui s’ouvre a-t-elle un impact sur la baisse des aides ?

Quand on a un objectif de nombre de CEE total à remplir qui augmente très légèrement et que l’on veut quand même augmenter massivement le nombre de travaux, il faut baisser le montant de l’aide par types de travaux. La fin du Coup de pouce Isolation aboutit par exemple à une baisse des aides d’environ 50 % sur l’isolation des combles perdus pour certains ménages. La révision des fiches standardisées CEE devrait aboutir à une baisse de 30 % pour l’isolation des planchers bas et de 50 % pour l’isolation des murs.

C’est sans parler de la fin de la bonification des primes CEE pour les ménages les plus modestes qui a été supprimée avec la P5. Jusqu’à maintenant, ces ménages touchaient deux fois plus d’aides que les autres pour un même type de travaux, ce qui ne sera plus le cas. Ainsi, sur l’isolation des murs, un ménage très modeste touchera, en 2022, 80 % de prime CEE en moins qu’en 2021.

Ce qui s’est passé avec la nouvelle période de CEE est complètement en contradiction avec les ambitions françaises sur les économies d’énergie et sur le logement. Si l’on veut éviter une baisse ou une stagnation des travaux, il faudrait augmenter les montants de MaPrimeRénov’, l’aide publique aux travaux de rénovation énergétique, maintenir les volumes de CEE délivrés par type de travaux et augmenter les objectifs globaux de la P5.

Le Haut Conseil pour le Climat veut « rehausser les objectifs 2030 de la France »

Cinq ans après l’adoption de l’Accord de Paris sur le climat, la COP26 constituait une étape cruciale dans son application. Outre le rehaussement des engagements de réduction d’émissions des pays, le sommet de Glasgow a permis d’achever les règles d’application s’agissant des mécanismes de marchés du carbone, et des procédures de transparence quant aux engagements de réduction pris par les pays signataires. Plusieurs alliances ont été lancées, mais le Pacte de Glasgow constitue un compromis qui met à mal l’objectif de limiter le réchauffement climatique à 1,5°C. Il n’a pas non plus réussi à atteindre l’objectif de financement international du climat, fixé à 100 milliards de dollars par an à partir de 2020. Celui-ci peine à atteindre les 80 milliards de dollars en 2019 d’après les dernières données de l’OCDE.

La France doit prendre de nouveaux engagements

La France a un objectif de neutralité carbone pour 2050 et vise une réduction de ses émissions de gaz à effet de serre de 40 % d’ici 2030 par rapport à 1990. Dans un nouvel avis, le HCC rappelle que la France n’a pas pris d’engagements de réduction additionnels « mais a rejoint de multiples coalitions volontaires dont il sera nécessaire d’assurer un suivi ». La France s’est également engagée à contribuer à l’effort international de financement du climat à hauteur de 7 milliards de dollars par an (soit 6 milliards d’euros).

Le HCC enjoint la France à rehausser ses objectifs 2030 dans le cadre de la mise en œuvre du paquet législatif « Paré pour 55 / Fit for 55 ». L’organisme indépendant voulu par Emmanuel Macron pour évaluer les politiques climatiques de la France l’invite à clairement spécifier les enjeux pour tous les secteurs émetteurs, y compris l’aviation et les transports maritimes internationaux. Il recommande en plus d’assurer un suivi des engagements internationaux pris par la France, y compris au sein de coalitions, et traduire leurs implications concrètes pour les acteurs concernés afin d’apporter dès 2022 la visibilité nécessaire aux choix d’investissement.

Reprendre le leadership climatique

Pour l’organisme, l’Hexagone doit également « reprendre l’initiative à l’international sur le climat » en vue de la présidence du Conseil de l’Union européenne au 1er semestre 2022, de la COP27 en Égypte et de la COP28 aux Émirats arabes unis. Le HCC recommande en plus de mobiliser les acteurs économiques sur les nouveaux marchés liés à l’atténuation et l’adaptation aux effets du changement climatique.

Le HCC rappelle que pour faire valoir son leadership au niveau international, la France doit atteindre ses objectifs nationaux. Cela nécessite de renforcer et consolider les dispositifs de suivi mis en place par le gouvernement au travers de ses plans climat. Suivant des recommandations du Haut Conseil pour le Climat (HCC), le Premier ministre avait demandé à dix ministères d’élaborer ces feuilles de route visant à renforcer la mise en cohérence des politiques publiques avec les objectifs climatiques de la France. Dans un contexte de crise sanitaire, trois ont publié ces plans : Transition écologique, Agriculture et Économie.

Mais « les premiers plans climat relèvent davantage d’un recensement des mesures déjà existantes ou prévues, plutôt que d’un outil de pilotage de la stratégie climatique française », regrette finalement le Haut Conseil pour le Climat. « Les plans peuvent être améliorés en alignant chacune des actions à un niveau de baisse d’émissions, et à un besoin en financement », plaide Corinne Le Quéré, présidente du HCC. Mais aussi en mettant en place un pilotage par Matignon. Le HCC recommande ainsi de renforcer la gouvernance et de se doter de moyens à la hauteur des objectifs climatiques, « en particulier s’agissant du rythme de déploiement et du financement des infrastructures nécessaires notamment à l’électrification des usages dans la perspective de la neutralité carbone, et à l’adaptation aux effets du changement climatique. »

Pour contrer le cyberespionnage, la start-up Snowpack propose de cacher les informations dans des « flocons »

Le cyberespionnage est une pratique généralisée et qui ne date pas d’hier. En juin 2007, des pirates chinois avaient réussi à infiltrer un réseau non protégé utilisé par les principaux conseillers politiques de Robert Gates, alors ministre américain de la Défense. L’arroseur arrosé…

Pour limiter les risques de vol ou d’interception de données, des entreprises s’appuient sur différentes solutions qui chiffrent les e-mails ou les transferts, en s’appuyant notamment sur un VPN. Cette technologie permet de créer un « tunnel virtuel » et sécurisé entre l’ordinateur de l’expéditeur et son destinataire, ou entre deux sites distants.

Mais ces pratiques ne sont pas encore généralisées dans toutes les sociétés. Et si elles compliquent la tâche des pirates, elles ne sont pas parfaites : de nombreux acteurs (Allot, Atis, Sandvine…) se sont d’ailleurs spécialisés dans les outils d’analyse de flux chiffrés directement dans le cœur du réseau. En effet, les VPN présentent plusieurs limitations.

Anonymiser l’ensemble des flux

Premièrement, les VPN reposent sur des briques de chiffrement qui peuvent présenter des vulnérabilités d’implémentation voire des backdoors. De plus, certains VPN exploitent des données à l’insu de leurs utilisateurs ou n’ont pas mis en place une politique de sécurité pertinente, ce qui rend ces données accessibles. Deuxièmement, ils n’assurent pas une parfaite anonymisation des métadonnées (adresses IP, informations sur les couches protocolaires) qui servent à acheminer les paquets. « En restant visibles, les métadonnées peuvent constituer une source d’informations importante pour des attaquants, qui peuvent identifier quelle personne communique avec quelle autre sur le réseau », précise Christophe Janneteau, en charge du service Interactions et réseaux au CEA-List. Un État qui souhaiterait espionner les échanges entre des personnes travaillant pour un avionneur ou un industriel dispose de moyens humains et financiers pour reconstituer un puzzle à partir de différents petits éléments.

Pour assurer une confidentialité quasi parfaite (le risque zéro n’existant pas), il est donc nécessaire de camoufler ces métadonnées. Développée depuis 2016 par le CEA-List, la technologie commercialisée par Snowpack, spin-off du CEA-List créée en mai 2021, propose une solution inédite basée sur l’anonymisation de l’ensemble des flux internet (e-mail, transfert de fichiers, vidéo en live…).

Déployée sur l’ensemble des équipements réseau d’une entreprise ou au niveau d’internet, elle consiste à diviser l’information en fragments constitués de données aléatoires, mais complémentaires, qui empruntent différents chemins.

Du bruit qui brouille l’information

« Sur ces chemins, nous ne faisons pas transiter de paquets IP, mais ce qu’on appelle des flocons, c’est-à-dire du bruit qui a une taille standardisée. Si une personne malveillante prend la main sur l’un des flocons, elle doit retrouver parmi l’ensemble des autres celui qui est son « complément » pour pouvoir accéder à la donnée. En pratique, pour recomposer 1 ms de flux, même sans qu’aucun de ces flux ne soit chiffré, il faudrait plusieurs années », explique Baptiste Polvé, co-fondateur et directeur technique de Snowpack.

Le réseau Snowpack est composé de nœuds (des serveurs) exploités par la start-up et déployés dans les locaux ou le cloud de ses clients et partenaires (le CEA, Altrnativ, le secteur de la Défense). Plus il y a de relais, plus le bruit augmente et brouille l’information.

Cette solution cache donc les détails de l’expéditeur, du destinataire et des itinéraires, et elle ne contient aucune donnée. Les utilisateurs sont anonymes au niveau du réseau et des applications. L’identité de l’utilisateur étant entièrement protégée, le commercial d’une entreprise d’aéronautique peut envoyer des informations sensibles depuis sa chambre d’hôtel, à l’autre bout du monde, sans risquer qu’un gouvernement local ou un hacker remonte ses communications.

« Il n’y a pas plus de latence qu’avec un VPN. Si l’on passe par trois ou quatre serveurs installés en Europe, elle est de 60 millisecondes, dont 50 dues à la distance entre les serveurs, les 10 autres au code qui tourne sur nos serveurs. Sur ce dernier point, la latence devrait être considérablement réduite dans les prochains mois. Le maillage de nœuds permettra également de réduire la partie physique », précise Baptiste Polvé.

Cette solution est commercialisée sous différentes offres auprès principalement des entreprises de la Défense, de la cybersécurité et de l’investigation numérique. De nouvelles versions seront accessibles aux particuliers début 2022 et seront suivies de déclinaisons pour iOS et Android au cours de l’été 2022.

Semaine des étudiant.e.s 2022 : études et avenir professionnel, les webinars pour réussir

Le monde connaît une nouvelle fois une période difficile en ce moment où la Covid-19 reprend des forces. Cependant, nous avons su y faire face et de nouvelles méthodes de travail ont fait leur apparition. On observe une prise de conscience collective qui rime avec de nombreux changements positifs. Cette semaine sera donc sous le signe du renouveau. Plus que jamais, il faut expérimenter et grandir au sein de ce nouveau monde.

En interface entre le monde des étudiants et celui des industriels, Techniques de l’Ingénieur a donc imaginé une série de webinars pour encourager les échanges et éclairer sur l’avenir.

Le webinar, permet à distance, d’accéder facilement à des informations concentrées sur un sujet, mais également de poser des questions à un expert : profitez de leur disponibilité pour mettre tous les atouts de votre côté !

Les grands thèmes abordés cette année sont :

Études

Se projeter

Ces webinars sont ouverts et gratuits à tous, n’hésitez pas à vous inscrire à nos différentes sessions en cliquant sur les liens ci-dessus. Et si vous n’êtes pas disponible à l’heure dite : pas de souci, vous recevrez un lien vers le replay !

Comment prédire les événements extrêmes climatiques ?

Le changement climatique vient exacerber les événements extrêmes en termes d’intensité et de fréquence. C’est ce qu’affirme le rapport du groupe de travail chargé des éléments scientifiques de l’évolution du climat (groupe I) du GIEC (Groupe d’experts intergouvernemental sur l’évolution du climat) publié en août 2021. De nombreuses régions vont être touchées, au niveau mondial. Les contributions des groupes II (conséquence, adaptation et vulnérabilité) et III (atténuation du changement climatique) arriveront respectivement en février et mars 2022.

Pour mieux comprendre le lien entre les événements extrêmes et le changement climatique, ainsi que leur niveau de prévisibilité, nous avons échangé avec Françoise Vimeux, climatologue à l’Institut de Recherche pour le Développement (IRD) et Pascal Yiou, chercheur au Laboratoire des Sciences du Climat et de l’Environnement (LSCE).

Techniques de l’Ingénieur : Qu’est-ce qu’un événement extrême ?

Françoise Vimeux : Ce qu’on appelle événement extrême, climatique ou météorologique, c’est un événement dont l’intensité sort de la gamme usuellement observée. Ce sont les vagues de chaleur, les sécheresses, les pluies torrentielles, mais également les cyclones. Cependant, la définition d’un événement extrême n’est pas la même par exemple en France ou au Sahel où les températures estivales sont déjà beaucoup plus élevées en moyenne. On qualifie donc d’extrême un événement en fonction du territoire sur lequel il se produit.

Quel est le lien entre changement climatique et événements extrêmes ?

F. V. : De nombreuses études montrent qu’un certain nombre d’événements extrêmes sont attribués au changement climatique. Ils n’auraient jamais eu lieu dans un climat non modifié par l’homme avec une telle intensité. Les vagues de chaleur, les sécheresses et les pluies torrentielles sont exacerbées par le changement climatique à la fois en termes de fréquence et d’intensité.

L’atmosphère et l’océan se réchauffent, et donc nos étés vont être de plus en plus chauds, et des événements exceptionnels particulièrement chauds sont attendus. Le rapport du GIEC explique par exemple qu’une vague de chaleur qui avait lieu tous les 50 ans sur la période 1850-1900, arrivera une fois tous les 10 ans dans un monde à +1,5°C à la fin du siècle, et presque une fois par an si l’anomalie de température est de +4°C en 2100.

L’augmentation de l’intensité des pluies torrentielles quant à elle vient du fait qu’une atmosphère plus chaude peut contenir plus de vapeur d’eau (7 % de plus par degré de réchauffement). Ainsi, une situation météorologique qui conduira à des pluies entraînera des cumuls de pluie plus importants et des risques d’inondations plus forts. Enfin, pour les sécheresses, certaines régions comme la Méditerranée vont être soumises à des déficits de pluies importants, et à une forte évaporation des sols à cause des températures élevées.

Pascal Yiou : Et pour les vagues de froid, même si les températures augmentent, elles ne disparaîtront pas. En effet, il s’agit d’air venant des pôles qui sont plus froids que nos latitudes, même s’ils se réchauffent plus vite. Ces vagues de froid seront moins fréquentes pour les moyennes latitudes, mais pas moins intenses.

Qu’en est-il des cyclones ?

F. V. : C’est un peu différent pour les cyclones. Les simulations climatiques nous disent qu’il n’y aura pas plus de phénomènes cycloniques, d’ailleurs il y en aura probablement moins dans certains bassins océaniques. Cependant, on sait que le risque cyclonique va augmenter pour plusieurs raisons.

Tout d’abord, pour un nombre de phénomènes constants, il y aura davantage de cyclones intenses, de catégorie 4 et 5, que de cyclones de catégorie 1 à 2. Dans le bassin Atlantique, on commence à parler de cyclone quand la vitesse des vents moyens est supérieure à 119 km/h (catégorie 1), et les catégories s’étalent jusque 5 avec vents supérieurs à 251 km/h. Dans l’océan indien, la classification est un peu différente et on nomme l’état du système dépressionnaire, par exemple : dépression tropicale, tempête tropicale, cyclone, cyclone intense et très intense, etc. Chacune de ces dénominations est définie par des vents minimum et maximum.

Ensuite, pour la raison évoquée ci-dessus, les cyclones seront plus pluvieux et cela engendrera de graves inondations.

Enfin, le risque de submersions marines lors d’un cyclone va être intensifié par la montée du niveau moyen des mers. Lorsque vous avez une dépression atmosphérique (tempête ou cyclone), cela crée une légère élévation des mers localement. Si, dans 50 ans, la mer a un niveau moyen de 20 cm au-dessus de celui d’aujourd’hui, on aura une submersion marine augmentée de 20 cm pour une dépression de même intensité. Ainsi, on peut craindre des submersions marines plus importantes, même pour des cyclones de faible catégorie.

Cet été, nous avons observé de nombreux événements extrêmes dans le monde. Est-ce un avant-goût de l’avenir ?

F. V. : C’est vrai que cet été, il y a eu beaucoup d’événements extrêmes dans l’hémisphère nord. Nous avons tout eu : dôme de chaleur dans le nord des États-Unis et au Canada, vagues de chaleur qui ont entraîné des feux en Californie, en Grèce et en Algérie, pluies torrentielles en Allemagne et en Belgique. Le record mondial de température a même été battu en juillet dans la vallée de la Mort [au désert des Mojaves, aux Etats-Unis, NDLR] avec un thermomètre affichant 54,4°C ! C’est un panel terrifiant, mais assez représentatif de ce qu’on peut attendre car, en effet, la fréquence de ces événements extrêmes va augmenter. Cependant, cela ne signifie pas que nous aurons tous les ans autant d’événements extrêmes.

En fait, il y a toujours eu des événements extrêmes par rapport à un climat donné. La canicule que l’on a connue en 2003 était un événement extrême car elle sortait de la variabilité connue pour les températures estivales à cette époque. Lorsqu’on regarde les projections climatiques, en 2050, l’été 2003 entrera dans la catégorie d’un « été normal ». En termes d’intensité, un événement extrême des années 2000 ne sera plus considéré comme tel au milieu du siècle ! Quand tous les ans vous avez la même vague de chaleur, on ne peut plus dire que c’est un événement extrême… Cela devient un événement classique.

Peut-on prédire les événements climatiques ?

P. Y. : Il existe deux formes de prédiction : la prévision météorologique et la projection climatique. Pour la première, il s’agit de déterminer la probabilité qu’un événement dangereux comme les cyclones ou les vagues de chaleur se produise dans les heures ou jours à venir. On sait le faire depuis longtemps et les modèles deviennent meilleurs avec le temps. Pour la seconde, on va plutôt se demander si de tels événements seront plus ou moins fréquents dans le futur. Et cela dépend du type d’événement, comme l’a expliqué Françoise Vimeux.

On va se demander également si ces événements extrêmes deviennent plus prédictibles d’un point de vue météorologique. L’exercice consiste à se placer dans un monde plus chaud, à la fin du 21e siècle par exemple : si la condition observée le 2 décembre 2021 se produit en 2071, est-ce que je peux dire que l’hiver sera très froid ? Est-ce que le temps dont nous disposons pour nous adapter change avec le changement climatique ? La réponse est oui, en fonction des événements. Les tempêtes seront plus faciles à prédire par exemple, les vagues de froid également.

Qu’est-ce qui les rend plus faciles à prédire ?

P. Y. : Les propriétés météorologiques de l’atmosphère changent avec le changement climatique. À l’heure actuelle, l’atmosphère est très « nerveuse », mais le sera bien moins à la fin du 21e siècle. Qu’est-ce que cette nervosité ? En moyenne latitude, nous avons un jet-stream, un courant d’air rapide qui se situe dans l’atmosphère, piloté par la différence de température entre l’équateur et le pôle. On peut l’imaginer tel un serpentin qui fait le tour de la planète. C’est la vitesse à laquelle ce serpentin va onduler qui va créer des événements météorologiques, comme les anticyclones persistants l’été dernier dans l’Ouest américain. Avec le changement climatique, la différence de température entre l’équateur et le pôle décroît : les pôles se réchauffent plus vite. La force et la direction de ce courant-jet dépendent de ce gradient de température, ce qui impacte directement la météorologie des moyennes latitudes où nous vivons.

Quels sont les outils utilisés pour réaliser ces prédictions ?

P. Y. : D’un côté il y a les matériaux, comme les observations, les simulations numériques ou modèles climatiques, et de l’autre les outils : comment calculer leurs probabilités. On utilise beaucoup de modèles physiques, comme ceux utilisés dans les rapports du GIEC, mais ils sont compliqués à mettre en œuvre car ils nécessitent des calculateurs et sont très coûteux. Une cinquantaine de simulations mobilisent des calculateurs à temps plein. Cinquante, ce n’est pas beaucoup, mais c’est le mieux que l’on puisse faire à l’heure actuelle.

Pour dépasser cette barrière, mon équipe développe des modèles statistiques dont le comportement ressemble à ce modèle météorologique ou climatique, pour de petites zones. Nous n’explicitons pas les principes physiques moteurs (comme les mouvements de l’atmosphère), mais nous avons quelque chose qui ressemble à la réalité en termes de température ou précipitation. On va utiliser le maximum de données qui correspondent au climat dans lequel on vit, comme les observations au sol et par les satellites, mais également les simulations météorologiques et climatiques. L’objectif est d’avoir une couverture globale. Au lieu de 50 simulations, nous en faisons des dizaines de milliers, ce qui permet de mieux appréhender les distributions de probabilités des variables climatiques.

Qu’est-ce que cela permet ?

P. Y. : C’est une façon de valider un demain possible. Par exemple, on veut calculer la probabilité qu’il fasse beau demain. Il existe de nombreux « demains » possibles, comme il existe de nombreuses fins de siècle possibles. La question que l’on se pose est : en quoi tous les demains possibles que l’on calcule vont ressembler au demain que l’on observera ? Nous avons besoin de quantifier, de donner un degré de ressemblance entre les deux. On va à la fois s’intéresser à la probabilité qu’il fasse beau, mais surtout, à la probabilité que les probabilités soient bonnes.

Y a-t-il eu une évolution technologique dans les outils de prédiction ?

P. Y. : L’évolution est constante, mais il s’agit surtout d’une évolution conceptuelle sur l’utilisation de l’intelligence artificielle pour avoir des émulateurs permettant de multiplier les expériences à bas coût informatique et éviter de saturer les mémoires. Notamment l’utilisation de méthodes proches de l’IA et de concepts mathématiques liés à la théorie du chaos.

L’un des gros chantiers à l’heure actuelle, et qui est en croissance depuis ces dix dernières années, est le calcul de l’évolution de probabilité d’occurrence d’un événement extrême, et comment le changement climatique affecte cette occurrence. Ces recherches ont conduit à des évolutions technologiques, au développement de modèles statistiques, notamment pour déterminer l’attribution d’un événement extrême au changement climatique. C’est un passage obligé même si la causalité au changement climatique est difficile à établir. On peut cependant regarder si la probabilité a changé avec le changement climatique.

Projet SYLFEED : transformer le bois en protéines pour l’alimentation piscicole

Charles-Henri Nicolas et Alexandre Garcia, de la société ARBIOM qui est à l’origine de la technologie innovante au cœur du projet SYLFEED, ont accepté de répondre à nos questions.

SYLFEED était un projet européen financé à hauteur de 8,7 M€ (sur un budget total de 10 M€) par le Bio Based Industries Joint Undertaking dans le cadre du programme de recherche et innovation Horizon 2020 de l’Union Européenne sous l’accord de financement n°745591. Ce projet européen intégrait un consortium de 10 partenaires, dont ARBIOM assurait le rôle de coordinateur. Débuté en 2017, il s’est achevé 4 ans plus tard, en août 2021.

Techniques de l’Ingénieur : Pourquoi rechercher des sources d’alimentation animale alternatives ?

Charles-Henri Nicolas, directeur projet (Crédit : ARBIOM)

Charles-Henri Nicolas : Cela fait 40 ans que l’Europe est confrontée à un déficit en protéines destinées aux élevages. À l’heure actuelle, 70 % de la nourriture qui est consommée par les élevages européens est ainsi importée. Dans le cas de l’alimentation piscicole, ces sources de nourriture – farines de poisson ou de soja – ont plusieurs inconvénients. D’une part elles ne sont pas durables, d’autre part elles posent des problèmes en termes de besoins stratégiques et ne favorisent ni l’emploi local ni le développement de nos filières.

Quel était le rôle d’ARBIOM dans le projet SYLFEED ?

C-H. N. : L’objectif du projet SYLFEED était de faire passer à l’échelle industrielle le procédé de fermentation de la biomasse lignocellulosique développé par ARBIOM et qui permet la conversion en protéines. Nous avons donc cherché à réunir différents partenaires, dans le but de créer une chaîne de valeur qui soit la plus locale possible. ARBIOM est ainsi à l’origine de ce projet qui a réuni 10 partenaires du nord-ouest de l’Europe.

Pour le sourcing de résidus de bois, nous nous sommes tournés vers Norske Skog, un papetier implanté à Golbey, dans les Vosges. Pour le prétraitement et la fermentation, nous nous sommes appuyés sur les sociétés Prayon et Rise Processum et nous avons utilisé les équipements des plateformes Bioprocess Pilot Facility et Bio Base Europe Pilot Plant pour la mise en production. La formulation et l’analyse des produits ont été confiées aux sociétés Matís et Laxá, ainsi qu’à Skretting, un producteur mondial d’aliments pour poissons.

Par ailleurs, ce projet a également fait l’objet d’une étude ACV, qui a été confiée à Norsus, un autre partenaire norvégien.

Les 10 partenaires du projet SYLFEED (crédit : SYLFEED)

Comment fonctionne le procédé développé par ARBIOM ?

C-H. N. : Notre procédé permet de valoriser la lignocellulose, c’est-à-dire la partie non comestible des végétaux composée de lignine, de cellulose et d’hémicellulose. Il comprend 2 grandes étapes. Dans un premier temps, le bois est fractionné, sa structure est déconstruite afin de revenir aux molécules qui constituent la lignocellulose. Cellulose et hémicellulose sont ensuite hydrolysées et fermentées par des micro-organismes afin de produire des protéines [le produit final a été baptisé SylPro®, NDLR].

Alexandre Garcia est Ingénieur d’affaires chez ARBIOM. (Crédit : ARBIOM)

Alexandre Garcia : Par ce processus, nous sommes ainsi capables d’obtenir un ingrédient riche en protéines, en grande quantité, mais aussi de récupérer la lignine. L’ensemble du bois utilisé est donc valorisé.

C-H. N. : Cela fonctionne avec le bois, mais aussi avec toutes sortes de végétaux. Néanmoins, le bois présente un avantage : il peut être approvisionné toute l’année, contrairement aux coproduits agricoles tels que la paille qui sont récoltés une fois par an et nécessitent d’être stockés. Or, le stockage de la paille présente un fort risque d’incendie, un inconvénient qui a été observé dans plusieurs projets de production d’éthanol de 2e génération.

Description du procédé de production de SylPro® par fractionnement et fermentation du bois (crédit : ARBIOM)

Les résultats étaient-ils à la hauteur de vos attentes ?

C-H. N. : Lorsque nous avons démarré ce projet, notre technologie se situait à un TRL 4 ou 5 [l’échelle TRL, pour technology readiness level, désigne le niveau de maturité technologique, NDLR]. À l’issue de ce projet, nous avons atteint un niveau de TRL 6 ou 7. C’est en ligne avec nos objectifs, même si certaines étapes n’ont pas été complètement validées.

C’est donc un succès, tant du point de vue de la technologie que des produits développés. Nous avons largement dépassé nos attentes en termes de rendement, de qualité et de quantités produites, ce qui est une excellente nouvelle, compte tenu de la demande extrêmement forte de la part d’utilisateurs finaux, pour la réalisation d’essais à grande échelle.

Bien que plus de 10 tonnes de SylPro® aient été produites au cours de ce projet, la demande est tellement forte qu’en parallèle de SYLFEED nous avons également fait réaliser de grands batchs de production par des fabricants sous contrat.

Le projet SYLFEED concerne uniquement l’alimentation piscicole. Votre procédé a-t-il d’autres applications ?

A. G. : En termes de qualité, ce produit riche en amino-acides permet de remplacer complètement les sources de protéines classiques. Le bénéfice sur la santé du microbiote intestinal des animaux a également été démontré, non seulement sur les poissons, mais aussi sur des porcelets ou d’autres mammifères. Nous travaillons également avec l’INRAE afin d’étudier l’alimentation humaine et nous sommes actuellement en train d’approfondir ces thématiques d’alimentation animale et humaine, à travers un autre projet européen, le projet NextGenProteins.

Quelles sont les prochaines étapes du développement de la technologie ?

C-H. N. : Nous continuons d’améliorer nos produits et nos process de fabrications avec nos équipes de R&D aux USA. Mais nous sommes surtout engagés dans l’industrialisation de notre technologie et nous prévoyons de construire une première usine commerciale en France à l’horizon 2024.

Une moelle osseuse sur puce pour mieux comprendre les cellules souches

Une nouvelle conception d’organe sur puce a été développée par une équipe du CEA et de l’Inserm. En reproduisant artificiellement le fonctionnement de la moelle osseuse, des chercheurs veulent mieux comprendre le fonctionnement des cellules souches hématopoïétiques – à l’origine de l’ensemble des cellules sanguines – dans leur micro-environnement : comment ces cellules souches interagissent avec les différentes cellules de leur voisinage, et comment cette communication complexe contrôle la biologie des cellules souches. En effet, il est maintenant acquis que des perturbations du micro-environnement de ces cellules au sein de la moelle osseuse peuvent être à l’origine de maladies du sang, telles que des leucémies ou différents déficits immunitaires.

Une moelle osseuse sur puce reproduisant le système biologique a été mise au point par le CEA et l’Inserm (Crédit : CEA/Inserm)

Les premiers résultats ont été publiés dans l’édition de novembre de la revue The journal of Cell Biology. Nous avons échangé avec Stéphane Brunet, chercheur Inserm au CytoMorphoLab, pour comprendre en quoi cet organe sur puce permet une meilleure compréhension du fonctionnement de ces cellules souches et son utilité pour la recherche médicale.

Techniques de l’Ingénieur : Pourquoi avoir développé une « moelle osseuse sur puce » pour étudier les cellules souches ?

Stéphane BrunetLe projet est d’étudier la biologie cellulaire des cellules souches hématopoïétiques humaines. Ces cellules souches sont cruciales car elles donnent naissance, en se différenciant, à l’ensemble des cellules sanguines (macrophages, globules rouges, plaquettes, etc.) et ce, pendant toute la vie. Elles sont d’ailleurs utilisées depuis des décennies en thérapie cellulaire pour soigner de nombreuses maladies du sang. Ces cellules résident dans la moelle osseuse. Leur état de quiescence, de prolifération ou leur engagement dans des voies de différenciation dépendent des multiples signaux émis par leurs micro-environnements, que l’on appelle aussi « niches ». Il y a, pour simplifier, deux niches : la niche vasculaire, proche du réseau d’artérioles de la moelle, et la niche endostéale qui jouxte la paroi osseuse. Les cellules souches dans chaque niche interagissent directement avec des cellules particulières. Elles vont recevoir des molécules spécifiques sécrétées par leurs cellules voisines. Enfin, elles sont en contact avec des substrats soit durs (la paroi osseuse) soit mous (les artérioles). La combinaison de tous ces signaux contrôle ainsi localement la biologie des cellules souches. Comment étudier à l’échelle cellulaire la communication des cellules souches avec des micro-environnements aussi complexes au sein de l’os ? Cette question est très compliquée !

Les développements récents des techniques de microscopie intravitrale permettent des approches in vivo. Cependant, ces travaux sont menés essentiellement chez la souris, et l’approche à l’échelle de la cellule reste ardue. Des approches de culture cellulaire classique sont aussi utilisées : on ensemence dans une boîte de culture des cellules d’intérêt sur lesquelles on dépose des cellules souches hématopoïétiques. Le problème, c’est que cette technique nous éloigne des conditions physiologiques réelles. Par exemple, les signaux émis diffusent dans le volume de culture, ce qui n’est pas très satisfaisant pour l’étude d’effets « locaux ». Cela fait donc une dizaine d’années que différents laboratoires essaient de développer des systèmes d’une complexité intermédiaire entre le in vivo et la boîte de co-culture. C’est là qu’intervient l’organe sur puce.

Pouvez-vous nous décrire votre système sur puce ?

Le principe est de reproduire les différentes niches physiologiques de la moelle osseuse dans un système miniaturisé unique, donc une puce, et en trois dimensions grâce à l’utilisation d’hydrogel. Un système d’alimentation par micro-canaux – c’est une puce « microfluidique » – permet de charger les cellules spécifiques des niches et les cellules souches dans des compartiments distincts mais qui communiquent entre eux. D’autres canaux assurent l’alimentation des cellules en milieu de culture. Un premier compartiment est ensemencé avec des cellules endothéliales qui vont s’organiser dans le gel en petits vaisseaux : ce compartiment mime la niche vasculaire. Un second compartiment est ensemencé avec des cellules appelées ostéoblastes pour mimer le compartiment endostéal. Entre les deux, un canal permet l’introduction des cellules souches qui vont pouvoir migrer dans le gel et entrer dans l’un ou l’autre des compartiments. Ainsi on peut suivre le comportement de la cellule souche spécifiquement dans chaque compartiment. Chaque niche fait 500 microns de large et quelques millimètres de long, pour une hauteur proche de 50 microns. La puce est en silicone et collée sur une lamelle en verre. Ceci nous permet de faire de l’imagerie à haute résolution sur des cellules vivantes, mais aussi de fixer chimiquement la puce pour analyser ensuite les niches par microscopie en fluorescence.

Vue en microscopie des trois compartiments de la moelle osseuse séparés par des piliers pentagonaux : partie haute le compartiment osseux, partie basse le compartiment vasculaire, au milieu le canal d’arrivée des cellules souches (reconnaissables à leur petite taille et à leur brillance) (Crédit : CEA/Inserm)

Quel est le comportement des cellules souches dans ces niches ?

Les cellules souches sont très mobiles dans le gel, mais elles peuvent venir au contact des cellules des vaisseaux ou des ostéoblastes : elles se fixent sur ces cellules, et vont se déformer et maintenir un ancrage par une structure qui ressemble à un long bec ou à un col de bouteille ! Leur architecture est totalement remaniée : elles sont « polarisées ». Cette polarisation avait déjà été observée in vivo, mais grâce à notre système, nous avons pu décortiquer les bases cellulaires et moléculaires de ces interactions polarisantes. La description de ce processus est importante d’un point de vue biologique : il va déterminer le mode de division de la cellule souche et son identité future. C’est aussi ce mode d’interaction très particulier qui pourrait être altéré dans le cas de transformation cancéreuse ! C’est l’hypothèse que nous sommes en train de tester actuellement…

image en microscopie à fluorescence haute résolution d’une cellule souche polarisée sur une cellule du compartiment osseux (taille de l’image 20µm) (Crédit : CEA/Inserm)

Quelle est la spécificité de votre système sur puce ?

C’est la topologie qui est vraiment nouvelle. Nous souhaitions vraiment avoir dans la même puce deux compartiments distincts et distants qui coexistent et miment les niches principales de la moelle osseuse, avec au milieu un système d’alimentation pour que les deux compartiments soient accessibles aux cellules souches. Je dirais que nous avons un système simple mais complet…

Par analogie avec les puces électroniques, il s’agit d’un système de culture cellulaire miniaturisé qui contient des circuits d’alimentation : des canaux pour faire rentrer des cellules dans les compartiments et des canaux d’alimentation en milieu de culture qui en plus peuvent être perfusés avec des solutions contenant des drogues par exemple pour modifier expérimentalement les niches. Tous ces circuits permettent la circulation de cellules ou de molécules, que l’on peut de plus récolter en sortie. À l’issue d’une période longue de culture, on peut par exemple récupérer les cellules pour les caractériser. En d’autres termes, la puce microfluidique permet de communiquer expérimentalement avec la moelle osseuse.

Nous avons aussi utilisé une technologie innovante : cette puce est conçue par photolithographie sans masque, une compétence que nous avons développée au CEA dans le cadre d’un partenariat avec la société Alvéole. Le principe est le suivant : une image du plan de la puce est projetée sur une résine photosensible. La résine ne polymérise par exposition aux UV que dans les zones du plan. Un moule plein de la puce est ainsi généré sur lequel on coule et polymérise du silicone liquide. En démoulant le silicone, on obtient en creux les canaux et les compartiments. Les extrémités des canaux sont ensuite perforées pour rendre accessibles les circuits d’alimentation. Le tout est collé par plasmatisation sur une lamelle… il n’y plus qu’à ensemencer les cellules dans leur hydrogel qui polymérisera dans les compartiments !

Avez-vous rencontré des difficultés dans la conception ?

Bien sûr ! En premier lieu, une des difficultés était de concevoir les plans d’une puce fonctionnelle qui réponde à toutes nos attentes. Un autre vrai challenge : arriver à induire l’auto-organisation des cellules endothéliales en réseau vasculaire. Une troisième difficulté s’est posée avec le compartiment endostéal, car les ostéoblastes sont des cellules extrêmement contractiles. Au début, lorsqu’elles étaient ensemencées dans le gel, elles le contractaient jusqu’à ce qu’il s’effondre, le compartiment ne tenait pas du tout ! Nous avons repensé ce compartiment et rajouté de nombreux petits piliers pour le maintenir. Ce qui nous donne une sorte de temple grec avec colonnes. Cette configuration nous permet du coup de reproduire une caractéristique physiologique de ce compartiment qui est très rigide, puisque osseux.

Quelle est l’utilité de ce genre de système ?

Ce système permet l’observation des cellules souches vivantes, de suivre leur migration, leurs interactions avec les autres types cellulaires des niches et l’effet de ces interactions sur leur devenir : comment se divisent-elles, vont-elles se différencier ? On peut également fixer chimiquement ces puces à un instant donné et étudier à l’échelle moléculaire les architectures de l’ensemble des cellules présentes. On peut enfin collecter les cellules en fin de culture et analyser l’effet de leur résidence dans l’un ou l’autre compartiment sur leur identité, leur fonctionnalité. Toutes ces questions de biologie cellulaire fondamentale peuvent être posées en contexte sain mais aussi en contexte pathologique : on sait que des altérations de la communication entre cellules souches et leur micro-environnement sont à l’origine de l’émergence de cellules cancéreuses, mais les mécanismes sont encore peu connus ; nous avons initié des recherches pour répondre à ces questions.

À plus long terme, on peut aussi penser que nous aurons la possibilité de modifier la composition de chaque compartiment pour contrôler, orienter le destin des cellules souches hématopoïétiques qui y résideront et donc produire des cellules « à façon ».

En bref, cet outil doit nous permettre de disséquer à l’échelle cellulaire, mais aussi de contrôler expérimentalement, la communication des cellules souches hématopoïétiques avec leurs micro-environnements. C’est un enjeu majeur dans le domaine de la biologie des cellules souches.

Peut-il également vous permettre de tester des médicaments ?

Oui. Grâce aux systèmes de canaux d’alimentation, mais aussi à la présence de canaux vasculaires, nous pouvons perfuser des molécules d’intérêt, drogues, médicaments, pour évaluer leur effet sur les cellules – cellules souches ou cellules leucémiques introduites dans la puce – et ce sur des durées de culture plus ou moins longues.

Le système est-il spécifique pour les cellules souches hématopoïétiques ?

Notre puce reproduit les micro-environnements de ces cellules souches particulières. Mais c’est un système transposable. À l’hôpital Saint-Louis par exemple, nos outils peuvent directement être utilisés pour étudier d’autres cellules sanguines dans ces environnements. D’autre part nous pouvons travailler sur des cellules souches saines mais aussi sur des cellules souches leucémiques, donc étudier les niches hématopoïétiques en contexte pathologique. Cet outil permet donc à la fois des travaux de recherche fondamentale et appliquée. Plus généralement, chaque cellule souche est conditionnée par son micro-environnement, chaque cellule souche possède une ou plusieurs niches spécifiques. En utilisant les techniques de micro-fabrication, on peut recréer les niches de n’importe quelle cellule d’intérêt.

Il peut donc vous permettre de réaliser des tests sans modèle animal ?

Effectivement, cette question est importante et a par exemple contribué à la récente explosion des systèmes appelés organoïdes. Dans ces systèmes, on se sert des propriétés d’auto-organisation des cellules pour former des micro-tissus multicellulaires en 3D et pour étudier ces cellules dans des conditions proches des conditions physiologiques, mais ex-vivo.

De la même manière, la puce microfluidique nous permet de réaliser des expériences, de poser un certain nombre de questions biologiques et de réaliser de nombreux tests tout en s’affranchissant de l’utilisation de modèles animaux. Ces systèmes alternatifs sont clairement appelés à se développer dans les années à venir !

Écoutez notre podcast Cogitons Sciences : Les ingénieurs français font carrière à l’étranger [Les ingénieurs se réinventent #3]

Selon la dernière enquête annuelle de l’association Ingénieurs et scientifiques de France (IESF), 15 % des ingénieurs français travaillent aujourd’hui à l’étranger. Qu’est-ce qui pousse les ingénieurs français à partir ? Pourquoi est-ce qu’ils choisissent de rester travailler à l’étranger ? Et est-ce qu’ils envisagent de revenir un jour ? 

Pour répondre à ces questions (et à bien d’autres encore), nous recevons deux ingénieures françaises qui ont fait carrière à l’international : Lucile Zenou, ingénieure biomédicale résidant au Canada depuis 2014 et présidente de l’association Francogénie, et Marion, ingénieure en Espagne où elle travaille depuis 16 ans.

Vous pouvez écouter l’épisode ici. 

Entre le groupe français et la filiale catalane, des cultures de travail différentes [1:31 – 6:23]

Pour Marion, s’installer en Espagne a d’abord été une décision personnelle, qu’il a ensuite fallu négocier avec le groupe français pour lequel elle travaille et qui possède une filiale à Barcelone. Deux possibilités se présentaient : signer un contrat local ou opter pour l’expatriation. Marion a choisi la première option, idéale pour les salariés qui souhaitent s’établir dans un pays étranger. Et bien que l’ingénieure n’ait pas changé d’entreprise, cette mutation lui fait découvrir une culture de travail bien différente. “Oui, j’avais les codes de l’entreprise, j’avais la culture de l’entreprise… mais cette petite structure était beaucoup plus rapide, beaucoup plus agile, nous pouvions créer nos postes, nous étions beaucoup plus autonomes, et nous avions beaucoup plus d’informations de toute la structure puisque nous travaillons moins en silo, détaille Marion. C’était une expérience très différente de ce que j’avais vécu à Paris.”

Pour les employeurs québécois, la priorité est aux compétences [6:25 – 13:51]

Francogénie est une association dont le but est d’aider les ingénieurs et scientifiques venus de France, et nouvellement arrivés au Québec, à s’installer et à s’intégrer, grâce à un réseau d’adhérents très actifs. Lucile Zenou en est la présidente. Après un premier séjour au Canada, dans la cadre d’un stage, elle y est repartie en 2014, cette fois-ci à la recherche d’un travail. Et malgré le fait qu’elle n’ait pas fait d’école d’ingénieur, Lucile Zenou occupe aujourd’hui des fonctions d’ingénieur, dans le secteur du biomédical, sans pour autant avoir le statut ou le titre d’ingénieure. En effet, Lucile Zenou a repris ses études au Canada et a obtenu un master en génie biomédical. “J’ai quitté la France car j’avais beaucoup de mal à y trouver un emploi, nous explique Lucile Zenou. La raison est que mon domaine (chimie des matériaux, nanomatériaux et nanotechnologies, NDLR) était trop spécialisé et je n’avais pas les diplômes des écoles d’ingénieurs. En revanche, une fois au Québec, on ne me demandait pas forcément mes diplômes, on ne me demandait pas de quelle école je venais. C’était vraiment par rapport à mes compétences.”

Un meilleur équilibre entre vie professionnelle et vie privée [13:53 – 28:15]

Lucile Zenou et Marion s’accordent sur un point : que ce soit à Montréal ou à Barcelone, et contrairement à Paris, elles parviennent mieux à concilier vie professionnelle et vie privée. Que ce soit grâce aux différents accommodements mis en place par l’État, au Québec, ou grâce aux multiples évolutions positives qui se sont opérées très vite en Espagne au fil des années. D’autres points peuvent sembler un peu moins attractifs, comme l’expliquent nos deux interlocutrices ; mais si à première vue ils peuvent paraître comme des défauts, ils sont assez complexes pour être “contrebalancés” par des avantages indissociables.

Revenir en France n’est pas à l’ordre du jour [28:16 – 38:25]

Ni Marion ni Lucile Zenou ne se voient revenir de sitôt en France ! Pour Lucile Zenou : “La seule chose qui pourrait me pousser à rentrer en France serait ma famille, et la possibilité d’être auprès de ma famille. Surtout dans les circonstances actuelles (la pandémie de Covid-19, NDLR), c’est vraiment une préoccupation quand on est loin.” Quant à Marion : “Comme Lucile, ce n’est pas dans mes plans. Car d’abord j’aurai du mal à quitter cette qualité de vie. Ensuite, professionnellement, je me suis établie ici et j’aurai du mal à me réadapter en France. Cette zone grise, cette flexibilité qu’on a en Espagne, j’aurai du mal à la perdre.”

Pour écouter l’épisode, c’est par ici.

Références citées :

Enquête IESF

Au Québec, l’accommodement raisonnable

Ressources pour aller plus loin :

Informations sur l’immigration pour le Canada (site gouvernemental)

Site web de Francogénie

Le livre “Ainsi parlent les français” (de Jean-Benoît Nadeau et Julie Barlow)

Le film “L’Auberge espagnole”

Le film “Ocho apellidos vascos” (en français : “Huit noms de famille basques”)

Cogitons Sciences est un podcast produit par Techniques de l’Ingénieur.  Cet épisode a été réalisé par Intissar El Hajj Mohamed, en collaboration avec Alexandra Vépierre. Le générique a été réalisé par Pierre Ginon et le visuel du podcast a été créé par Camille Van Belle.

Le meilleur de la tech #14

Le robot qui se perchait dans les arbres…

Attraper des objets de formes diverses peut paraître aisé, mais pour un robot il n’en est rien ! Or, dans la nature se trouvent des exemples-types, capables de s’agripper à tout ce qui passe à leur portée : les oiseaux. Des ingénieurs de l’Université de Stanford ont donc développé un robot biomimétique attaché à un drone quadricoptère. L’ensemble porte le petit nom de SNAG (pour stereotyped nature-inspired aerial grasper) et est détaillé dans un article publié dans Science Robotics le 1er décembre 2021. Les pattes de l’oiseau mécanique s’inspirent de celles du faucon pèlerin, en transformant de manière passive la puissance de l’impact (avec une branche par exemple) en force pour s’agripper, en même temps que le mécanisme correspondant aux serres se referme en moins de 50 millisecondes… SNAG s’est montré doué pour capter des proies factices et autres balles de tennis. Testé en système naturel, dans une forêt de l’Oregon, le robot – alors muni d’un capteur d’humidité et de température – a permis d’effectuer des mesures de ce microclimat. Une première étape vers un emploi futur dans le domaine de la surveillance environnementale !

Celui qui nageait à la surface des océans…

Un robot autonome en pleine mer, est-ce possible ? C’est du moins dans ce sens que tendent les travaux des chercheurs de l’UC Riverside. Dans le Science Robotics du 1er décembre 2021, ils ont présenté leur Neusbot, un robot biomimétique inspiré des neustons – des organismes vivant sur une surface aquatique comme les punaises d’eau. Il s’agit en fait d’un oscillateur photothermique à vapeur, alimenté par le rayonnement solaire. Le film dont Neusbot se compose contient trois couches différentes. Celle du dessous, hydrophobe, prévient tout risque de « noyade » du système. La couche du milieu est un hydrogel accueillant de l’eau et des nanobarres hybrides d’oxydes de fer et de cuivre (Fe3O4/Cu). Ces dernières peuvent convertir la luminosité reçue en chaleur, à l’origine de la propulsion de l’engin. Ensuite, en fonction de l’intensité lumineuse, les oscillations seront plutôt continues ou pulsées. À l’avenir, les scientifiques aimeraient doter Neusbot d’une quatrième couche spécialisée dans l’aspiration des fuites de pétrole ou la captation des polluants trouvés dans l’eau.

Et celui qui terrifiait les espèces invasives !

Les espèces invasives sont une menace sérieuse pour la biodiversité. La grenouille Litoria moorei, endémique au sud-ouest de l’Australie, en paie ainsi les frais. Plus précisément, ce sont les têtards de cette espèce qui souffrent des attaques du poisson-moustique (Gambusia holbrooki). Ce dernier s’en prend à leurs queues en les mâchouillant avant de laisser sa victime périr pendant qu’il se délecte des œufs d’autres poissons et amphibiens. Face à ce danger, une équipe internationale composée de biologistes et d’ingénieurs issus d’Australie, des États-Unis et d’Italie, s’est intéressée au pouvoir du stress non létal sur l’écologie et l’évolution de l’envahisseur. Pour ce faire, ils ont mis au point un robot inspiré du prédateur naturel du poisson-moustique : la perche noire (Micropterus salmoides). Leur création, décrite le 16 décembre 2021 dans iScience, a été placée brièvement et à plusieurs reprises en présence de l’espèce invasive. Rapidement, les chercheurs ont noté des altérations du comportement du petit poisson, avec une peur et un stress élevés pendant des semaines ! Sur le long terme, l’expérience a résulté en une perte de masse des poissons-moustiques, une modification corporelle privilégiant la fuite, et une baisse de fertilité chez les deux sexes. Finalement, les effets du robot biomimétique ont directement impacté la survie de l’espèce, à travers sa reproduction et son succès écologique. Une petite victoire pour Litoria moorei, et pourquoi pas une voie à explorer pour aider à la conservation des animaux menacés par des espèces invasives.

Des microplastiques dans l’air du Pic du Midi

Dans une nouvelle étude parue dans Nature Communications le 21 décembre, une équipe internationale de chercheurs décrit une nouvelle étape du cycle de vie des microplastiques. Selon ces chercheurs du CNRS, de l’Université Grenoble Alpes et de l’Université de Strathclyde (Ecosse), la troposphère transporte les microplastiques entre les continents sur de très longues distances. Cette découverte permet d’expliquer leur présence dans des régions reculées du monde.

L’air du Pic du Midi, zone reculée

Durant l’étude, les chercheurs ont aspiré l’air du Pic du Midi, à 2 877 mètres d’altitude, pour y explorer la présence de microplastiques. « On trouve en moyenne un microplastique par 4 m³ dans l’air au-dessus du pic du Midi, détaille Jeroen Sonke, directeur de recherche au CNRS et co-auteur de l’étude. Si on multiplie ce chiffre par le volume de toute la troposphère, on parle de 2 000 tonnes de microplastiques qui flottent à travers notre planète. »

Mais le chercheur se veut rassurant. « Au Pic du Midi, on retrouve régulièrement des poussières du Sahara, des émissions de vallée avec toutes sortes de particules. Par rapport à ces autres particules, présentes en milliers, 1 microplastique par 4 m³, ce n’est pas grand-chose et il n’y a aucun risque sanitaire lié à ces microplastiques au pic du Midi. »

Pomper et identifier

Entre juin et octobre 2017, les chercheurs ont analysé quinze fois pendant une semaine l’air du Pic du Midi. « Notre pompe permettait d’aspirer 1 m³ d’air par minute, explique Jeroen Sonke. Pendant une semaine, on pompait 10 000 m³ à travers un filtre en quartz. » De retour au laboratoire, les technologies de microscopie ont permis d’identifier la taille, la forme et le type de polymère prélevés. Résultat :  les chercheurs ont mesuré, selon les analyses, entre 0,09 et 0,66 microplastiques par m³ d’air, avec une moyenne de 0,23 microplastiques par m³ .

« Le plus petit microplastique mesure 3 µm, le plus grand 53 µm et la majorité des microplastiques se situent entre 10 et 20 µm. Il s’agit à 70 % de fragments et 30 % de fibres », détaille Jeroen Sonke. Les microplastiques relèvent des polymères suivants par ordre d’abondance : le polyéthylène (44 %), le polystyrène (PS, 18 %), le polychlorure de vinyle (PVC, 15 %), le polyéthylène téréphtalate (PET, 14 %) et le polypropylène (PP, 10 %). « Ces plastiques sont ceux utilisés dans les emballages », précise Jeroen Sonke.

Des microplastiques en provenance d’où ?

En s’appuyant sur des modélisations mathématiques et les trajectoires des masses d’air, l’étude a permis d’identifier la provenance des masses d’air contenant des microplastiques. « Certaines masses d’air viennent d’Afrique, d’autres d’Amérique du nord ou de l’océan Atlantique, ajoute Jeroen Sonke. Cela signifie que l’océan va transmettre à l’atmosphère les microplastiques contenus dans l’océan. Par l’action des vents et des vagues, les microplastiques peuvent en effet se retrouver en suspension dans l’atmosphère, au-dessus de la mer. C’est le même processus de formation que la brume océanique. »

Pour avoir une provenance plus fine, il faudrait pouvoir analyser la composition de l’air en l’associant à des masses d’air dont l’origine est connue à une résolution plus fine. « Avec un filtre de quartz par jour au lieu d’une semaine, on pourrait peut-être remonter à des zones plus précises, des zones urbaines ou des régions spécifiques dans l’océan Atlantique », imagine Jeroen Sonke.

L’Ademe imagine un panel de transitions énergétiques

Bras armé de l’État pour mettre en œuvre la transition écologique, l’Ademe a réalisé un important travail de prospective publié fin novembre 2021. Dans le prolongement des Visions 2030-2050 qu’elle avait produites en 2013, ses nouveaux scénarios regroupés sous le nom Transition(s) 2050 enrichissent le débat déjà bien nourri par les travaux du gestionnaire du réseau de transport d’électricité RTE et ceux de l’Association négaWatt pour savoir comment atteindre la neutralité carbone.

L’approche retenue par l’Ademe est globale : elle concerne tous les secteurs d’activités et toutes les consommations et ressources énergétiques en France (hors soutes internationales). Elle fait tout d’abord le constat qu’une poursuite des mesures actuelles ne serait pas suffisante pour réduire les émissions de gaz à effet de serre (GES) au niveau requis par la loi de transition énergétique pour la croissance verte et encore moins à celui attendu par le futur objectif européen dans le paquet Fit for 55 %. Il est donc urgent d’accélérer les mutations sociotechniques nécessaires.

Quatre modes de vie contrastés

Afin de donner une image contrastée des évolutions possibles, l’Agence de la transition écologique a choisi de modéliser quatre scénarios très différents. Chacun a sa propre cohérence et atteint la neutralité carbone en 2050, mais pas avec les mêmes ressorts.

S1 est un scénario dit de « Génération frugale ». Il pousse les curseurs de la sobriété encore plus loin que ceux de négaWatt, avec une économie très locale, dans des villes plutôt moyennes et des zones rurales, une consommation de viande divisée par trois, une rénovation massive des bâtiments, une réduction de 32 % du nombre de kilomètres parcourus par personne et une priorité donnée aux low-techs.

S2 est un schéma de « Coopérations territoriales » où la sobriété joue aussi un rôle important mais plus progressif, dans le cadre d’une gouvernance partagée. La rénovation énergétique des bâtiments est aussi accélérée, la réindustrialisation est ciblée dans certains secteurs avec un fort recyclage des matières, la consommation de viande est divisée par deux, la mobilité est un peu plus réduite (-17 %).

S3 se veut le scénario des « Technologies vertes ». La recherche d’efficacité énergétique est portée par un regain de technologies (notamment numériques), tout comme la décarbonation de l’industrie et du transport par l’électrification et le recours au vecteur hydrogène. La rénovation des bâtiments est prévue en la couplant à un plan de destruction/reconstruction, l’agriculture reste majoritairement intensive et on augmente les surfaces de cultures énergétiques.

S4 fait le « Pari réparateur » de la société et de l’environnement en amplifiant au maximum le recours aux technologies. Développement des grandes zones urbaines, artificialisation des sols, hausse importante de la mobilité (+28 %), forte exploitation des ressources naturelles et notamment de la biomasse, etc. L’augmentation de l’empreinte environnementale dans ce scénario n’est compensée que grâce au développement de nombreuses technologies comme le captage et le stockage artificiel de CO2.

Source Ademe

En termes énergétiques, les quatre scénarios font appel à une réduction de la demande (entre 23 % et 55 % par rapport à 2015) et à une forte proportion d’énergies renouvelables dans la production, à hauteur d’au moins 70 %. L’Ademe prévoit de détailler fin janvier 2022 la façon dont le mix électrique évoluerait dans les quatre scénarios.

Demande finale énergétique par vecteur (avec usages non énergétiques et hors soutes internationales). *Pour l’électricité : hors consommations intermédiaires, notamment pour la fabrication de l’H2 (source : Ademe)

L’électricité devient en effet le vecteur énergétique principal. Mais la chaleur et le gaz sont aussi très présents, ce qui implique notamment une plus forte mobilisation de la biomasse (hors usages alimentaires) qui passerait de 49 Mt de matières sèches en 2017 à 104-107 Mt dans les scénarios S1 et S2, et à 128-124 Mt dans les scénarios S3 et S4. La gestion de la forêt et l’agriculture sont donc au cœur de la transition écologique.

Des conséquences très diverses

Évidemment, ces quatre scénarios n’invoquent pas le même imaginaire, entre S1 qui pose la question de l’acceptation d’une forte sobriété et S4 qui prend un risque élevé en pariant sur le développement exacerbé de nombreuses technologies. La vertu de cette modélisation est justement d’évoquer ce grand écart théorique et de mettre sur la table les conséquences de ces choix variés. Les bilans sont très différents et donnent l’occasion d’en débattre.

Source Ademe

L’atteinte de la neutralité carbone n’est pas en question puisque c’est l’objectif de la modélisation. Mais la façon d’y arriver par des puits artificiels fait l’objet de fortes interrogations dans les scénarios S3 et S4 (voir encadré en bas de l’article). À l’inverse, les puits biologiques suffisent dans les scénarios S1 et S2 grâce à l’augmentation de la capacité de stockage naturel dans la biomasse et les sols (forêt et changement de pratiques agricoles).

Un autre impact différenciant est le recours à l’hydrogène. Il est important dans S1 et S2 pour servir de variable d’ajustement à la part importante d’énergies renouvelable, avec un ajout non négligeable pour le transport et l’industrie de l’acier dans S2. La consommation d’hydrogène dans S3 équivaut à celle de S2 mais avec une répartition faisant la part belle à la chimie. S’appuyant sur d’autres technologies, S4 a un besoin d’hydrogène à peine plus élevé que le scénario tendanciel.

Bilan des consommations d’hydrogène en 2050 (en TWh), incluant l’autoconsommation des raffineries (Source Ademe). Note : P-t-G = power to gas ; P-t-L = power to liquid

Dans tous les scénarios, la baisse du gaspillage alimentaire et de la suralimentation, l’utilisation de produits de saison, le rééquilibrage entre protéines animales et végétales permettent de réduire les émissions de GES de nos repas. Mais S3 et S4 restent plus émetteurs (autour de 60 MtCO2eq) que S1 et S2 (autour de 40 MtCO2eq).

Les deux scénarios les plus sobres sont aussi structurellement moins impactants sur l’environnement. S1 et S2 consomment ainsi moins d’eau pour l’irrigation (entre 1,85 et 2,28 milliards de m³ en 2050), permettant de faire baisser la charge sur la ressource hydrique, alors que S3 et S4 l’augmentent (3,07 et 4,5 Md m³). Ils font deux fois moins appel aux biocarburants (entre 50 et 60 TWh en 2050) que les deux autres scénarios, S3 et S4 reposant d’ailleurs plus sur les biocarburants avancés. Dans la construction neuve, S1 et S2 mobilisent environ deux fois moins de matériaux (ciment, sable, granulats, etc.) que S3 et S4. Par contre, ils nécessitent un plus fort taux de matières premières recyclées grâce à des modèles industriels reposant plus sur l’économie circulaire. Enfin, S1 et S2 génèrent beaucoup moins de déchets ménagers et assimilés (172 et 184 kg par habitant et par an) que S3 et S4 (363 et 484 kg/hab.an).

Toutes ces données seront complétées d’ici mars 2022 pour les 30 ans de l’Ademe, particulièrement sur les volets métaux, qualité de l’air, usage des terres et qualité des sols, empreinte matière et bien sûr emplois et investissements.

À quel niveau porter les puits artificiels de CO2 ?

Les scénarios S1 et S2 de l’Ademe atteignent la neutralité carbone en n’ayant pas ou très peu recours au captage et stockage de CO2 (CCS) dans l’industrie et aux « puits technologiques ». Derrière ce terme se cachent deux acronymes : le BECCS consistant à capter les émissions de CO2 de centrales utilisant des bioénergies et le DACCS réalisant le captage directement dans l’air. Ces technologies sont utilisées dans S3 mais surtout dans S4 qui fait le pari de leur développement massif. Pourtant, actuellement en France, le BECCS n’existe que sur le papier et le DACCS est quasi-inconnu. Ce dernier repose sur l’absorption liquide ou l’adsorption solide du CO2, ce qui nécessite une forte consommation d’énergie (de 1,5 à 2,8 MWh/tCO2), d’eau (90 m³ pour une tonne de carbone soustraite à l’atmosphère) et une grande occupation des sols (100 m²/ ktCO2).
Conséquence : la consommation d’électricité dans le scénario S4 pour les technologies de CCS, de BECCS et de DACCS atteint 59 TWh quand elle est inférieure à 10 TWh pour S3, inférieure à 5 TWh pour S2 et nulle pour S1.

Bilan du CCS, des puits technologiques et naturels en 2030 et 2050 (source Ademe)

Intelligence artificielle : un hackathon pour des applications industrielles

La finale du hackathon IA4AI (ouvert aux spécialistes de l’IA), organisée au Campus de l’Espace à Vernon (27), a permis à 7 finalistes de présenter leurs résultats en « pitchant » devant un jury composé de François CAIRE, lead scientific Software developer and data scientist chez SKF, Kaoutar SGHIOUER, CTO 5G & AI solutions and Group AI Authorative Advisor chez ATOS et les experts d’ArianeGroup,  Bruno, Mickael, Romain, Jean-Loup et Serge.

Lancé en septembre dernier via la plateforme Agorize, la première étape avait permis à plus de 100 équipes de travailler sur un dataset et de livrer des premiers résultats aux vues desquels 7 finalistes ont donc été retenus. Ces derniers ont ensuite disposé de deux semaines pour plancher sur de nouvelles données.
À noter que plus de 70 écoles ou universités ont été représentées dans la première phase !

Des équipes avec des profils divers

Deux compétiteurs se connaissaient puisque Thomas DUBOUCHET (équipe Taranis), jeune étudiant à l’école ELISA Aerospace, a découvert ce concours via son professeur, Mickaël REDZIOCH (équipe Lone Fox), enseignant dans cette même école et diplômé de l’ENSICA. Ils se sont retrouvés face à face en finale !

Deux autres équipes venaient de CentraleSupelec. La première, l’équipe FantaSTIC4, était composée de doctorant.e.s : Subhasish BASAK, Lisa POIRIER-HERBECK, Fabien GIRKA et Manon MOTTIER.
La seconde regroupait deux étudiants: Nouamane TAZI et Mustapha AJEGHRIR (équipe CentraleSupelec).

Par ailleurs, Lintao XU et Yinghao WANG de l’ESIEE Paris avaient mis leurs compétences en commun en créant l’équipe Skynet.

Trois ingénieurs en postes, Thai-Chau TRUONG, Full-Stack Data Scientist diplômé de Telecom Paris et ENS Paris-Saclay, Dam-Dung NGO, ingénieur R&D en intelligence artificielle diplômé de l’ISAE-ENSMA et Le-Nhan NGUYEN, ingénieur en Simulation Mécanique diplômé de l’Institut Polytechnique d’Hô-Chi-Minh-Ville ont également fourni un travail d’équipe remarquable (équipe LearnEverything).

Enfin, la dernière équipe était composée de deux chercheurs du Laboratoire d’électrotechnique et d’électronique de puissance (L2EP) de Lille, Thomas HENNERON et Jérôme TOMEZYK (équipe SaDel, pour Simulation avancée de Dispositifs électromagnétique) .

Et les gagnants sont…

1er prix, et prix Mathworks, équipe SaDel, affirmant que : « Notre participation a été motivée par le fait de tester des approches développées dans le cadre de nos activités de recherche à d’autres types de problèmes industriels et de travailler sur des données pour construire un modèle de prédiction sans avoir à disposition un 1er modèle numérique précis d’un dispositif. »
Leur lot : une dotation financière de 5000 €, un accès aux ressources documentaires Techniques de l’Ingénieur à hauteur de 3000 € et 1500 USD de crédits AWS. Au titre du prix MathWorks, ils ont obtenu 1000 € de chèques cadeaux Amazon.

2ème prix : l’équipe Lone Fox
« J’avais envie de me prouver que j’étais encore capable d’apprendre sur un sujet nouveau et passionnant, avec des deadlines pour éviter le découragement, et sous MatLab pour découvrir ce nouvel aspect », confie Mickaël REDZIOCH. Il est reparti avec un chèque de de 3000 €, un accès aux ressources documentaires Techniques de l’Ingénieur à hauteur de 2500€ et 1000 USD de crédits AWS.

3ème prix : l’équipe LearnEverything
Les trois jeunes diplômés d’écoles d’ingénieur de mécanique et d’aérotechnique, avec une grande passion pour l’intelligence artificielle, estiment que « ce hackathon nous rapproche de notre ambition de devenir les spécialistes de l’IA appliquée à l’industriel. »
Pour eux, la dotation financière était de 2000€, tout comme le montant de leur accès aux ressources documentaires Techniques de l’Ingénieur. Ils ont également obtenu 500 USD de crédits AWS.

Vers une ingénierie hybride alliant physique et données : une conférence de Francisco Chinesta

Et enfin, cette finale a été clôturée par une conférence de Francisco Chinesta, professeur des universités, chercheur au PIMM, UMR CNRS des Arts et Métiers, et membre de l’Académie Royale d’Espagne. Il a également un doctorat Honoris Causa de l’Université de Saragosse et est médaillé d’argent du CNRS en 2019.
Il dirige actuellement le projet phare DESCARTES du CNRS, au sein du campus d’excellence CREATE à Singapour, sur l’Intelligence Artificielle Hybride ; un projet doté d’un budget de 35 M€ et impliquant 160 chercheurs.
Pour voir le replay, c’est ici.

Valoriser la chaleur fatale dans l’industrie grâce à un moteur à apport de chaleur externe

Son invention date de la première moitié du XIX siècle et est attribuée à John Ericsson, un ingénieur mécanicien américain d’origine suédoise. Le MACE (Moteur à apport de chaleur externe), également appelé moteur à air chaud, fonctionne à partir d’une source de chaleur externe au moteur par l’intermédiaire d’un échangeur. Au fil du temps, ce procédé a plus ou moins été abandonné au profit du moteur à combustion interne. C’était sans compter Ananké, une start-up installée à Belfort, qui a décidé de reprendre le développement de cette technologie. Son objectif : valoriser la chaleur fatale rejetée sur des sites industriels. Après plusieurs années de recherche et développement, l’entreprise est sur le point d’installer son premier démonstrateur industriel. Rencontre avec Thibaut Cartigny, le directeur et le cofondateur d’Ananké.

Techniques de l’Ingénieur : Comment fonctionne votre technologie pour récupérer la chaleur rejetée sur des sites industriels ?

Thibaut Cartigny, directeur et cofondateur d’Ananké. Crédits photos : Ananké

Thibaut Cartigny : Nous avons remis au goût du jour une vieille technologie, celle du moteur Ericsson qui fonctionne avec de l’air, raccordé à une source de chaleur externe au moteur. Concrètement, il s’agit d’un cycle ouvert où l’on va admettre de l’air ambiant dans une enceinte de compression. Il est ensuite comprimé puis envoyé dans un échangeur thermique raccordé aux cheminées d’un site industriel. L’air comprimé va alors se réchauffer puis est envoyé dans un espace de détente qui va permettre de transformer cette énergie thermique en énergie mécanique. Une partie de celle-ci va être réutilisée afin d’entraîner le compresseur, car celui-ci consomme de l’énergie, tandis que l’énergie résiduelle va servir à produire de l’air comprimé supplémentaire ou alors de l’électricité grâce à un alternateur.

Quels ont été les axes de recherche et de développement de ce procédé ?

Le MACE est un procédé relativement simple, auquel nous avons apporté plusieurs développements en nous inspirant des dernières avancées technologiques du secteur automobile. Ainsi, nous avons mis en place un contrôle en temps réel du fonctionnement de la machine, qui correspond au cerveau de ce moteur. Ensuite, sur la partie distribution, nous avons énormément travaillé sur l’ouverture et la fermeture des enceintes de compression et de détente. Mais notre procédé est différent de celui rencontré sur les voitures qui fonctionnent avec des soupapes. Nous avons développé notre propre procédé et l’avons breveté.

Quel est l’avantage de votre technologie ?

Comparé à d’autres technologies déjà présentes sur le marché, notre procédé est particulièrement adapté pour valoriser la chaleur fatale [aussi dite chaleur de récupération, c’est la chaleur générée par un procédé industriel, et qui n’en est pas la première finalité, NDLR] sur des sites industriels de petite taille ; nous ciblons ceux qui rejettent moins de 1 MW (mégawatt) de chaleur par an. Seule condition : la température des fumées doit être supérieure à 450 degrés. Afin que nos clients aient un temps de retour sur investissement rapide, nous avons développé une machine de puissance standard de 40 kW (kilowatt). Et pour l’alimenter, une énergie thermique disponible d’au minimum 200 kW est nécessaire. Bien sûr, il est possible d’installer plusieurs modules de 40 kW sur un site si les rejets sont supérieurs. Notre technologie est d’autant plus intéressante que les petits sites industriels paient leur électricité à un tarif plus élevé que ceux de plus grande taille.

Schéma simplifié du fonctionnement du moteur à apport de chaleur externe développé par Ananké. Crédits photos : Ananké

Nous avons également développé un outil capable de mesurer en temps réel les fumées rejetées, car un grand nombre d’industriels ont une méconnaissance des quantités disponibles. Nous sommes ainsi capables de savoir si nous pouvons les valoriser grâce à notre technologie.

Quel est le rendement de votre moteur ?

Il est compris entre 10 % lorsque les températures s’élèvent à 450 degrés et peut grimper jusqu’à 28 % lorsqu’elles dépassent 700 degrés. En plus de cette énergie mécanique disponible, notre procédé produit aussi de l’énergie thermique utile sous la forme d’air propre et chaud, car il s’agit d’une cogénération. Cet air chaud représente 2 à 3 fois la quantité d’énergie mécanique disponible et peut être valorisé de différentes façons par nos clients. Par exemple, pour assurer les besoins en chauffage des bâtiments, de séchage de process industriels, ou alors être renvoyé à l’entrée d’un four afin que l’air soit plus chaud à l’intérieur et ainsi réduire les quantités de gaz consommés pour faire des économies.

À quel stade de développement se trouve votre technologie ?

Nous avons développé cinq prototypes au sein du laboratoire FEMTO-ST à Belfort dans lequel notre entreprise est installée. En début d’année prochaine, nous allons mettre en service un premier démonstrateur industriel sur le site de Cristel, à Fesches-le-Châtel. Cette entreprise fabrique des ustensiles de cuisine de luxe, et fournit notamment l’émission culinaire Top Chef sur M6. Cristel possède un four de traitement thermique afin de poser des revêtements de surface sur du matériel de cuisine, comme des casseroles. En sortie de ce four, de la chaleur fatale est disponible à une température de l’ordre de 500 degrés. Grâce à notre procédé, nous allons pouvoir la récupérer afin de produire de l’air comprimé qui sera réutilisé par l’entreprise pour ses process.

Un module fabriqué par Ananké et d’une puissance de 40 kW. Crédits photos : Ananké

Nous avons rencontré de nombreux clients et une majorité d’entre eux ont d’importants besoins en air comprimé. Il est donc plus intéressant de produire directement de l’air comprimé avec notre technologie plutôt que de l’électricité qui viendra ensuite alimenter un compresseur. D’autant plus que ce besoin en air comprimé correspond au moment où la chaleur est disponible et valorisable. Il y a ainsi une parfaite adéquation entre sa production et son utilisation, sans besoin de stockage. Notre objectif pour l’année 2022 est donc de rentrer dans une phase de préindustrialisation, en vue d’une commercialisation de notre procédé en 2023.

Transformer le plastique en mer en carburant pour les bateaux

Les déchets plastiques qui s’accumulent dans les océans du monde, à raison de 4,8 millions à 12,7 millions de tonnes par an, forment d’énormes « îlots de plastique ». Le retrait du plastique offre une opportunité de restaurer nos océans : la collecte et l’élimination des plastiques océaniques peuvent atténuer leurs impacts environnementaux. Cependant, un nettoyage qui repose sur le retour des plastiques au port serait gourmand en carburant et en temps.

Le plastique, issu du pétrole, ne pourrait-il pas être converti en carburant, directement en pleine mer et utilisable par les bateaux ? Aux Etats-Unis, des scientifiques du Worcester Polytechnic Institute, de la Woods Hole Oceanographic Institution et de l’université de Harvard, se sont penchés sur cette question et ont publié leurs résultats dans la revue PNAS (Proceedings of the National Academy of Sciences) en novembre 2021.  La méthode proposée par les chercheurs permettrait de réduire, voire de compenser, la consommation de pétrole nécessaire à l’opération de nettoyage, tout en réduisant le nombre de fois où le navire doit retourner au port pour décharger et faire le plein.

Jusqu’à 11 500 tonnes de plastique éliminées chaque année

Les chercheurs pensent que ce plastique peut être converti en carburant en utilisant la liquéfaction hydrothermale. Cela implique que le matériau soit décomposé en polymères constitutifs à des températures modérées et sous hautes pressions. Leur travail montre que cette technique devrait être en mesure de fournir l’énergie requise pour le nettoyage auto-alimenté, à condition que des concentrations en plastique de surface supérieures à 12 % en volume soient disponibles. Les temps de nettoyage estimés dépendent de la vitesse à laquelle le plastique s’accumule dans les barrages de collecte, ces temps de nettoyage diminuant avec le nombre de barrages déployés. Ils estiment qu’économiquement l’utilisation de la liquéfaction hydrothermale représente un coût supplémentaire modeste.

Entre 230 et 11 500 tonnes de plastique pourraient être éliminées chaque année du vortex de déchets du Pacifique nord (communément appelé « le continent de plastique »). L’équipe de recherche pense que suffisamment de carburant pourrait être créé à partir du plastique pour soutenir le processus de conversion, alimenter le navire et même stocker un excès.

La combustion du carburant créé générerait des émissions de carbone, mais elles seraient nettement inférieures aux émissions associées à un navire traditionnel collectant le plastique et le renvoyant au port pour recyclage. Les auteurs rappellent évidemment que la réduction de l’utilisation du plastique, l’amélioration de la recyclabilité des plastiques ou l’augmentation de la biodégradabilité des plastiques restent les éléments clés de lutte contre la pollution du plastique en mer.

Cette analyse s’est concentrée sur une méthode de conversion, la liquéfaction hydrothermale, en tant que méthode technologiquement déployable et adaptée à la conversion plastique. Mais les résultats pourraient être étendus à d’autres méthodes de conversion.

Des mouchards sonores dans les rues d’Orléans

De plus en plus de municipalités décident de déployer des systèmes de vidéosurveillance. « Entre la fin de l’année 2013 et le début de l’année 2020, le nombre de caméras de vidéosurveillance dans les 50 villes les plus peuplées de France a été multiplié par 2,4, passant de près de 4 800 caméras à plus de 11 400 », selon un classement réalisé par la Gazette des communes.

Une nouvelle étape pourrait être franchie : le couplage entre vidéosurveillance et détection sonore. Première expérience en 2019 ? La métropole stéphanoise avait tenté de déployer un dispositif, appelé SOFT (Système d’Observation des Fréquences du Territoire), de l’entreprise Serenicity. Deux ans plus tard, c’est au tour de la ville d’Orléans de faire de même avec le système Urban Soundscape.

Développé par Sensivic*, société créée en 2015 à Sophia Antipolis et installée à Orléans, au sein de Lab’O, un accélérateur de start-up numériques, il s’agit d’un « système de détection automatique de bruits anormaux ». « Grâce à ce système de détection original, ces détecteurs d’événements sonores intelligents analysent en permanence l’activité sonore habituelle du site où ils ont été placés. Les produits SENSIVIC sont les seuls détecteurs qui s’adaptent automatiquement au contexte grâce à leur système d’intelligence artificielle », peut-on lire sur le site de l’entreprise.

Des pouvoirs régaliens par une entreprise privée

« Si cela fonctionne, cela pourrait être un formidable outil d’aide à la décision pour les téléopérateurs, explique Florent Montillot à France Bleu, l’adjoint au maire d’Orléans chargé de la sécurité. L’idée, c’est que si un son anormal est détecté, comme un coup de feu, un bris de glace, un cri de détresse, immédiatement une alerte avertirait l’agent qui surveille les écrans au CSO ; celui-ci pourrait aussitôt regarder et identifier le lieu où cela s’est passé, et donc envoyer une équipe. » Le CSO est le centre de sécurité orléanais.

Mais que désigne-t-on exactement par sons « anormaux » ? « Nous ne savons pas précisément ce qu’il y a derrière ce terme, précise Bastien Le Querrec, du Groupe contentieux de La Quadrature du Net. Ce que nous savons, c’est que dans ces sons “anormaux”, Sensivic cherche à détecter certaines catégories de sons : des coups de feu, des cris de peur, des bris de glace, des incivilités comme une hausse rapide du ton de la voix comme si une personne crie sur une autre. Mais c’est cette entreprise privée qui décide ou non de ce qu’est un son “anormal”, alors que cela devrait être aux pouvoirs publics d’en décider puisqu’il s’agit d’une mission régalienne de s’assurer de la tranquillité et de l’ordre public ».

Mais pour cette association de défense et de promotion des droits et liberté sur Internet, fondée en 2008, ce dispositif est illégal et n’est pas conforme au RGPD et à la Directive police-justice de 2016.

« Concernant la protection de la vie, les arguments de Sensivic ne tiennent pas juridiquement,note Bastien Le Querrec. Elle indique qu’elle n’enregistre pas de sons, mais dans l’audit technique qu’elle nous a envoyé et que nous avons étudié de près, c’est bien indiqué qu’il y a des tranches de sons (une dizaine de millisecondes) enregistrées pour être analysées. Et l’enregistrement n’est de toute façon pas une condition nécessaire à la présence d’un traitement de données ».

Or, ce type d’enregistrement est soumis aux lois européennes et à la Loi informatique et Libertés de 1978. À partir du moment où il y a un traitement sur des données personnelles, une entreprise est soumise aux lois et réglementations sur ce type de données.

Des détecteurs sonores aux JO 2024

« Sensivic dit qu’il s’agit juste d’un très court enregistrement d’un paysage sonore, mais le problème est que ses capteurs sont couplés à des caméras de vidéosurveillance. D’ailleurs, dans une récente vidéo promotionnelle de Sensivic, on voit une caméra bouger en direction de l’endroit où le son s’est produit. Ce dispositif peut donc identifier indirectement une personne ; il s’agit donc de données personnelles dont les traitements doivent respecter notamment la Loi Informatique et Libertés », assure Bastien Le Querrec.

La CNIL ne s’étant pas auto-saisie du cas d’Orléans, La Quadrature du Net l’a donc saisie d’une plainte par lettre recommandée envoyée ce mardi 14 décembre. « Notre recours repose sur l’interprétation de la CNIL en 2019 à propos du cas de Saint-Étienne », explique Bastien Le Querrec.

En novembre 2019, la CNIL avait averti Saint-Étienne de l’illégalité de son dispositif SOFT, considérant qu’il s’agissait d’un « traitement illicite de données à caractère personnel ». L’instance réagira-t-elle de la même façon pour Orléans ?

Récemment, Sensivic a indiqué que ses détecteurs ont été retenus par le Comité Stratégique de Filière Industries de Sécurité́, parmi les solutions de confiance sélectionnées pour la sécurisation des grands événements, dont les Jeux olympiques de 2024.

*Contacté, Sensivic ne nous a pas répondu pour l’instant.

Cycl-Add produit des matières plastiques à partir de déchets considérés comme non recyclables

Recycler des déchets plastiques pourtant considérés comme non recyclables en utilisant… d’autres déchets. Le pari que s’est lancé Cycl-Add pouvait paraître audacieux. Mais cinq ans après la création de la jeune pousse, son président Hervé Guerry l’assure : « Même si, au départ, on ne nous croyait pas trop, aujourd’hui les gens constatent que notre technologie fonctionne et qu’elle fonctionne même très bien ! ». La start-up basée à Maillat, dans l’Ain, est en effet parvenue à développer une technologie particulièrement vertueuse – basée sur la récupération – qui permet de produire des matières plastiques hautes performances.

Récupérer des déchets voués à l’enfouissement ou à l’incinération

« Pour ce faire, nous récupérons d’une part des déchets plastiques qui n’ont pas de solution de recyclage, par exemple des seaux de peinture souillés ou des plastiques en mélange impossibles à séparer, tels que des textiles, décrit le président de l’entreprise. Nous récupérons également, d’autre part, des déchets industriels comme des poudres de peinture ou de toner d’impression, qui n’ont, eux non plus, pas de solutions de recyclage, mais qui peuvent apporter des propriétés intéressantes ».

Tout l’art consiste ensuite à élaborer des mélanges aux proportions précisément définies, afin de produire des matières aux propriétés constantes. Une gageure que Cycl-Add est parvenue à soutenir et qui lui permet aujourd’hui de proposer à ses clients des matières plastiques adaptées à leurs besoins et aux contraintes propres à leurs marchés respectifs.

Seaux de peinture souillés et toner d’impression font partie des ingrédients de base utilisés par Cycl-add pour produire des matières plastiques recyclées de haute qualité.

Des matières adaptées à de multiples usages

« À partir de seaux de peinture, nous sommes par exemple capables de produire des caisses de transport répondant aux normes de transport de produits dangereux », indique ainsi le président de la start-up aindinoise. Autres exemples cités par le dirigeant, celui de plaques de protection pour pipeline, de plateformes de maintenance destinées à la ligne TGV Bordeaux-Paris ou encore d’un polyamide hautes performances produit à partir de déchets textiles en polyamide et élasthanne. « Nous sommes capables de “compatibiliser” ces deux matières pour en faire un polyamide choc utilisable, par exemple, pour fabriquer des fixations de ski », explique Hervé Guerry. Sans pouvoir en révéler la nature précise, le dirigeant indique également produire des pièces utilisées dans le secteur du gaz et qui répondent donc aux normes propres à ce marché.

Une « nouvelle chimie » à explorer

Avec sa technologie de recyclage, c’est une « nouvelle chimie » qu’explore Cycl-Add, comme le souligne Hervé Guerry : « La chimie sur laquelle nous travaillons diffère de celle qui est habituellement à l’œuvre avec des matières et des additifs vierges. Quand nous utilisons un déchet, celui-ci amène souvent plein de propriétés. Nous sommes capables d’apporter des charges pour les modifier, les adapter aux besoins d’un client. Nous parvenons même parfois à de meilleurs résultats qu’à partir de matières vierges ». Une nouvelle approche qui offre en outre à un client la possibilité de réintégrer, dans ses produits, des matières issues de ses propres déchets. Sur le plan environnemental, l’intérêt de la solution développée par Cycl-Add ne s’arrête d’ailleurs pas là : consommation d’énergie et émissions de CO2 sont aussi sensiblement réduites.

Une empreinte environnementale réduite

« Nous avons réalisé des ICV (inventaires de cycle de vie) sur les matières. Ils ont montré qu’un kilo de matière sortant de chez nous permet d’éviter l’émission de deux kilos de CO2 pour un polypropylène et jusqu’à huit kilos pour du polyamide. Les consommations d’énergie sont quant à elles divisées par dix environ », détaille Hervé Guerry. Des arguments auxquels des clients de plus en plus nombreux se révèlent sensibles, selon le président de Cycl-Add, qui vise donc désormais l’industrialisation à grande échelle de son procédé. « Notre process est principalement basé sur un chauffage à basse température et des techniques de granulation standards. Tout se passe en une seule opération et le procédé est donc tout à fait industrialisable avec de grosses quantités », assure Hervé Guerry. Composée pour l’heure de six personnes, la start-up aux 200 k€ de chiffre d’affaires a ainsi lancé une levée de fonds de six millions d’euros. De quoi lui permettre de créer une première usine d’environ 5 000 m² et d’atteindre des objectifs sans doute aussi ambitieux que le pari de départ : 300 embauches et 40 millions d’euros de chiffre d’affaires d’ici six à sept ans. Après avoir relevé le défi de la transformation des déchets en ressources, Hervé Guerry confie désormais voir en eux « une flaque de pétrole en plein désert ».

Les thèses du mois : Transport de marchandises, la révolution se fait attendre

Pour notre dossier de décembre, « Transport de marchandises : la révolution se fait attendre », voici les thèses sélectionnées par le REDOC SPI. Retrouvez le résumé de ces thèses ainsi que les thèses des mois précédents sur le site de notre partenaire.

 

Les transports face au défi de la transition énergétique. Explorations entre passé et avenir, technologie et sobriété, accélération et ralentissement.
Aurélien Bingo
Thèse de doctorat en économie, gestion, sciences sociales, 23-11-2020
Centre de recherche en économie et statistique

 

Beyond mobility: On the economics of electric vehicle’s multiple roles in an energy transition framework.
lvestre Freitas Gomes
Thèse de doctorat en Sciences économiques, 10-09-2021
Réseaux, innovation, territoires et mondialisation

 

Rupture technologique et dynamique d’une industrie : la transition vers l’électromobilité
Marc Alochet
Thèse de doctorat en économie, gestion, sciences sociales, 18-12-2020
Centre de recherche en gestion

 

Gestion d’énergie optimisée étendue véhicules infrastructures
Yassir Dahmane
Thèse de doctorat en Génie électrique,16-12-2020
Laboratoire des Sciences du Numérique de Nantes

 

Electric vehicle integration into distribution systems: Considerations of user behavior and frameworks for flexibility implementation
Felipe Gonzalez Venegas
Thèse de doctorat en Génie électrique, 09-07-2021
Laboratoire de Génie électrique et électronique de Paris

 

Conception intégrée optimale du système propulsif d’un avion régional hybride électrique
Matthieu Pettes-Duler
Thèse de doctorat en Génie électrique, 23-04-2021
Laboratoire Plasma et Conversion d’énergie

 

Energy management strategies for battery electric bus fleet
Hussein Basma
Thèse de doctorat en énergétique et génie des procédés, 03-12-2020
CES – Centre Efficacité énergétique des Systèmes

 

Méthodologie et outils pour l’optimisation multicritères d’une architecture de train hybride électrique à hydrogène.
Charles Lorenzo
Doctorat en Génie électrique, 17-11-2021
FEMTO-ST

 

De la conception et de l’intégration des systèmes avion à la simulation de scénarios environnementaux soutenables pour le secteur aérien
Thomas Planès
Projet de thèse en énergétique et transferts, depuis le 01-01-2020
ISAE-ONERA CSDV – Commande des Systèmes et Dynamique du Vol

 

Optimisation énergétique des navires marchands dans le cadre OMI d’une marine de commerce durable en 2050.
Alexandre Bellot
Projet de thèse en énergétique et génie des procédés, depuis le 09-12-2019
CES – Centre Efficacité énergétique des Systèmes

L’écomobilité appliquée au système routier

Un extrait de « Ecomobilité dans la transition énergétique » par Jean-Louis LEGRAND

Du côté du système énergétique, l’électricité décarbonée est le point de passage obligé. Pour la produire, l’alternative se situe entre l’énergie nucléaire et les énergies dites renouvelables. S’agissant du stockage de l’énergie électrique dans des batteries électrochimiques, à 30 Wh par kg, pour atteindre 20 % d’éolien dans l’électricité, le calcul aboutit à deux tonnes de batteries par Français. Donc ce n’est envisagé que pour des sites isolés et des productions de faible importance. L’utilisation de l’hydrogène comme vecteur énergétique est une des pistes envisagées, car l’électrolyse est un procédé connu et maîtrisé qui permet d’utiliser le surplus d’énergie pour produire de l’hydrogène. Malheureusement, on introduit alors une chaîne d’opérations successives dont le rendement énergétique global est très faible. Reste le stockage hydraulique, qui consiste à remonter de l’eau dans un réservoir d’altitude. Mais, toujours pour atteindre les 20 %, le calcul aboutit à doubler la superficie des lacs de barrage et à multiplier par 5 le nombre des stations de pompage.

Autopartage et services de transport personnalisé

L’autopartage grand public fait coexister deux modes : le mode traditionnel (prise et remise du véhicule dans une station et à une heure convenue) et le mode free floating (sans point d’attache fixe et en libre-service). Ce deuxième mode va sans doute prédominer car il permet une économie des ressources engagées, tant sur le plan de la rotation des véhicules que des infrastructures nécessaires (parking et recharge), tout en augmentant la satisfaction des consommateurs. Dans le cas d’un véhicule mono-usage à tendance « servicielle », l’objectif est de faire mieux avec moins, en spécialisant les objets aux usages. Cette reconception aura des conséquences sur les véhicules standard, sur les modèles d’affaires de tous les véhicules, et sur le partage de la voirie en obligeant à reconsidérer les contraintes/rétributions (temps et/ou argent) associées aux différents modes.

Ces objets ne devront pas être regardés comme des automobiles mais comme des services de transport personnalisé (STP). Ils désignent à la fois des services de partage de la voiture (autopartage ou covoiturage) ou du vélo qui ne relèvent ni des modes individuels (marche à pied ou voiture particulière) ni des transports en commun réguliers (bus, tramway, métro, train). Ils se distinguent des premiers car ils sont organisés de manière collective par une autorité ou une entreprise privée, et ne relèvent pas simplement d’une initiative individuelle. Ils diffèrent des seconds car ils apportent une réponse personnalisée aux besoins de mobilité, avec une variabilité du tracé et du parcours selon l’usager.

Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 31 décembre 2021 !

« Ecomobilité dans la transition énergétique » par Jean-Louis LEGRAND

Exploiter les déchets de biomasse végétale pour créer des matériaux optiques

La lignocellulose, matière première abondante, et surtout renouvelable, est largement sous-exploitée : on estime que l’être humain en utilise à peine 8 milliards de tonnes par an¹.

À titre de comparaison, notre consommation de pétrole annuelle représente plusieurs milliards de tonnes par an, sachant que le pétrole n’est pas une ressource renouvelable à échelle humaine !

Films composites de nanocellulose pour l’optique (Crédit : Derya Atas/Aalto University)

La lignocellulose, une ressource abondante, renouvelable et peu exploitée

La lignocellulose est un terme qui englobe la cellulose, la lignine et l’hémicellulose, des composants que l’on retrouve dans la quasi-totalité des végétaux.

La lignocellulose apparaît comme co-produit de nombreuses activités humaines. À titre d’exemple, l’industrie papetière rejette à elle seule environ 130 millions de tonnes de lignine par an². Cette ressource est largement sous-utilisée, car elle est essentiellement utilisée comme source de combustible solide à faible énergie.

Il est donc logique que la valorisation et l’exploitation durable des lignocelluloses intéressent fortement le monde scientifique, pour le bio-raffinage, la fabrication de matériaux ou d’autres applications.

Une vaste étude sur les possibles applications optiques des structures à base végétale

Une équipe composée de chercheurs des universités d’UBC Vancouver (Canada), de RISE (Suède), d’Aalto et de Turku (Finlande), a publié une évaluation critique de l’utilisation de la lignocellulose dans le développement de matériaux optiques fonctionnels pour dispositifs intelligents.

Les effets de la fibrillation, de l’alignement des fibrilles, de la densification, de l’autoassemblage, de la structuration des surfaces ou de la composition sur certaines propriétés optiques sont autant de sujets traités dans cette vaste étude disponible en open access dans la revue académique Advanced Materials. Les propriétés optiques en question concernent notamment la transparence, le trouble, la luminescence, l’absorption des UV ou encore les couleurs structurelles.

Le champ d’application de l’étude couvre ainsi les principaux matériaux structurels d’origine végétale, mais aussi les additifs non lignocellulosiques ayant une fonction optique.

L’objectif : le remplacement du verre

À l’heure actuelle, les chercheurs travaillent sur des prototypes à l’échelle du laboratoire. À l’université d’Aalto (Finlande), par exemple, les scientifiques ont mis au point des fibres légères et des tissus réactifs à la lumière.

Dans un communiqué de presse, Kati Miettunen, professeure d’ingénierie des matériaux à l’université de Turku et co-auteure de cette étude, l’affirme : « Nous sommes actuellement capables d’ajouter des fonctionnalités à la lignocellulose et de la personnaliser plus facilement que le verre. Par exemple, si nous pouvions remplacer le verre des cellules solaires par de la lignocellulose, nous pourrions améliorer l’absorption de la lumière et obtenir un meilleur rendement opérationnel ».

Mais pour que de tels matériaux se démocratisent, plusieurs freins doivent encore être levés. Le principal obstacle technique concerne le caractère hydrophile des matériaux lignocellulosiques. Pour être utilisables pour des applications optiques, ils devront être stables en condition humide. L’application de couches barrières et de traitements de surface fait ainsi partie des pistes envisagées.

L’autre obstacle majeur concerne les coûts de fabrication. Celui-ci est néanmoins en train d’être surmonté : si le développement des nanocelluloses a réellement commencé au début des années 2000, cela fait peu de temps que les coûts de production ont suffisamment baissé pour envisager une production industrielle.

¹D’après l’étude publiée le 26 octobre 2021 dans Advanced Materials, en open access / doi: 10.1002/adma.202104473

²D’après le projet européen LIGNINFIRST

Aura Aero, un exemple de décarbonation du secteur aérien

Jérémy Caussade, Fabien Raison et Wilfried Dufaud ont créé Aura Aero en 2018 avec une ambition : produire un avion électrique pour le transport régional à motorisation hybride.

L’entreprise développe également des modèles d’avions plus petits, toujours avec l’ambition de produire des avions les plus neutres possible pour l’environnement, autant en termes de propulsion que de conception (matériaux, recyclage…).

Jérémy Caussade, l’un des fondateurs d’Aura Aero, a expliqué à Techniques de l’Ingénieur la genèse de son entreprise, ainsi que l’importance de développer des avions décarbonés.

Techniques de l’Ingénieur : Quelle est la genèse de l’entreprise ?

Jérémy Caussade : Nous avons fondé Aura Aero en 2018, après avoir constaté qu’un certain nombre de disruptions justifiait la création d’un constructeur d’avions « digital native », ceci dans le contexte de la décarbonation de l’aviation.

Jérémy Caussade, l’un des fondateurs d’Aura Aero. Crédit : Aura Aero

Notre objectif est de créer différents avions, chacun adapté aux différentes problématiques de l’aviation légère : aviation de loisir, de voltige, de formation ou transport régional… tout en œuvrant pour la mise en œuvre d’une aviation plus verte.
Aura Aero est une société hybride, basée sur une grande expertise de la technologie avion associée aux toutes dernières technologies digitales. Notre ambition est de créer une industrie aéronautique moderne, dotée d’une nouvelle approche, avec une prise de risque plus grande, mais surtout, avec la capacité d’aller plus vite.

Quels sont les différents prototypes développés ? Pour quels usages ?

Nous proposons actuellement 2 familles d’avions : l’lNTEGRAL, un avion biplace, dont le premier prototype vole actuellement, et qui est décliné en 3 versions, R (train classique), S (train tricycle), E (version électrique), et l’ERA, un avion de transport régional électrique de 19 places, qui fera son premier vol en 2024, et vise une mise service en 2027.

INTEGRAL, qui est actuellement en campagne d’essais en vol et devrait obtenir sa certification au premier trimestre de l’année prochaine, avec de premières livraisons dans la première moitié de l’année, offre des capacités complémentaires suivant les besoins des opérateurs, alliant hautes performances, sécurité optimisée, conception résolument tournée vers l’avenir et une efficacité opérationnelle jamais atteinte.

Quels sont les facteurs de différenciation de ce modèle sur le marché ?

La maîtrise des coûts d’opération est un critère majeur qui a guidé le développement de cette nouvelle famille d’avions. La maintenance, par exemple, a été optimisée dès la conception, avec la présence d’une soute « systèmes », et la possibilité d’un changement moteur en moins d’une heure via un ensemble propulsif « plug and play ». L’accès aux organes vitaux de l’avion est immédiat pour permettre un gain de temps lors des visites périodiques. Un système digital de suivi d’opérations aériennes et de maintenance dédié est également proposé aux clients.
Ensuite, La sécurité est au cœur du design des appareils de la famille INTEGRAL :  les aéronefs sont tous équipés d’un parachute balistique de cellule et de réservoirs anti-crash, ce qui est inédit pour cette gamme d’appareils.
La préoccupation environnementale est également une composante-clé de cet avion, par l’utilisation du bois-carbone, un matériau composite qui permet d’allier légèreté, résistance et facilité de mise en œuvre et de réparation.
Enfin, l’ergonomie est primordiale : le cockpit est le plus large de sa catégorie, le tableau de bord de nouvelle génération et les sièges ergonomiques permettent une utilisation maximisée de l’avion.

Et le second modèle ?

Le second modèle, nommé ERA, pour Electric Regional Aircraft, est un avion de transport régional électrique de 19 places, qui vise à offrir des solutions de mobilité point à point, par exemple des vols Toulouse-Lyon.  Il sera capable de parcourir jusqu’à 1 800 km, dont 400 km en tout électrique. Alimenté par des batteries au lithium, cet avion offrira de nombreux avantages tels que la diminution du bruit et une baisse du prix du billet.

L’idée est de décliner l’avion en version cargo dans le futur. Pour le moment, le premier vol de cet avion est prévu pour 2024, pour une entrée en service en 2027. A l’heure actuelle nous avons déjà enregistré 200 intentions de commandes pour ce modèle.

Comment Aura Aero s’inscrit-il dans l’évolution à venir du transport aérien et de la transition énergétique ?

Avec INTEGRAL et ERA, nous répondons aux enjeux du transport aérien décarboné. Que ce soit en termes de matériaux, de propulsion et de maintenance par exemple. Tout est mis en place pour réduire au maximum l’impact de nos avions.

Propos recueillis par Pierre Thouverez

Image de une : modèle Era ©AuraAero