Pollution atmosphérique : l’OMS veut éviter des « millions de morts »

L’Organisation mondiale de la santé (OMS) estime que la pollution de l’air extérieur entraîne sept millions de décès prématurés et la perte de millions d’années de vie en bonne santé chaque année. « Bien que la qualité de l’air se soit quelque peu améliorée au cours des trois dernières décennies, des millions de personnes continuent de mourir prématurément, souvent dans les populations les plus vulnérables et marginalisées », rappelle Hans Kluge, directeur de l’OMS en l’Europe. Par exemple, en 2019, plus de 90 % de la population mondiale vivait dans des zones dépassant les seuils de référence fixés par l’OMS concernant l’exposition prolongée aux PM2.5.

De nouveaux seuils pour mieux protéger

« Nous connaissons l’ampleur du problème et nous savons comment le résoudre », précise Hans Kluge. Afin de lutter encore davantage contre la pollution atmosphérique, l’OMS définit ainsi de nouvelles lignes directrices mondiales sur la qualité de l’air. Elles visent à prendre en considération les nouvelles études scientifiques sur le sujet qui montrent des effets « à des concentrations encore plus faibles qu’on ne le croyait auparavant », précise l’OMS.

L’organisation a abaissé la quasi-totalité de ses seuils qui portent sur six polluants, dont certains contribuent également aux changements climatiques : les particules fines PM2,5 et PM10, l’ozone, le dioxyde d’azote, le dioxyde de soufre et le monoxyde de carbone. Ainsi, l’OMS divise par deux le seuil annuel recommandé pour les PM2,5, qui passe de 10 à 5 µg/m³. En parallèle, elle divise par quatre le seuil annuel pour le dioxyde d’azote qui passe de 40 à 10 µg/m³.

Seuils de référence recommandés en 2021 par rapport à ceux figurant dans les lignes directrices sur la qualité de l’air de 2005 (Source : OMS)

Les nouvelles données poussent à l’action

Pour définir ces nouveaux seuils, l’OMS s’est fondée sur les données factuelles tirées de six revues systématiques de plus de 500 articles. Chez les enfants, les experts estiment que « la pollution atmosphérique pourrait entraver le développement des poumons, limiter la fonction pulmonaire, provoquer des infections respiratoires et aggraver l’asthme ». Chez l’adulte, la pollution atmosphérique entraîne des maladies coronariennes et des accidents vasculaires, mais elle pourrait aussi jouer un rôle dans le diabète et les maladies neurodégénératives. L’OMS estime donc que la pollution atmosphérique est comparable au tabagisme et à une mauvaise alimentation en termes de charge de morbidité.

Si ces lignes directrices ne sont pas juridiquement contraignantes, elles fournissent un cadre factuel aux décideurs pour mieux protéger leurs populations. « Ces lignes directrices actualisées fournissent aux décideurs des données solides et un outil nécessaire pour s’attaquer à cette charge persistante pour la santé », assure Hans Kluge.

Pour le Réseau Environnement Santé (RES), « le respect des nouvelles normes de l’OMS sur la qualité de l’air passera par un big bang des institutions sanitaires ». L’association profite de la parution de ces nouvelles lignes directrices pour souligner l’urgence d’une réforme globale du système de santé pour actualiser régulièrement les connaissances scientifiques. « Il n’est plus acceptable d’attendre 15 ans pour la mise à jour d’une norme sanitaire ou environnementale et 15 ans supplémentaires pour sa mise en œuvre, souvent partielle », dénonce l’association dans un communiqué. Dans le cadre de la campagne présidentielle, le RES appelle à « faire de la santé environnementale un pilier du système de santé ». Elle appelle de ses vœux « l’organisation, dans les 100 premiers jours de mandat, d’une Conférence Nationale de Santé Environnementale débouchant sur une loi-cadre pour une réforme majeure du système de santé ».

Un procédé pour capturer et récupérer des métaux dans les eaux usées

Les métaux lourds (mercure, plomb, cadmium…) s’accumulent dans l’environnement et se révèlent toxiques pour les organismes vivants. Chez l’homme, ils peuvent provoquer de graves problèmes de santé, même à de très faibles niveaux de concentration. La réglementation européenne est très stricte quant à leur présence dans les effluents et surtout les eaux de consommation. Parallèlement, l’approvisionnement de certains de ces éléments métalliques (palladium, platine, ruthénium…) est devenu un enjeu stratégique pour les pays développés, surtout depuis la demande croissante liée aux nouvelles technologies. Des enseignants-chercheurs de l’Université de Strasbourg ont développé un nouveau procédé, baptisé Metallocapt, capable de fixer des ions métalliques, puis de les récupérer pour les transformer en métaux.

« Les procédés actuels sont basés sur des précipitations chimiques associées à des technologies énergivores, mais ne sont pas totalement performants, car il reste toujours des traces métalliques dans les eaux traitées, analyse Caroline Bertagnolli, maître de conférences à l’IUT Louis Pasteur et à l’Institut pluridisciplinaire Hubert Curien (IPHC). Ces faibles quantités sont dangereuses, car elles peuvent s’accumuler dans l’environnement. Elles peuvent aussi contenir des métaux précieux et les jeter représente une perte d’argent. »

Metallocapt est composé d’une mousse polymère, très fréquemment employée notamment dans la fabrication de sièges, de matelas, d’habitacles de voiture… Elle présente l’avantage d’être peu onéreuse, robuste et flexible grâce ses propriétés viscoélastiques. Cette mousse se révèle aussi chimiquement très stable dans l’eau et grâce à ses larges pores, il est possible de faire passer un flux en continu au travers sans perte de charge importante. Un point important qui signifie qu’il n’est pas nécessaire d’imposer une forte pression à ce matériau pour faire passer un liquide au travers.

Schéma représentant le procédé Metallocapt. Crédit photo : Institut pluridisciplinaire Hubert Curien & Institut Charles Sadron

Metallocapt s’inspire d’un phénomène chimique observé chez les moules

Cette mousse polymère n’a pas de propriété de filtration des métaux, mais sert de support à un revêtement qui, lui, est capable d’adsorber les ions métalliques et dont l’origine est biosourcée. Ce revêtement a été conçu à partir de travaux de recherche menés par des scientifiques américains en 2007. Ces derniers ont étudié la capacité des moules à adhérer à presque tous les types de matériaux (rochers, coques de bateaux, morceaux de bois, algues…) et de manière extrêmement robuste. Ils ont alors mis en évidence que le phénomène chimique en jeu était proche de celui rencontré lors de l’oxydation des polyphénols. L’équipe américaine a ensuite démontré que la dissolution de dopamine dans une solution contenant de l’eau provoquait la formation d’un film de polyphénols plus ou moins noir à la surface de tous les matériaux plongés dans cette solution, et même sur le contenant. Ce même phénomène peut s’observer avec du thé qui laisse des traces noirâtres sur une tasse. Ou lorsqu’on croque une pomme et que l’on voit apparaître des taches orangées sur sa chair laissée à l’air libre.

« Nous avons testé la dopamine avec la mousse polymère et avons observé la formation d’un film noir à sa surface, et même à l’intérieur, explique Loïc Jierry, orofesseur à l’École Européenne de Chimie Polymères et Matériaux (ECPM) et à l’Institut Charles Sadron (ICS). Nos travaux de recherche ont démontré sa capacité à adsorber très fortement certains ions métalliques. Le caractère compressible des mousses permet en plus d’augmenter la surface spécifique d’adsorption pour un volume donné. Les groupements catéchols impliqués sont parmi les meilleurs ligands biologiques pour fixer des métaux. »

En plongeant la mousse revêtue de ce film dans une solution contenant plusieurs métaux lourds, les scientifiques ont réalisé la preuve de concept de sa capacité à piéger pratiquement tout le plomb et le cuivre présent. Autre atout : cette propriété se conserve lorsque l’on fait passer un flux en continu au travers du dispositif. Le système se révèle par ailleurs réversible, c’est-à-dire qu’il est possible de désorber les ions métalliques pour les récupérer. Pour cela, il suffit d’utiliser une solution acide et le changement de pH entraîne la libération des ions.

Une sélectivité démontrée sur le plomb et le cuivre

« Grâce à ce revêtement en polydopamine, nous observons une sélectivité sur le plomb et le cuivre, poursuit Loïc Jierry. Nous avons bon espoir qu’en utilisant d’autres types de polyphénols, nous réussissions à fixer d’autres métaux lourds. Si nous n’y parvenons pas, il sera possible de greffer d’autres composés sur les polyphénols, qui permettront de fixer d’autres types d’ions comme le cadmium et le platine. Par contre, cela augmentera le prix de notre procédé alors que jusqu’ici, nous travaillons avec des mousses et des polyphénols qui ne coûtent presque rien. »

Cette technologie vient de rentrer dans un programme de prématuration du CNRS dont l’objectif est de soutenir les premières étapes de développement d’une technologie en vue de son transfert vers l’industrie. Deux types d’entreprises devraient être intéressés par ce procédé. Celles qui rejettent des solutions potentiellement dangereuses et qui ont l’obligation de respecter des seuils maximum dans leurs effluents. En cas de dépassement, elles doivent alors s’acquitter de taxes. Les stations d’épuration devraient, elles aussi, être intéressées par cette innovation. Le procédé Metallocapt pourrait les aider à respecter des seuils maximum en éléments métalliques à ne pas dépasser dans les boues d’épuration afin de les épandre dans les champs. Car lorsque ces seuils sont dépassés, ces boues sont considérées comme des déchets ultimes et l’épandage est interdit. Il convient alors de les enfouir, ce qui entraîne des coûts supplémentaires, en plus de la difficulté à libérer de l’espace sous terre. « D’autres types d’entreprises devraient être attirés par notre procédé, ajoute Caroline Bertagnolli. Ce sont toutes celles à la recherche de métaux précieux, à l’image du platine, un métal devenu très cher. Le fait que Metallocapt soit capable de régénérer les métaux correspondant aux ions capturés devrait être un atout important de notre technologie. »

Techniques de l’ingénieur participe à la fête de la science avec Star’s up

Organisée par le ministère chargé de l’Enseignement supérieur, de la Recherche et de l’Innovation, la fête de la science est l’occasion chaque année de faire découvrir le monde des sciences et de rencontrer les femmes et les hommes impliqués dans tous ses aspects.

Cette année, du 1 au 11 septembre 2021, elle coïncide avec la semaine de l’espace, du 2 au 8 octobre, et la prise de commandement de l’ISS par Thomas Pesquet, lundi 4 octobre.

C’est donc très logiquement que, pour cette trentième édition, Techniques de l’ingénieur a choisi de soutenir le festival Star’s up.

Déployé à Vernon (27) entre l’espace d’exposition Philippe-Auguste et le Campus de espace, lieu historique du développement de l’aérospatial en France, cet événement retrace pour tous les publics la Grande Histoire de la conquête spatiale française née sur ces site il y a près de 70 ans.

Découvrez le programme !

Une nouvelle génération de catalyseurs pour le management thermique en vol hypersonique

Très peu d’avions expérimentaux ont réussi l’exploit de dépasser la vitesse hypersonique, c’est-à-dire de voler au-delà de Mach 5 (6 100 km/h). C’est par exemple le cas du prototype d’avion sans pilote hypersonique X-43 Scramjet qui a établi un record en 2004 en dépassant les 10 000 km/h.

Si le vol hypersonique est indubitablement une technologie disruptive, voler à de telles vitesses a l’inconvénient de produire une chaleur extrême.

La communauté scientifique propose une solution pragmatique à ce problème : utiliser un carburant capable à la fois de propulser l’avion et d’absorber la chaleur. Des carburants de ce type sont déjà envisagés, mais ils ont l’inconvénient de reposer sur des réactions endothermiques qui nécessitent l’utilisation de catalyseurs à haute performance, aussi coûteux qu’indispensables.

Une structure lattice imprimée en 3D et revêtue d’un catalyseur de type zéolithe

En plus du problème du catalyseur, il y a celui des échangeurs thermiques. Dans un avion hypersonique, il y a de fortes contraintes de volume et de poids. Impossible donc d’utiliser des échangeurs thermiques de grande dimension pour maximiser le transfert de chaleur : la miniaturisation est donc obligatoire.

Les chercheurs du RMIT se sont naturellement tournés vers la fabrication additive métallique (SLM) pour concevoir des échangeurs thermiques à structure lattice. Les chercheurs ont utilisé une poudre d’Inconel 625 pour fabriquer cet échangeur à l’échelle du laboratoire.

L’équipe du RMIT a ensuite revêtu cet échangeur d’un catalyseur de type zéolithe, par immersion dans des suspensions composées de particules catalytiques. Ils ont utilisé un liant inorganique pour améliorer la mise en suspension des particules et un liant organique pour une meilleure pénétration dans la structure, afin de combler les vides entre les particules les plus grosses.

L’ensemble du processus est décrit dans le papier publié dans le journal Chemical Communications.

Un mélange de particules métalliques et de zéolithe particulièrement efficace

Lorsque ces structures imprimées en 3D subissent un traitement thermique, il se produit un phénomène particulièrement intéressant : quelques particules métalliques viennent migrer au sein de la structure en zéolithe. C’est ce phénomène qui est à l’origine de l’efficacité de ce nouveau type de catalyseurs.

Roxanne Hubesch, première autrice de cette publication et chercheuse au RMIT, est enthousiaste : « C’est une nouvelle direction passionnante pour la catalyse, mais nous avons besoin de plus de recherches pour avoir une complète compréhension du processus et identifier la meilleure combinaison d’alliages métalliques », déclare-t-elle dans un communiqué de presse.

Par ailleurs, les applications potentielles de ce type de catalyseur sont nombreuses. Contrôle antipollution pour les véhicules, traitement et purification de l’air… sont autant de pistes intéressantes.

Pour les chercheurs du RMIT, la prochaine étape concerne l’optimisation des catalyseurs, notamment en utilisant des méthodes d’analyse comme le synchrotron à rayons X.

Image de Une : Le prototype d’avion hypersonique X-43A, développé dans le cadre du programme Hyper-X de la NASA (crédit : NASA)

La 5G se connecte sur les satellites

Depuis une bonne vingtaine d’années, le satellite est vu comme la solution aux zones blanches. La télévision par satellite a permis aux habitants de villages reculés de regarder leurs chaînes préférées qu’ils ne recevaient pas avec la TNT.

Aujourd’hui, le satellite apparaît comme la solution pour transmettre des données ou des petits messages dans des zones mal desservies par les réseaux terrestres ou dans le désert. Cette transmission pourrait se faire via un smartphone ou des capteurs IoT.

Établie par le groupe de normalisation des télécommunications du 3GPP (3rd Generation Partnership Project), cette spécification définit la manière dont les périphériques compatibles (smartphones, capteurs IoT, routeurs) et l’infrastructure de réseau 5G NR (stations de base, petites cellules et autres équipements de réseau d’accès radio) transmettent les données sans fil. La 5G NR exploitera les bandes comprises entre 24 GHz et 52 GHz, des ondes millimétriques (mmWave).

Validée fin décembre 2019 par le 3GPP, la version 17 de cette 5G NR devrait être « gelée » au second trimestre 2022, ce qui signifie qu’aucune nouvelle fonctionnalité ne sera ajoutée. Et en 2023, il devrait être possible de se connecter avec son smartphone à un satellite compatible 5G NR.

Une faible latence : un atout pour l’automatisation industrielle

D’ores et déjà, le nouvel iPhone 13 d’Apple intègre une version personnalisée du processeur Qualcomm X60 qui lui permettrait de se connecter aux satellites LEO (Low earth orbit) pour passer des appels et envoyer des SMS sans nécessiter de connexion cellulaire. Cette information n’a pas encore été confirmée par Apple, mais relayée par le site Macrumors, réputé pour la pertinence de ses informations.

Auparavant, cette faculté était presque exclusivement réservée aux téléphones satellites propriétaires coûteux qui utilisent la bande L (1,5-1,6 GHz) et la bande S (2-4 GHz) pour se connecter à des satellites situés à des centaines de kilomètres d’altitude.

Mais ne rêvez pas : la 5G via satellite ne sera pas destinée au grand public qui veut regarder des vidéos de YouTube en plein désert ! Les tarifs devraient décourager plus d’un geek. Les tarifs d’Iridium commencent à 50 euros pour un forfait mensuel de 10 minutes et montent jusqu’à 950 euros pour 1 000 minutes par mois.

Dans les premiers temps, la 5G via satellite pourrait surtout concerner les applications à faible débit de données comme l’IoT, les urgences et la messagerie texte. Sa faible latence (3-4 millisecondes) permettrait de nouveaux cas d’utilisation : automatisation industrielle, véhicules autonomes, jeux immersifs, ainsi que des cas d’utilisation en matière de réalité virtuelle ou augmentée.

Des « acteurs traditionnels » tels qu’Inmarsat et Iridium, ainsi que des startups comme Lynk Global, se préparent à fournir des liaisons directes entre des satellites LEO ou situés sur l’orbite géostationnaire et des mobiles 5G.

Que nous raconte la bioacoustique du langage des cétacés ?

Moby Dick, Flipper, Willie… De la littérature au cinéma, les cétacés sont au cœur de l’action. Certains se font traquer, d’autres communiquent et collaborent avec l’être humain. Qu’en est-il de leur capacité à communiquer ? Qu’est-ce que l’homme comprend du langage des mammifères marins ? Qu’est-ce que ce langage peut apporter à la compréhension de l’océan ? Pour y répondre, nous avons échangé avec Olivier Adam, professeur à Sorbonne Université ; il travaille avec l’équipe d’Isabelle Charlier sur la bioacoustique. Cette discipline consiste à étudier les sons émis par des animaux, avec l’objectif de les détecter, les localiser, décrire leurs comportements et leurs interactions.

Techniques de l’Ingénieur : Qu’est-ce que le langage des mammifères marins ?

Olivier Adam : Toutes les espèces de cétacés sont vocalement actives. Elles émettent des sons au cours de leurs activités vitales (se reproduire, manger, se déplacer, se protéger) et pendant leurs interactions sociales. Certaines espèces, comme la baleine à bosse par exemple, chantent, c’est-à-dire qu’elles organisent leurs vocalisations dans le temps et les répètent plusieurs fois. Les scientifiques ont montré que certains sons sont liés à des comportements (comme des cris aigus pour débuter une chasse chez les orques) et des échanges sociaux (comme les sifflements signés chez les grands dauphins).

Que connaît-on du langage des cétacés ?

Quels que soient les animaux, nous cherchons à décrypter dans le langage des sons qui correspondent à des actes. Sur les cétacés, nous sommes un peu en retard par rapport à d’autres espèces animales – aériennes et terrestres – car c’est plus compliqué de les observer. En effet, ils sont sous l’eau, pas forcément visibles, ils se déplacent, et pour pouvoir associer des sons à des comportements, ce n’est pas facile. Cependant, il y a certains cétacés que l’on connaît mieux, car nous avons pu les étudier dans un environnement artificiel tel que les bassins. Mais dans leur environnement naturel, c’est beaucoup plus compliqué. Les premiers résultats datent des années 70 et concernaient les dauphins.

Mais il faut savoir qu’il existe 89 espèces de cétacés : certaines n’ont jamais été vues, d’autres uniquement lorsque des individus s’échouent. Les orques et les dauphins sont bien connus. Par exemple, nous savons que les dauphins ont des signatures individuelles, des clics de géolocalisation, une structure sociale et que cette dernière est basée sur le principe de la fission-fusion, c’est-à-dire qu’ils sont capables de s’unir avec d’autres groupes, le temps de quelques heures, pour une activité précise avant de se séparer. Pour les orques, on sait que la mère va garder tous ses petits jusqu’à la fin de sa vie. Il y a donc une relation importante entre les frères et les sœurs. Et si jamais la mère venait à mourir, autant les femelles arrivent à se débrouiller, autant les mâles sont en situation de risque énorme et peuvent mourir dans l’année qui suit le décès de leur mère. Chez les cachalots, c’est encore différent. Les femelles, entre 10 et 12 adultes, restent ensemble toute leur vie. Elles mettent bas et élèvent leurs petits jusqu’à 8 à 10 ans. Comme montré par Hal Whitehead, ces femelles ont un système collaboratif : lorsqu’elles doivent se nourrir en profondeur, une ou deux femelles restent en surface pour surveiller les petits.

François Sarano et moi travaillons sur les séquences de clic spécifique et voir s’il existe certains codas – une séquence temporelle de clics successifs, dont les écarts de temps entre deux successifs peuvent être plus ou moins longs – qui seraient associés à des comportements spécifiques. Nous savons aujourd’hui quel type de son annonce l’appel à contact ou le contact. Nous essayons de voir si ces types de sons sont liés à des comportements.

Que cherche-t-on à comprendre dans leur comportement ?

Nous n’avons jamais autant connu les cétacés qu’en ce moment. Nous avons décrit les sociétés, leurs structures sociales, et à présent, nous voulons savoir quelles sont les interactions les unes avec les autres, inter et intra-espèces.

Lorsque j’ai commencé à travailler sur les cachalots dans les années 2000, nous voulions simplement reconstituer leurs plongées et les chasses qu’ils menaient à plus de 500 mètres, voire 1 kilomètre de profondeur. Avec la détection des clics qu’ils émettaient, on reconstituait l’ensemble de leurs trajectoires dans les abysses, en indiquant quand ils mangeaient leur proie, la durée de leur plongée, et le temps passé en surface pour s’hyperventiler avant de recommencer une nouvelle descente vers les grandes profondeurs.

Quelles sont les techniques utilisées ?

Pour le son, on utilise des hydrophones, c’est-à-dire des micros étanches que l’on descend d’un bateau ou que l’on fixe pendant 2 à 3 mois en mer. On récupère les données et on les analyse au laboratoire. On fait des spectrogrammes pour voir l’évolution des fréquences dans le temps. On est ainsi capable de classer telle ou telle vocalise. On regarde quelles sont les séquences de vocalises pour voir s’il y a une correspondance avec son activité vitale (déplacement, alimentation, repos).

Charlotte Curé fait par exemple du play-back sur des cachalots et des baleines à bosse. Elle met un haut-parleur dans l’eau pour diffuser un son et observe la réaction des cachalots. Et pour pouvoir les observer réagir, elle pose à l’avance des modules électroniques, appelés tags, sur les baleines qui intègrent des accéléromètres et gyroscopes. Cela permet de reconstituer leurs déplacements et leurs mouvements, et de pouvoir observer s’il y a eu ou pas des réactions aux sons qui ont été diffusés via le haut-parleur.

Utilisez-vous de l’intelligence artificielle pour analyser les données ?

Dans le monde de la recherche, il se passe deux choses. D’un côté, nous avons de plus en plus de données, car nous utilisons de plus en plus de capteurs, mais cela prend beaucoup de temps à analyser. De l’autre, le développement des méthodes de machine learning qui évolue rapidement. Lorsque c’est totalement maîtrisé, comme pour l’analyse automatique de la syntaxe des messages postés sur les réseaux sociaux ou le traitement automatique des images, cela peut avoir du sens. Ces domaines ont déjà plus de 15 années de recul. Pour l’analyse des sons contenus dans les paysages sonores ou ceux émis par les mammifères marins, nous n’en sommes pas encore là. Car ce genre d’algorithme nécessite une phase d’apprentissage qui nécessite elle-même des données annotées et labellisées par un humain. Et, en bioacoustique, nous n’en sommes qu’au début.

Et depuis 3 ans, nous y travaillons avec l’École Nationale Supérieure des Techniques Avancées (ENSTA) Bretagne. Nous sommes arrivés à une analyse semi-automatique. C’est-à-dire qu’un utilisateur doit réaliser la première étape manuellement, qui consiste à entourer les vocalisations. Et ensuite, un algorithme, basé sur plusieurs indicateurs mathématiques, va être appliqué pour classer ces événements acoustiques. Ce travail s’avère compliqué, car les enregistrements sont très différents les uns des autres : certains sont bons, car les cétacés étaient proches des hydrophones, d’autres sont plus compliqués à analyser, car ils présentent un niveau de bruit environnant trop important.

Existe-t-il une différence de voix entre les espèces ?

Toutes les espèces ont des répertoires différents. Les baleines bleues vont émettre des sons très basse fréquence, entre 20 et 30 Hertz (Hz), les baleines à bosse entre 50 Hz à 3 kHz, et les marsouins au-delà de 10 kHz jusqu’à 100 kHz. Nous sommes capables, à partir des sons détectés, d’identifier l’espèce qui les a émis. Cependant, nous ne sommes pas encore capables d’identifier l’individu, sauf pour très peu d’espèces, comme le dauphin ou l’orque. Ceci étant dit, on peut distinguer des groupes, car certaines unités sociales partagent des sons. Cela a été montré, notamment par le Canadien Lance Barrett-Lennard, chez les orques. Il est ainsi possible de reconnaître un pod, c’est-à-dire une famille d’une mère matriarche avec ses petits, à partir des sons émis dans ce groupe.

Y a-t-il eu des changements de comportement dans le temps ?

Les activités humaines perturbent l’environnement. L’idée est de décrire les caractéristiques de ces activités anthropiques et de donner leurs effets sur la biodiversité. Cela a été fait pour les cétacés depuis la fin des années 90. Et il est ainsi possible de classer les activités humaines des moins au plus impactantes. Cela va donc d’un dérangement, type changement de comportements, à être une cause d’échouage.

Les émissions sonores des activités humaines peuvent impacter les cétacés. Par exemple, il a été observé que des baleines à bosse changeaient de trajectoire à l’approche d’un bateau de prospection pétrolière, probablement gênées par les bruits très forts générés lorsque ces bateaux sont en activité. On peut aussi citer les effets de sonars militaires sur des cachalots qui arrêtent leur plongée et remontent à la surface. Certains sonars sont même à l’origine d’échouages de baleines à bec, ce qui a motivé la mise en place de protocole d’utilisation pour éviter ces morts. Pour le trafic maritime, c’est pareil. Les supertankers génèrent des bruits importants. Il a été noté que cela stressait les baleines franches par exemple. En plus, il faut ajouter à cela des collisions possibles, lorsqu’un bateau rentre dans une baleine et la blesse, voire la tue.

Au-delà des effets des sons, il y a d’autres risques issus des activités humaines et encourus par les cétacés. Par exemple, la pêche industrielle est vraiment un réel problème. Les écosystèmes sont dévastés, et donc les proies se raréfient. De plus, les cétacés peuvent se faire attraper dans les filets (on recense 10 000 captures par an au large de la côte atlantique française). On peut également citer la pollution plastique. Lors d’autopsies de cétacés dernièrement échoués, on a retrouvé dans leur système digestif des quantités incroyables de sacs plastiques et autres déchets humains.

Ont-ils une capacité d’adaptation ?

Du côté de la Corse, des chercheurs ont réalisé une étude sur la présence de grands dauphins sur les côtes. En période touristique, les dauphins ne s’approchent pas des côtes alors qu’ils s’en approchent en hiver. Ils font le lien entre changement d’habitat et activité humaine.

Par exemple, il y a 500 grands dauphins entre le Mont-Saint-Michel et les îles anglaises, alors qu’il y a de nombreuses activités impactantes. Il faut croire que ces dauphins ont adapté leurs activités vitales à ce contexte anthropique, même si cela augmente le niveau de danger et doit jouer sur leur stress.

Et par rapport au changement climatique ?

En 2009, le chercheur américain Mark P. Simmonds a dit que les baleines à bosse pourraient être un indicateur intéressant pour caractériser le réchauffement climatique de la planète. En effet, elles pourraient passer plus de temps dans les zones d’alimentation (eaux froides) à cause d’une diminution de krill du fait de l’acidification des océans. Et cela pourrait se mesurer concrètement en notant les dates d’arrivée de ces baleines sur les zones de reproduction nettement plus observées. Notre équipe l’a fait à Madagascar ; tous les ans, depuis 2007, on regarde les jours d’arrivée des premières baleines sur le littoral malgache. Mais à ce jour, nous ne pouvons pas dire qu’il y a eu un grand changement ou un retard particulier dans le début des saisons de reproduction. Il semble qu’elles arrivent toujours à peu près à la même période.

Par contre, il y a de grandes variations de fréquentation d’une année à l’autre. Par exemple, cette année en 2021, il y a eu très peu de baleines observées dans le nord de Madagascar et autour de l’île de la Réunion. Certains parlent du phénomène El Niño, mais il faut rester prudent avant de tirer des conclusions définitives. On le saura peut-être dans 10 ans, quand on aura assez de recul pour mieux comprendre ces variations.

S’inspirer de la dégradation des protéines pour repenser le recyclage des polymères

Le paradigme actuel en matière de recyclage pousse généralement à considérer qu’un matériau recyclé doit avoir la même nature et les mêmes propriétés que le matériau d’origine.

Pourtant, le vivant nous démontre chaque jour que nous avons tort. Prenons l’exemple des protéines. Ces molécules, tout comme l’ADN, font partie de la famille des polymères. Ces très longues chaînes sont en effet constituées de plusieurs monomères, les acides aminés. Chaque combinaison d’acides aminés constitue une séquence qui confère à la molécule des propriétés particulières.

Que se passe-t-il lorsque ces protéines se décomposent ? Les acides aminés qu’elles contiennent sont alors libres de se recombiner pour créer de nouvelles protéines qui ont des fonctions différentes.

Concevoir et recycler des matériaux, en s’inspirant des protéines : une piste envisageable ?

Chaque jour, les organismes vivants se nourrissent de mélanges de protéines et les « recyclent » pour les adapter aux besoins de leurs propres cellules.

Si nous étions capables d’en faire autant avec les polymères synthétiques, nous serions en mesure de résoudre bon nombre de problématiques liées au recyclage des plastiques, en créant une boucle de recyclage infinie.

Les chercheurs de l’EPFL se sont donc intéressés à ce mécanisme de dépolymérisation/synthèse ribosomique des protéines. Dans un papier publié dans la revue Advanced materials, ils expliquent avoir développé le concept de NaCRe (Nature Inspired Circular economy Recycling), une approche qui peut être illustrée par l’exemple suivant :

  • 3 peptides courts sont utilisés pour produire des protéines fluorescentes vertes (GFP) ;
  • Les protéines GFP sont assemblées avec d’autres protéines pour former des protéines fluorescentes rouges (mScarlet-i) ;
  • Les protéines mScarlet-i sont ensuite recyclées pour d’autres applications.

Ce concept assez général a ainsi été mis en application pour transformer de la fibroïne de soie en une protéine utilisée dans le domaine biomédical. Ceci leur a notamment permis de démontrer la faisabilité du recyclage de structures polymères de masse moléculaire élevée.

Illustration schématique du concept de NaCRe. (Crédit : EPFL)

Un concept qui n’en est qu’à ses débuts

Dans un communiqué de presse, Francesco Stellacci, directeur du Laboratoire des nanomatériaux supramoléculaires et interfaces (SUNMIL) de l’EPFL, dit être conscient que le développement de telles technologies ne sera possible que sur le long terme, et il ajoute que « cela nécessitera un véritable changement de mentalité ».

En outre, il n’existe pas encore de technologie capable d’assembler différents monomères, en contrôlant leur séquence, de manière à obtenir un polymère sur mesure.

Pour l’heure, les chercheurs de l’EPFL ont réussi à montrer qu’il était possible de recycler des matériaux à base de protéines, en environnement contrôlé, à l’extérieur d’organismes vivants. Avec ces travaux, ils espèrent mettre en évidence l’étonnante capacité des polymères à séquence définie à être recyclés en accord avec les principes d’économie circulaire.

Regards de dirigeants #14 : Guillaume Delacroix, Imerys

Leader mondial des spécialités minérales pour l’industrie, le groupe industriel Imerys offre des solutions fonctionnelles à haute valeur ajoutée pour un grand nombre de secteurs, de l’industrie des procédés, jusqu’aux biens de consommation. L’activité d’Imerys est divisée en deux pôles. Le premier concerne les minéraux de performances, au sein duquel évolue Guillaume Delacroix. Le segment des Minéraux de Performance rassemble trois domaines d’activités géographiques – l’Europe, le Moyen-Orient et l’Afrique, l’Amérique et l’Asie-Pacifique – et sert les industries de l’alimentation (humaine et animale), de la cosmétique, du plastique, de la peinture et des revêtements, de la filtration, des matériaux céramiques, des énergies renouvelables, du papier et du carton.

Le second pôle regroupe les activités Matériaux et Solutions de haute température. Ce segment rassemble deux domaines d’activité – solution haute température, et réfractaires, abrasif et construction – et sert les marchés des réfractaires de la fonderie, des métaux, des abrasifs et de la chimie du bâtiment.

Alors que la crise sanitaire mondiale fait encore l’actualité, le groupe Imerys, qui a une activité internationale, n’a pas été trop touché par ce contexte inédit. Au-delà, la problématique écologique de plus en plus pressante oblige Imerys à s’adapter, autant en termes d’organisation que de R&D. C’est ce qu’a expliqué Guillaume Delacroix à Techniques de l’Ingénieur.

Techniques de l’Ingénieur : Comment définir l’activité d’Imerys ?

Guillaume Delacroix : Imerys est un groupe minier dont les origines remontent au 19ème siècle. Au tournant des années 2000, nous avons pris un virage stratégique pour nous concentrer sur les minéraux industriels, en nous focalisant sur l’activité minière et en abandonnant la métallurgie. Progressivement, nous nous sommes également développés sur les activités minérales aval.

Nous ne faisons pas de chimie de spécialité, puisque nous possédons notre amont (les mines). Cela se traduit pour nous par l’emploi d’ingénieurs avec des spécialités multiples : mécanique, électrique, thermique, science des matériaux, géologues, ingénieurs miniers, qui vont nous permettre de maîtriser la mine et la valeur ajoutée que nous apportons aux minéraux que nous commercialisons.

Au final, nous sommes à la croisée des chemins entre les grandes entreprises minières et les industries type « chimie de spécialité » comme Solvay ou BASF. C’est un monde que nous avons un peu inventé, dans lequel nous nous développons aujourd’hui et sur lequel nous sommes leader. Nous travaillons essentiellement en B to B, en apportant des solutions minérales ayant des valeurs d’usage, elles-mêmes attachées aux propriétés des minéraux que nous avons transformés.

Vous êtes en charge du Domaine d’Activité des Minéraux de Performance EMEA au sein du groupe Imerys. Quelle est son importance par rapport à l’ensemble de l’activité du groupe ?

En année normale, nous faisons en moyenne 4,5 milliards d’euros de chiffre d’affaires et nous employons 16 000 collaborateurs. Le domaine d’activité dont je m’occupe représente environ un quart du business d’Imerys et fait partie d’un segment appelé Minéraux de Performance, qui représente à peu de choses près 60% de l’activité du groupe. Cette partie de l’activité du groupe est intégrée à la mine.

L’activité sur les mines comprend bien sûr la maximisation de la ressource, mais également le respect de la biodiversité, les relations avec les parties prenantes locales, le travail de réhabilitation des sites, des enjeux qui deviennent capitaux aujourd’hui.

Imerys est aujourd’hui un groupe d’envergure mondiale. Comment s’est opérée cette croissance ?

Nous avons beaucoup grandi par acquisition, en acquérant souvent des entités spécialisées sur un minéral donné. Pendant plusieurs années c’est comme cela que le groupe s’est développé, en intégrant à son activité de nouveaux minéraux, les uns après les autres.

Notre stratégie a depuis évolué, et nous sommes concentrés aujourd’hui sur les synergies entre les différents minéraux servant une même industrie. Nous avons réorganisé le groupe il y a deux ans, qui était traditionnellement orienté par ligne de produits, en l’organisant par marché. Maintenant, nous gérons notre business et notre R&D par segments applicatifs et non plus par ligne de produits.

Nous avons quatre marchés principaux, que sont :

  • les peintures, plastiques, caoutchoucs, adhésifs ;
  • la céramique et les matériaux de construction ;
  • la filtration et les sciences de la vie
  • le papier et carton.

Ces quatre segments de marchés vendent l’ensemble de notre gamme aux clients qui les composent. Cette organisation va guider le travail de nos forces de vente et de notre marketing, mais aussi de notre R&D, avec une connaissance très fine des applications de nos clients.

Cette organisation influe-t-elle sur le recrutement ?

En termes d’embauches, cela se traduit par le recrutement de collaborateurs qui connaissent très finement les métiers de nos clients. Il est en effet capital pour nous de comprendre les activités de nos clients, afin d’améliorer la valeur des minéraux que nous transformons, et d’anticiper au mieux les besoins futurs de nos clients pour les satisfaire.

Quelles sont les thématiques qui orientent le travail de votre R&D ?

Les sujets sur lesquels nous faisons de la recherche sont nombreux : légèreté, mobilité électrique, solution naturelles, minéraux circulaires… les tendances du développement durable, notamment la réduction de l’empreinte carbone, sont très importantes pour nous car les parties prenantes avec lesquelles nous collaborons ont des exigences de plus en plus précises à ce niveau. Cela est un facteur de motivation pour l’ensemble des salariés de l’entreprise, et une boussole supplémentaire pour orienter nos recrutements.

Pouvez-vous nous parler de l’organisation de vos centres de production ?

Nos centres de production sont organisés par groupements géographiques. Au sein de ces groupements, nous allons retrouver des sites qui n’opèrent pas forcément les mêmes minéraux, mais qui créent des synergies entre eux en termes d’achats, de politique environnementale, d’ingénieurs process… Nous créons des synergies locales à ce niveau là, et ensuite les vendeurs, le marketing et la R&D s’adressent à nos clients par marchés.

Votre métier s’est transformé : de fournisseur de matières premières, vous êtes devenus fournisseurs de solutions. Pourquoi cette mutation ?

Effectivement. Par exemple, sur la céramique, nous proposons à nos clients des pâtes céramiques, dont nous allons faire la formulation pour nos clients. Il y a là un aspect recettage, qui nous permet de fournir au client une solution qui va répondre à ces besoins précis émis par les clients.

Ensuite, en période de forte inflation comme nous le vivons actuellement, nous sommes notre propre fournisseur puisque nous sommes propriétaires de nos mines (en fonction du droit local). Cela constitue une garantie très importante pour nos clients.

Vos clients ont-ils tendance à vous solliciter très tôt dans leurs phases de R&D ?

Exactement. L’avantage, pour nous et donc pour nos clients, est que nous possédons un portefeuille de minéraux très large. Cela nous permet, quand nous sommes face à un client voulant développer une solution minérale innovante, de lui proposer plusieurs minéraux, voire une combinaison de minéraux.

Encore une fois, il s’agit pour nous d’aller au plus proche des applications de nos clients, pour trouver les formulations les plus adaptées.

Est-ce que vous collaborez avec des startups ?

C’est une question que nous nous posons actuellement. Nous suivons beaucoup de startups qui pourraient avoir des idées que nous n’avons pas encore développées, notamment en termes de circularité et d’innovation. C’est une branche d’activité que nous voulons développer et sur laquelle nous ne sommes pas assez présents pour le moment.

Revenons sur la R&D. Au sein de votre pôle d’activité, qu’est-ce qui a guidé le choix pour l’installation des sites de R&D ?

Le Segment des Minéraux de Performance du groupe possède six centres de R&D.
A Toulouse tout d’abord, car c’est une ville très universitaire et où sont présentes beaucoup d’industries de pointe ; en Grande-Bretagne et en Suisse, qui sont des sites historiques du groupe ; en Chine, nous nous sommes installés sur un green field, pour développer entre autres des activités autour de la peinture et des plastiques. A Atlanta, car c’est le siège historique du groupe aux Etats-Unis. Il s’agit également d’un hub intéressant car il est très bien connecté. Enfin, nous avons également un site au Japon, orienté sur le carbone.

On parle beaucoup des usines 4.0. Qu’en est-il pour l’activité minière ?

Sur la mine, il s’agit de mieux collecter les données, notamment pour limiter au maximum notre impact écologique. A ce niveau, l’utilisation de drones et de l’intelligence artificielle pour le pilotage de nos engins de chantier permet de beaucoup mieux cartographier nos stocks et de réduire notre empreinte carbone.

C’est la même chose avec les usines. Pour une empreinte industrielle donnée, nous allons pouvoir augmenter notre rendement en améliorant certains process.

Et en termes de sécurité ?

La sécurité est une préoccupation cardinale, qui ne se résout pas, selon moi, par l’automatisation. On peut se blesser dans un environnement entièrement automatisé.

Pour assurer la sécurité de tous, il faut veiller les uns sur les autres, et instaurer une culture de la sécurité, plutôt que d’essayer d’automatiser les processus au maximum.

Vous parliez à l’instant d’empreinte écologique. Les exigences sur ce point vont être de plus en plus importantes. Comment anticiper vous cela ?

Les changements de paradigmes ne vont faire que s’accélérer. Il va donc falloir, pour Imerys comme pour toutes les entreprises, s’adapter. Les entreprises qui ne s’adapteront pas seront en grande difficulté, je le crois. Chez Imerys, nous nous sommes fixés des ambitions importantes, avec la volonté de réduire de 36 % notre empreinte carbone d’ici 2030, en respect des accords de Paris.

Aussi, nous privilégions aujourd’hui les process les moins polluants qui existent pour exploiter les minéraux. Ainsi, nous quantifions l’impact sur l’environnement de la production des solutions que nous proposons, pour évaluer leur impact environnemental réel et ainsi classer les minéraux, en faisant une balance entre leur valeur d’usage et leur impact sur l’environnement.

Cette méthodologie et le classement qui en découle sont des informations que nous allons commencer à communiquer à nos clients, qui sont très demandeurs de ce type de données.

Nous sommes également conscients que pour avoir un réel impact sur les pratiques environnementales, il faut que les parties prenantes agissent toutes en même temps : l’analyse du cycle de vie de la production de nos produits n’est qu’une partie du cycle de minéraux que nous produisons. Il faut également considérer l’utilisation qu’en font nos clients, pour développer une analyse complète du cycle et réellement comprendre l’impact global de notre activité.

Propos recueillis par Yves Valentin, directeur de Techniques de l’Ingénieur, et Pierre Thouverez, journaliste.

Google teste des liaisons optiques pour apporter le haut débit en Afrique

Toute la planète n’accède pas à l’Internet et encore moins au très haut débit. Selon l’étude annuelle Digital Report 2021, publiée par Hootsuite et We Are Social, 59,5 % de la population mondiale peut accéder au Web. En 2020, la vitesse moyenne de connexion à une ligne fixe est de 96,43 Mbps (+31,1 % en un an).

La Thaïlande obtient le meilleur score pour une ligne fixe, avec une vitesse de connexion moyenne estimée à 308,35 Mbps. C’est le Nigeria qui enregistre la moins bonne performance avec 16,07 Mbps.

C’est la raison pour laquelle des géants comme Google et Facebook se sont lancés dans des projets permettant de connecter à l’Internet des millions d’habitants de régions isolées en Afrique. Mais si les projets semblent séduisants sur le papier, leur pérennité reste à démontrer.

Haut débit au-dessus du fleuve Congo

Le projet Aquila de Facebook, reposant sur des drones fonctionnant à l’énergie solaire, a été abandonné en 2018 faute de rentabilité. En 2019, Google s’était associé à l’opérateur télécom kenyan pour son projet Loon (imaginé dès 2013) qui ambitionnait d’apporter la 4G grâce à d’énormes ballons plutôt que d’installer de coûteuses antennes-relais.

Mais le projet n’a pas abouti, faute d’un modèle commercial durable et de partenaires suffisants.  Il n’est pas pour autant enterré. Toute l’expérience acquise avec Loon sur les liaisons de communications optiques sans fil (« Wireless optical communications » – WOC) va être mise au service d’un nouveau projet.

Baptisé Taara, ce projet vise à combler le fossé de connexion entre Brazzaville, en République du Congo, et Kinshasa, en République démocratique du Congo. Les deux villes sont séparées par le fleuve Congo et ne sont distantes que de 4,8 kilomètres.

C’est peu, mais les coûts de connexion terrestres sont prohibitifs. Les FAI locaux devraient installer suffisamment de fibres optiques pour couvrir 400 kilomètres autour du fleuve. En reposant sur les WOC, le projet Taara, permet de déployer une liaison optique point à point de 20 Gbps au-dessus du fleuve Congo.

Les contraintes météo

Le système WOC présente plusieurs avantages par rapport au système de communication RF en raison de la longueur d’onde plus courte de son fonctionnement. Dans la communication optique, la largeur de bande utilisable est presque 105 fois supérieure à celle du système de communication RF.

L’alignement du récepteur et de l’émetteur est donc très important pour obtenir la qualité de service. Par ailleurs, ces communications WOC sont fortement affectées par la brume et le brouillard en raison de la forte atténuation des signaux optiques. Les variations aléatoires de température pendant la journée entraînent une variation aléatoire de l’indice de réfraction de l’air. Cette turbulence atmosphérique entraîne aussi une variation aléatoire de l’intensité dans le récepteur.

Pour relever ces défis, l’équipe de Taara a donc développé des outils de planification de réseau qui peuvent estimer la disponibilité du WOC en fonction de divers facteurs comme la météo. Résultat, une disponibilité de 99,9 %.

Comme toute autre méthode de connexion à l’Internet, Alphabet affirme que la communication optique sans fil n’est pas une solution universelle. Elle peut combler les lacunes lorsque des méthodes plus rapides et plus fiables (comme la fibre optique) ne sont pas réalisables.

Des nano-objets en origami d’ADN pour le piégeage de virus

Il n’existe pas à ce jour de plateforme antivirale à large spectre capable de diminuer ou d’inhiber efficacement une infection virale. Si les antibiotiques sont capables de s’attaquer aux bactéries, peu d’antidotes existent pour traiter les infections virales.

Les choses vont probablement évoluer dans le bon sens dans les prochaines décennies, grâce au développement des nanotechnologies et des biotechnologies. Depuis plusieurs années, de nombreuses technologies d’encapsulation, in vitro et in vivo, sont en train d’émerger comme par exemple l’encapsulation par des composés à base de lipides ou par des biopolymères à base de protéines. L’encapsulation de virus par origami d’ADN fait partie de ces technologies prometteuses.

Nanotechnologies à base d’ADN

L’origami d’ADN est une technique qui consiste à assembler des « morceaux » d’ADN, de manière contrôlée, dans le but de créer des structures complexes. Une équipe de chercheurs issus de la Technical University of Munich (TUM), Helmholtz Zentrum München, Brandeis University (USA) a utilisé ce principe pour créer des assemblages 3D capables d’encapsuler des virus.

Clichés microscopiques cryoélectroniques de nano demi-coquilles fabriquées à partir d’ADN. (Crédit : Christian Sigl / DietzLab / TUM )

Cette équipe travaille depuis longtemps sur la technologie d’origami ADN. En 2017, ils annonçaient être capables de créer des nano-objets en forme de V, capables de s’assembler pour former des sortes d’engrenages ainsi que des structures tétraédriques, hexaédriques ou dodécaédriques.

Néanmoins, leurs tentatives pour créer des corps creux capables d’entourer et d’emprisonner des virus sont jusqu’ici restées vaines, tout simplement parce que ces nano-objets étaient trop petits.

Un objet constitué de structures triangulaires

Dans le papier publié récemment dans le journal Nature Materials, l’équipe explique être arrivée à créer des corps creux en forme d’icosaèdre (structure constituée de 20 faces triangulaires), à partir de petites plaques d’ADN.

Mettre en œuvre de tels assemblages a été un gros défi, car la position des points de fixation sur les bords devait être choisie de manière à ce que les plaques s’assemblent automatiquement pour former l’objet désiré. Ils ont ainsi réussi à créer des sortes de coquilles dont la masse moléculaire s’échelonne entre 43 et 925 MDa et ayant une cavité interne allant jusqu’à 280 nm.

Une coque d’ADN capable d’emprisonner le virus de l’hépatite B

En modifiant les points de liaison, les chercheurs sont également capables de créer des demi-coques ou des sphères contenant des ouvertures. Lorsque l’intérieur des coquilles est fonctionnalisé par une molécule qui sert de point d’ancrage au virus (certains anticorps, protéines, acides nucléiques, etc.), il devient possible de capter et d’emprisonner des noyaux viraux.

En collaborant avec l’Institute for Virology de TUM, les chercheurs ont ainsi testé l’efficacité de cette méthode sur des virus adénoassociés ainsi que sur l’hépatite B.

Dans un communiqué de presse, Hendrik Dietz, professeur de nanotechnologie biomoléculaire au département de physique de TUM et co-auteur de l’étude, se dit satisfait des résultats : « Même une simple demi-coquille de la bonne taille montre une réduction mesurable de l’activité virale ».

Puis il ajoute : « Si nous plaçons cinq sites de liaison pour le virus à l’intérieur, par exemple des anticorps adaptés, nous pouvons déjà bloquer le virus à 80 % ; si nous en incorporons davantage, nous obtenons un blocage complet. »

Par ailleurs, cette méthode a l’avantage de permettre une production en grande série, à des coûts raisonnables, grâce aux procédés de biotechnologie.

Ecoutez notre podcast Cogitons Sciences : Allier numérique et écoconduite [Energie et mobilité #3]

Les solutions numériques pour faciliter l’écoconduite existent, et WeNow en fait partie. Comment fonctionne une telle solution, d’un genre nouveau en France ? Est-elle adaptée à tout type de véhicule ? Quelles réductions de l’empreinte carbone présage-t-elle ? Quelles sont les bonnes pratiques à adopter en tant qu’automobiliste ? 

Pour répondre à ces questions, et bien d’autres encore, Techniques de l’Ingénieur reçoit Fabien Carimalo, cofondateur de WeNow

Vous pouvez écouter l’épisode ici. 

Vers un changement des habitudes [0:00 – 7:50] 

Le but derrière WeNow n’est pas de décarboner les émissions carbone sur les routes, mais de changer le comportement des conducteurs en les incitant à opter pour l’écoconduite. Grâce à un boîtier connecté, les émissions du véhicule sont mesurées et ensuite transmises à l’application WeNow qui va afficher ces chiffres à l’intention du conducteur et lui recommander la démarche à suivre (un « coaching ») pour réduire, « de 10 à 15% », sa consommation énergétique. Fabien Carimalo évoque ce rapport, publié en juin par le Haut Conseil du Climat et qui rappelle que le transport est le secteur ayant le plus d’impact CO2 en France : « Le secteur des transports en France est le premier contributeur aux émissions de gaz à effet de serre territoriales avec une part de 31 % en 2019, soit 136 Mt éqCO2 ». Précisons toutefois que la solution WeNow est pour l’instant réservée aux flottes de véhicules des entreprises. 

Un environnement de données compréhensible [7:50 – 26:20] 

Un système de points auquel s’ajoutent des challenges mis en place par WeNow « de manière systématique ou pas », qui pourraient aboutir à des récompenses (selon le souhait de l’entreprise cliente), fait partie de l’environnement de l’application. « Un gestionnaire de flotte ou un manager va avoir accès à une série de données, mais nous sommes conscients du fait que trop de données tue la donnée », prévient Fabien Carimalo. « L’enjeu pour nous n’est pas de mettre à disposition des mégaoctets et des gigaoctets de données auprès d’une personne qui n’aura pas le temps de les utiliser, mais de mettre en place un système qui est simple, centré sur l’essentiel et facilement compréhensible ».

Les données collectées concernent principalement la gestion de l’inertie du véhicule, comme la vitesse (accélérations, coups de frein, etc.), et n’incluent pas les données de géolocalisation, cela « afin de susciter l’adhésion d’une majorité des collaborateurs » soucieux de la protection de leurs données personnelles. Alors que le boîtier connecté est compatible avec tout modèle de véhicule thermique, WeNow travaille actuellement à « étendre [sa] capacité de coaching » aux véhicules électriques, hybrides et hybrides rechargeables. Un autre chantier est la connectivité sans boîtier. Ce lundi 4 octobre, WeNow a annoncé « l’appairage de son application aux données constructeurs », ce qui permet à la solution numérique de fonctionner sans besoin de boîtier connecté. Les premiers véhicules concernés par cette nouveauté sont les véhicules thermiques et les véhicules électriques PSA.

Les sociétés du BTP, clientes clés [26:20 – 45:40] 

« Nous avons choisi de partir sur les véhicules de sociétés car c’est déjà l’environnement le plus sensibilisé à la réduction de l’empreinte carbone », explique Fabien Carimalo. Avant de poursuivre : « Il y a des obligations pour les entreprises, même dès leur création, notamment sur la nécessité de réaliser un bilan carbone. Aujourd’hui, cela s’est largement généralisé en France, avec la loi d’orientation des mobilités qui impose aux entreprises d’une certaine taille d’inclure dans leur flotte une part plus ou moins significative de véhicules électrifiés. Il y a donc un enjeu de contrainte du côté du secteur privé, mais aussi un enjeu stratégique et marketing pour les grands groupes qui doivent montrer l’exemple surtout qu’ils ont les moyens d’engager la transition ».

WeNow compte aujourd’hui 4 000 utilisateurs et travaille auprès d’une centaine d’entreprises. Elle est par ailleurs sur le point d’équiper des flottes de plus de 1 000 véhicules. Le BTP fait partie des secteurs les plus représentés parmi les sociétés clientes, tandis que le développement à l’international suit son cours. 

Sobriété énergétique tout en gaming [45:40 – 51:22] 

Pourquoi adopter l’engagement par le jeu ? Réponse de Fabien Carimalo : « L’écologie punitive, pour nous, n’a aucun avenir. Il faut donner aussi un sens positif à l’action communautaire, collective, à l’encouragement, et au fun. Ce sont des leviers énergétiques qui font partie de notre société et de notre culture. L’apprentissage par le jeu est quelque chose qui est presque naturel. Il est beaucoup plus puissant d’apprendre sur le climat et d’aller vers la sobriété énergétique, tout en s’amusant. Cela donne envie d’y revenir. D’où notre conviction : si nous voulons avoir de l’impact et fédérer à grande échelle, le jeu est un levier puissant qui fait partie du quotidien des jeunes générations. »

Références citées : 

Les rapports du Haut Conseil du Climat 

La loi d’orientation des mobilités

Pour aller plus loin : 

Les rapports de l’Ademe

WeNow

Crédit photo de Fabien Carimalo : Arthur Minot

Le meilleur de la tech #11

Diriger un robot par les ultrasons

Comment améliorer des techniques comme la délivrance ciblée de médicaments ou la chirurgie à distance ? Peut-être à l’aide de microrobots, de la taille des cellules animales ! Inspirés des mouvements qu’effectuent les bactéries et les spermatozoïdes avec leurs flagelles, les micro-nageurs robotiques étaient jusqu’à présent munis d’une seule cavité. Une fois immergé, un robot voyait s’y former une bulle d’air du fait de son matériau en résine hydrophobe. Ensuite, deux transmetteurs d’ultrason induisaient des oscillations dans la bulle, à l’origine de micro-courants permettant au micro-nageur d’avancer. Des scientifiques de l’université Cornell ont annoncé le 10 septembre 2021 dans Lab on a Chip avoir perfectionné la méthode, en imprimant en 3D leurs propres robots. Creusés de deux trous de diamètres différents, ces derniers ressemblent à un croisement entre un insecte et une fusée… L’objectif des scientifiques ? Piloter la machine avec un unique transmetteur. En effet, les deux bulles issues des deux cavités réagissent à des fréquences différentes produites par un seul engin à ultrason. En fonction de la bulle oscillante, le microrobot nageur se déplace vers la gauche ou vers la droite. La prochaine étape avant l’emploi médical consistera à rendre ces robots biocompatibles et biodégradables dans le sang.

Un voyage d’échantillonnage

La rétention d’eau des lacs les rend d’autant plus sensibles à la pollution. Pourtant, peu de données y ont été récoltées jusqu’à maintenant. Entre avril et septembre 2019, Andrew Tanentzap de l’université de Cambridge et ses collègues ont donc parcouru les lacs européens pour relever leurs concentrations en microparticules – des microplastiques et des fibres d’origine humaine, de moins de 5 mm. Ces contaminants, en plus de détériorer la qualité de l’eau, finissent par être ingérés par les animaux locaux… Au total, les chercheurs ont récolté plus de 2 100 échantillons répartis sur 67 étendues d’eau couvrant près de 30° de latitude. Leurs résultats, publiés le 14 septembre 2021 dans PLOS BIOLOGY, rendent compte de concentrations en microparticules supérieures aux données précédentes, et comparables aux valeurs trouvées dans les rivières ou les océans. Ainsi, la concentration était 4 fois supérieure dans les endroits entourés de constructions humaines visant à traiter les déchets. Au contraire, les lacs cernés d’une couverture forestière ont vu leur concentration divisée par 2. Enfin, certains bassins possédaient des micro-organismes semblant actifs dans la dégradation des polluants, divisant leur concentration par 5 ! Des études plus approfondies devraient permettre de juger de leur potentiel dépollueur. En attendant, les modèles fournis par les chercheurs donnent de précieuses informations aux gestionnaires environnementaux.

Prévoir les déplacements des baleines pour mieux les protéger

La grande baie South Taranaki longe la côte ouest de la Nouvelle-Zélande. Dans ses eaux riches en krill viennent se nourrir près de 700 baleines bleues néo-zélandaises – distinctes génétiquement des autres spécimens. Elles doivent partager ce territoire avec des activités industrielles locales (exploitation du pétrole, du gaz ; navires de marchandises) qui mettent leur existence en danger. Dans le Journal of Applied Ecology du 14 septembre 2021, des chercheurs de l’Oregon State University ont présenté leurs modèles prédictifs sur l’habitat préférentiel des baleines. Pour cela, ils ont d’abord mis au point un premier modèle, calculant la température à la surface de l’eau, ainsi que la productivité en termes de proies. Ensuite, ces valeurs ont été implantées dans des modèles de distribution des espèces. Le tout ayant été calibré à l’aide de données obtenues durant l’été austral, de 2009 à 2019. Résultat : à l’échelle journalière, les prévisions ont connu un haut degré de précision. Ainsi, la gestion dynamique des baleines bleues de Nouvelle-Zélande semble possible, promettant de réduire sérieusement la menace qui pèse sur elles aujourd’hui.

Un mois dans l’espace #21

Le tourisme spatial version Elon Musk

Alors que Blue Origin ou Virgin Galactic ont déjà envoyé leurs premiers touristes dans l’espace, il fallait s’attendre à ce que SpaceX, la société spatiale d’Elon Musk, réagisse.

C’est chose faite depuis le 15 septembre dernier. La mission, baptisée Inspiration4, a permis à quatre civils ayant participé à un entrainement de plusieurs mois de s’installer à bord de la capsule Crew Dragon, afin d’être propulsés par une fusée Falcon 9, jusqu’à une orbite de 600 kilomètres au-dessus de notre planète. En comparaison, l’ISS orbite quelques 440 kilomètres au dessus de nos têtes.

Les quatre chanceux ayant pris place pour ce voyage d’un nouveau genre ont évoqué et montré, à la télévision américaine, les objets qu’ils ont emmenés pour leur périple et qui seront vendus aux enchères à leur retour sur Terre, le tout au bénéfice d’un hôpital américain.

Comme d’habitude, Elon Musk n’a pas fait les choses à moitié. Alors que ses concurrents Virgin Galactic et Blue Origin ont proposé à des civils des expériences de quelques minutes dans l’espace, SpaceX a proposé aux quatre « touristes » un voyage de trois jours en orbite.

Pendant cette expérience, la firme américaine a suivi les données métaboliques et biométriques de l’équipage, pour sa sécurité, mais aussi pour développer les connaissances sur les effets des voyages dans l’espace sur le corps, à fortiori sur les corps d’être humains n’ayant pas subi d’entrainement très poussé.

Mais Elon Musk voit encore plus grand. SpaceX étudie actuellement la possibilité d’emmener des touristes en grand nombre dans l’espace, via sa fusée géante Starship. Une ambition pour le moment lointaine, SpaceX ayant repoussé cet été le premier vol en orbite de son nouveau bijou. Pour rappel, il y a quelques mois, Starship avait réussi à décoller et à atterrir sans encombre, une première mondiale pour une fusée de cette taille :

Ariane Espace vient de mettre en orbite son millième satellite, en attendant Ariane 6

Le 14 septembre, embarqué dans un lanceur Soyouz, Ariane Espace a mis en orbite 38 satellites de la société OneWeb, dépassant ainsi la barre des 1000 satellites mis en orbite par la firme européenne. Après 41 ans de service, Ariane Espace attend désormais avec impatience la mise en service d’Ariane 6, qui sera spécialisée dans le lancement des constellations de satellites. Car sans Soyouz, Ariane Espace serait aujourd’hui bien en peine de maintenir ses cadences de lancement.

L’arrivée de la fusée innovante Ariane 6 suscite beaucoup d’attentes au niveau de tout le groupe européen, alors qu’Ariane Group vient d’annoncer la suppression de quelques 600 postes cette année, en France et chez nos voisins allemands.

Une cavité géante nichée au fond de la voie lactée

Entre les nuages de Persée et de Taureau, une cavité géante vient d’être mise en évidence, probablement apparue suite à l’explosion d’une étoile. C’est en tout cas ce que révèle une étude publiée il y a quelques jours. Située à 700 années lumières de notre planète, cette cavité sphérique, vide, sert de liant aux nuages de Persée et de Taureau. Comme l’a précisé l’équipe de chercheurs, il s’agit d’une première, puisque les deux nuages et la cavité ont pu être simulés en 3D, avec une précision jamais vue auparavant. Pourtant, cette zone de l’espace est étudiée depuis des décennies.


Par Pierre Thouverez


Image de Une : capture d’écran du reportage consacré à la cavité spatiale découverte dans la Voie Lactée ©AstrophysicalJournalLetters

Les thèses du mois : Les nouvelles spécialités bousculent le métier d’ingénieur

Pour notre dossier de septembre, « Ingénieur : les nouvelles spécialités bousculent le métier », voici les thèses sélectionnées par le REDOC SPI. Retrouvez le résumé de ces thèses ainsi que les thèses des mois précédents sur le site de notre partenaire.

La transformation numérique des entreprises industrielles. Quelles modalités d’accompagnement et quels effets sur les métiers et les identités ?
Pierre Quesson
Projet de thèse en Sciences de gestion, depuis le 01-10-2019
Centre de Gestion scientifique

 

Genre et économie numérique
Enxhi Leka
Projet de thèse en Sciences économiques, depuis le 15-10-2020
Laboratoire en Innovation, Technologies, Economie et Management

 

Les technologies numériques émergentes, vecteur d’engagement et d’évolution de la professionnalité des ingénieurs ? Le cas de l’intelligence artificielle.
Laetitia Piet (Sarda hauret)
Projet de thèse en Sciences de gestion, depuis le 05-02-2021
Laboratoire d’Economie et de Sociologie du Travail

 

Les développeurs : ingénieurs informatiques ou ouvriers qualifiés ? Sociologie d’un groupe professionnel
Mathilde Krill
Projet de thèse en Sociologie, depuis le 01-10-2019
Institut de Recherche Interdisciplinaire en Sciences Sociales

 

Former aux enjeux environnementaux en école d’ingénieur
Hugo Paris
Projet de thèse en Sciences de l’éducation, depuis le 20-10-2020
Apprentissages, Didactiques, Evaluation, Formation

 

Méthodologie d’Intégration de la technologie de Fabrication Additive en conception à travers un outil de créativité
Armand Lang
Projet de thèse en Génie industriel, depuis le 02-01-2019
Laboratoire Conception de Produits et Innovation

 

Intelligence Artificielle et Droit du Travail : la protection des salariés face à la nécessité de performance des entreprises
Oumarou Sylla
Projet de thèse en Droit privé, depuis le 01-10-2019
Laboratoire d’études et de recherches en droit social

 

Intelligence Artificielle et robotique dans les situations de travail : quelles conséquences sur l’activité humaine et l’organisation du travail ?
Tamari Gamkrelidze
Projet de thèse en Sciences humaines et humanités nouvelles spécialité Ergonomie, depuis le 07-01-2019
Centre de recherche sur le travail et le développement

 

L’évolution du rôle des managers à l’heure des technologies numériques émergentes
Philippe Jean baptiste
Projet de thèse en gestion, depuis le 19-01-2021
Laboratoire d’Economie et de Sociologie du Travail

 

Le sens du travail contemporain, entre oeuvre et désoeuvrement – Une approche à partir des dirigeants de start-up du numérique et des incubateurs
François Henry
Thèse de doctorat en Sciences de Gestion, 10-02-2020
Laboratoire d’économie et de management Nantes Atlantiques

Le best of presse : au fil de l’actu sci-tech #6

Ici vous trouverez notre récap’ de l’actualité scientifique et technologique qui a bercé ou chamboulé le mois de septembre. Et ce mois-ci, nous avons surtout retenu un fort remue-ménage dans les feuilles du passé ! Nous dérogeons pour une fois à la règle : pas d’infos bonus à la fin de cet article… Nous vous en savons profondément émus mais espérons que votre tristesse ne vous empêchera pas de poursuivre votre lecture !

On ne perd pas le nord !

Fin août, coup de bol inespéré : des chercheurs ont mis pied sans le savoir sur l’île la plus au nord de la planète ! L’équipe de recherche de l’université de Copenhague, partie initialement en expédition vers Oodaaq (Groenland), ex-point le plus septentrional connu, et ce afin de récolter des échantillons, pensait avoir atteint sa destination. Sauf que non. Des pairs, spécialistes ès îles, ont fait savoir au chef de l’expédition Morten Rasch qu’il ne devait pas s’agir d’Oodaaq. En effet, il s’est avéré plus tard que cet îlot était situé à environ 780 mètres plus au nord. Alors que le GPS de terrain n’indiquait pas la bonne localisation, d’où l’erreur, les chercheurs ont pu vérifier grâce au GPS de l’hélicoptère qui les a déposés là, explique Numerama. Selon Nature, les scientifiques ont proposé de donner à ce nouvel îlot le nom Qeqertaq Avannarleq, qui signifie en groenlandais “île la plus au nord”.

Mais ne partez pas, d’autres découvertes ont été faites, et nous comptons bien vous en parler ! Cette fois, plus au sud, beaucoup plus au sud. En Arabie Saoudite, une nouvelle datation est « venue bouleverser » le site archéologique dit du “Chameau”, situé dans la province de Jawf, rapporte Libération. Sur ce site découvert en 2016 et étudié par une équipe franco-saoudienne, sont gravées dans la pierre une douzaine de sculptures de dromadaires et d’ânes. Alors que l’on pensait que celles-ci avaient été réalisées à l’époque antique, la nouvelle datation a révélé qu’elles remontent en réalité au Néolithique ! Plus précisément, au VIe millénaire av. J.-C., au plus tard. Ce qui amène le CNRS à annoncer que le site du Chameau « abrite vraisemblablement les plus vieux reliefs d’animaux en taille réelle au monde subsistant à ce jour ». Des reliefs impressionnants sculptés avec des outils en pierre.

À la recherche du temps perdu

Et comment ! Ce ne sont pas 1 an, 2 ans, ou même 50 ans, mais bien un milliard d’années qui se sont, pour ainsi dire… volatilisées. C’est une histoire que la BBC raconte ici, dans un long-format. Rembobinons donc. L’énigme géologique s’est manifestée en 1869, lorsqu’une équipe d’explorateurs américains s’aventura dans le Grand Canyon, alors méconnu. Là, le chef de fil, le renommé John Wesley Powell, scrutant les hauteurs des falaises, établit un drôle de constat : à la base de ces formations rocheuses, on trouvait des couches verticales (chose inhabituelle) de roche cristalline (du granite et du schiste), et celles-ci étaient surmontées de couches horizontales (comme à l’accoutumée) de grès. La bizarrerie concerne la partie cristalline de ces structures. Après avoir compté le nombre de strates verticales, John Wesley Powell estima qu’en toute logique cette section (cristalline) devrait avoir une épaisseur de 3 050 mètres. Sauf qu’en réalité, celle-ci n’était que de 152 mètres ! Intrigué, John Wesley Powell désigna ce mystère comme étant La Grande Inconformité (“The Great Unconformity”). Et c’est sur ce phénomène que revient la BBC dans ce récit publié le 1er septembre.

Pourquoi parle-t-on d’un milliard d’années, vous demandez-vous ? La formation des roches est un long processus qui s’étale sur une période chronologique considérable : en cela, l’épaisseur de la roche est marqueur de son ancienneté, tout comme le sont les cernes d’un tronc d’arbre. Le média anglais rappelle que de nos jours, grâce aux technologies modernes, les géologues savent que la plus récente de ces roches cristallines du Grand Canyon est “âgée” d’1,7 milliard d’années, alors que la plus “vieille” des structures de grès n’a que 550 millions d’années… Mais alors, où sont passés les près d’un milliard d’années qui séparent ces deux âges canoniques ? “À ce jour, personne ne sait ce qu’il est advenu de la roche qui devait [en théorie] se trouver entre les deux sections”, décrète la BBC. Quelques hypothèses ont néanmoins été formulées, mais elles restent à prouver. Et c’est peut-être pour bientôt, grâce à une nouvelle technique : la thermochronologie.

15 millions de $ pour des hybrides éléphant-mammouth

Le mammouth laineux, une espèce éteinte il y a 10 000 ans, pourrait « renaître » dans 6 ans. C’est là le pari audacieux que fait l’entreprise Colossal. Et dans l’espoir de concrétiser son projet, la start-up a levé pas moins de 15 millions de $ ! Voici comment elle s’y prendrait, détaille le Guardian à l’aide d’un schéma descriptif : tout d’abord, le génome de spécimens gelés et bien conservés de mammouth laineux est extrait, afin d’être comparé avec celui de l’éléphant d’Asie ; cette comparaison permettra d’identifier les gènes spécifiques au mammouth laineux, en particulier ceux responsables de son adaptation au froid (les longs poils, les couches de graisse isolantes, etc.) ; ces gènes de mammouth seront ensuite insérés dans le génome de cellules de la peau provenant d’un éléphant d’Asie ; le noyau (contenant le génome) de ces cellules modifiées sera alors injecté dans un ovule d’éléphant (obtenu à partir de cellules souches), de manière à remplacer le noyau de l’ovule ; enfin, cet ovule, portant donc le noyau modifié (génome d’éléphant contenant des gènes de mammouth), sera stimulé pour qu’il se divise et forme un embryon qui va arriver à maturité soit dans une mère éléphante porteuse, soit dans un utérus artificiel.

Suivant ce plan, le premier bébé éléphant-mammouth devrait voir le jour d’ici six ans. Le but : réintroduire le mammouth dans son habitat naturel, la toundra. Alors que l’entreprise pense que cette nouvelle espèce aiderait à stopper la fonte du pergélisol et ainsi sauver l’écosystème de la toundra, des experts sont moins optimistes, voire craignent l’effet contraire, rapporte le Guardian.

Crédit image de une : Intissar El Hajj Mohamed // Techniques de l’Ingénieur

Nawar Zreik : « Le BIM manager est en quelque sorte le gardien des jumeaux numériques »

La transformation numérique touche aussi le bâtiment. Depuis quelques années, le monde de la construction évolue avec l’émergence du BIM et des jumeaux numériques qui apparaissent en amont de la construction. Le BIM, Building Information Modeling ou modélisation des informations du bâtiment, est un processus de génération des données pour la conception et la construction d’un bâtiment. Des outils utilisent les données afin de modéliser le bâtiment, l’édifice ou l’ouvrage à construire et créent une maquette virtuelle en 3D, qui évolue en temps réel en fonction des modifications apportées par les différents corps de métier.

De nouveaux métiers se sont créés pour répondre aux nouveaux besoins, comme celui de BIM manager. Nawar Zreik exerce ce métier depuis bientôt 3 ans au sein de Walt Disney Imagineering. Issu d’une formation et d’une expérience d’architecte, il s’est toujours intéressé à l’informatique graphique et à l’émergence des nouvelles technologies. Il revient sur ses missions et sur les évolutions dans le milieu de la construction.

Techniques de l’Ingénieur : En quoi consiste le métier de BIM manager ?

Nawar Zreik, BIM manager.

Nawar Zreik : Un BIM manager intervient au niveau de la préparation des projets, notamment concernant la création des cahiers de charges et des protocoles pour l’application du BIM sur une opération. Il part des objectifs définis en amont par la maîtrise d’ouvrage, et regarde comment il peut intégrer la démarche BIM dans ce cadre-là. Dans un premier temps, il a un rôle de conseil pour préparer les objectifs avec le client, puis il va être un élément central entre les différents acteurs sur le projet, car il a le rôle d’un passeur d’information. Il est ainsi amené à travailler avec des architectes, des ingénieurs structures, des ingénieurs mécaniques etc. Ensuite, il contrôle la conformité. Pour cela, il va contrôler les documents pour s’assurer que ce qui était prévu a été exécuté au regard des standards BIM établis, quitte à faire des modifications si nécessaire. Il est en quelque sorte le « gardien des jumeaux numériques ».

Quel est votre parcours, ce qui vous a mené à ce poste ?

J’ai débuté dans le milieu de la construction en 1988 en tant qu’architecte et j’ai suivi l’évolution des technologies, toujours en étant axé sur le métier. Je suis un passionné d’informatique graphique et l’évolution des technologies, passant de la 2D à la 3D, à l’architecture objet et au jumeau numérique, m’a beaucoup inspiré. En parallèle, j’ai beaucoup travaillé comme enseignant, ce qui m’a ouvert aux nouveaux outils. J’ai principalement cherché à rentrer dans une logique de production de projet et non uniquement de production des documents graphiques. Et justement, dans le BIM, les documents et le projet sont intimement liés car on crée un jumeau numérique et les documents techniques deviennent un résultat de ce travail et non pas l’objectif.

Vous travaillez à Walt Disney Imagineering. Quelles sont les spécificités à travailler dans un parc d’attractions ?

Elles sont de plusieurs ordres. Tout d’abord, il y a un mariage entre différents corps de métier et spécialités que l’on ne retrouve pas habituellement dans la construction. À Disney, il y a différents pôles et j’appartiens à celui de la construction des bâtis pour le parc d’attractions. Une place prépondérante est donnée au spectacle, au côté artistique. Ainsi, une multitude de métiers viennent se rajouter à la conception comme des décorateurs, des sculpteurs, des ingénieurs de développement afin de travailler les techniques d’animation, la réalité virtuelle etc. Il ne faut pas oublier que les gens viennent à Disney pour le spectacle, donc il faut trouver l’équilibre entre des métiers très divers, mais essentiels. La démarche artistique se fait dès le début afin de trouver l’identité visuelle, et à partir de là, les intentions graphiques vont se transformer en orientations réelles pour le projet. C’est donc l’artistique qui guide la partie conception, et qui rajoute de multiples couches qui n’existent pas dans les projets classiques.

L’autre particularité de Disney est que tout le projet est réalisé en interne. On dispose donc de toutes les équipes sur place pour effectuer les études, ce qui les rend plus pertinentes. Souvent, quand on est BIM manager d’une opération classique, on est tiraillé entre toutes les équipes qui interviennent car chaque équipe a ses propres objectifs, ses problématiques économiques, donc l’application d’un standard BIM est plus difficile quand tous ont des intérêts divers. Disney dispose de l’ensemble de l’ingénierie sur place donc on a tous un objectif commun qui est de sortir le projet. Cela facilite aussi grandement la communication et augmente notre efficacité.

Qu’est-ce que les nouvelles technologies ont apporté au domaine de la construction ?

Le jumeau numérique permet de réaliser une construction virtuelle avant de démarrer la construction. L’idéal est d’initier cette démarche dès les premières phases de conception pour pouvoir introduire les difficultés techniques réelles et ainsi avoir un impact plus performant. Le simple fait de pouvoir coordonner les différents corps de métier et de les voir évoluer ensemble sur le projet va éliminer énormément de problèmes qu’on pourrait retrouver lors de la phase de construction. Le BIM apporte une visibilité, une capacité de communiquer et surtout de maintenir l’information à jour tout le temps. Par exemple, un ingénieur structure voit l’évolution du projet et peut réagir immédiatement si une modification réalisée par un architecte a un impact sur son travail. Ainsi, ces nouvelles technologies permettent d’anticiper ce qui va se passer par la suite.

Y a-t-il de nouveaux outils qui sont en train d’émerger actuellement ?

Il y a tout le temps des nouveaux produits et outils. Aujourd’hui, on a quelques domaines dans lesquels les outils vont évoluer un peu plus. En termes d’études, la partie simulation thermique se développe et les outils sont en cours d’intégration dans les maquettes BIM, grâce à des logiciels capables de communiquer entre eux. Ensuite, le BIM GEM (Gestion Exploitation Maintenance) gagne en importance, afin de prendre en compte la phase d’utilisation des bâtis, après la construction. Enfin, la réalité virtuelle continue d’être un sujet, mais c’est plus anecdotique.

Qu’est-ce que cela implique de travailler dans un domaine récent ? Avez-vous assez de littérature sur le sujet ? Comment suivez-vous l’évolution des pratiques ?

C’est de la formation continue, de la veille technologique, de la remise en question permanente. En soi, les tâches classiques d’un BIM manager ne sont pas très complexes à partir du moment où on a établi une stratégie. Après, il s’agit de continuellement regarder comment améliorer les processus, utiliser de nouveaux outils ou les nouvelles versions des logiciels, regarder ce qui se fait ailleurs. Notre travail dépend encore grandement des personnes qui travaillent derrière leurs écrans, on n’est pas encore dans une démarche d’intelligence artificielle qui règle tout. Alors tout ce qu’on peut économiser comme temps et erreurs est le bienvenu. C’est une recherche constante.

À quelles difficultés êtes-vous confronté ?

Le BIM étant une technologie récente, beaucoup d’entreprises ne sont pas encore passées à cette technologie. Ce n’est pas le cas pour Disney puisque tout est fait sur place, mais en temps normal, les opérations sont sous-traitées à d’autres entreprises. Or, si tout le monde n’a pas fait la transition, on ne peut pas travailler sur les maquettes numériques. On est sans cesse confronté à cette problématique.

Comment faire aujourd’hui pour devenir BIM manager ?

Il existe quelques Masters pour se former, mais je dirais que c’est plutôt un métier que l’on exerce à l’issue d’une expérience de travail dans la production des documents. Ce métier s’adresse aux personnes qui s’intéressent à l’informatique graphique, et qui ont une vision très horizontale de la production. Elles sont capables de regarder la globalité d’une opération et de se rapprocher de tous les métiers pour comprendre ce dont ils ont besoin. Par ailleurs, le titre de BIM manager peut être associé à deux types de métiers. Le premier, celui que j’exerce, est lié à la production et à l’accompagnement de projets. Le second est plus théorique, et est centré sur des sujets de stratégie et la production de documents à destination des directions.

Prendre en compte les incertitudes : vers une ingénierie réflexive

Un extrait de Évolution du rôle social à la responsabilité sociétale des ingénieurs, par Catherine ROBY

Si l’on définit l’ingénierie comme un métier dans lequel les choix et les arbitrages se font toujours dans un contexte particulier, le développement d’une capacité réflexive apparaît alors indispensable. Pour les ingénieurs, le savoir-faire efficace, allié au dynamisme et à l’énergie, est associé à la valeur du progrès matériel. Cette valorisation par la technique constitue une part de l’identité professionnelle, parfois au détriment d’une valorisation de la réflexion en tant que délibération, considérée comme antagoniste de l’action. Pensée et action sont alors données pour disjointes, alors même que l’analyse de l’activité humaine montre qu’elles sont toujours reliées. Cette dichotomie empêche de considérer leur nécessaire complémentarité pour le praticien réflexif. Or, si on conçoit l’ingénierie comme une pratique professionnelle caractérisée par l’incertitude, l’instabilité, et des conflits de valeurs qui limitent le champ de la compétence technique, la pratique réflexive devient un enjeu majeur pour les ingénieurs. Le défi est de taille car cette confrontation est loin du modèle historique des formations d’ingénieurs, celui de la science appliquée. Non seulement l’incertitude n’y a aucune place, mais elle est vécue comme une menace. Dans la logique de résolution, la façon de poser le problème est occultée, et le processus décisionnel ne peut être questionné.

La disparition d’une science appliquée au profit d’une pratique réflexive

Dans le monde de la pratique, les problèmes se construisent à partir des matériaux problématiques d’une situation complexe mêlant des facteurs d’ordre différent. Le praticien réflexif est capable de s’engager dans une conversation avec les matériaux étudiés. C’est la pierre angulaire d’une ingénierie qui ne peut être uniquement d’ordre technique. Cette pratique réflexive conduit l’ingénieur dans un dialogue où les personnes concernées par un problème travaillent ensemble à sa définition et à l’élaboration des solutions. C’est ce qui définit une ingénierie où analyse technique et intervention sociale vont de pair. Il s’agit de se donner les moyens de produire une connaissance rigoureuse par l’analyse des situations de travail, du fonctionnement des organisations, etc. Cette réflexivité doit se développer de l’intérieur, être incarnée dans les situations sociotechniques, ancrée sur le terrain de l’activité de l’ingénieur. La formation par la recherche interdisciplinaire peut aider, et surtout rendre opératoires les résultats de ces réflexions, par un travail effectif sur les pratiques, les outils, les situations, les connaissances et les objets de l’ingénieur.

Cette démarche conduit à entrer dans un véritable processus de coélaboration des décisions, sur la base d’une confrontation des expertises. Cette façon de procéder se situe à l’opposé de ce que serait le paradigme de « l’acceptabilité sociale » consistant avant tout à apprendre à « faire accepter » à des citoyens un projet pensé sans eux. La pratique professionnelle réflexive conduit à développer des compétences de régulation face à l’incertitude, au changement, à l’inattendu et aux conflits d’intérêts et de valeurs qui limitent sérieusement le champ de la compétence technique. Les savoirs et les techniques ne sont plus appliqués mais constituent des ressources réinterprétées en fonction des contraintes et des potentiels de la situation. De même, l’incertitude n’est plus une menace à réduire mais une donnée. Une telle perspective permet de repenser le positionnement de l’ingénieur dans la société en fonction de la manière dont il élabore des solutions, prenant ou non en compte les intérêts d’une diversité d’acteurs ; contribuant ou non à l’articulation entre les considérations des différentes formes de savoirs (concepteurs et usagers), entre les considérations pratiques techniques et celles de l’action industrielle, entre les projets industriels et les projets de société.

Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 13 octobre 2021 !

Évolution du rôle social à la responsabilité sociétale des ingénieurs, par Catherine ROBY

Mesurer le stress pour mieux s’en défaire

Un extrait de Stress d’origine professionnelle, par William DAB

Le stress est un phénomène essentiellement ressenti. Les facteurs psychosociaux de risque au travail peuvent être regroupés autour de six axes. Parmi ces nombreux facteurs, ceux qui concernent plus particulièrement les ingénieurs et les managers sont : le contenu du travail, notamment en termes de quantité d’informations à traiter ; les changements organisationnels ; et l’environnement physique (des facteurs comme le bruit, la chaleur, la saleté potentialisent le stress).

Si certains secteurs d’activité sont à risque élevé de stress (notamment ceux qui comportent des circonstances exposant à la violence et aux incivilités), aucun secteur ne peut être considéré comme épargné. C’est un risque qui peut toucher tous les métiers et tous les niveaux hiérarchiques. Au total, parmi les nombreux déterminants du stress, il faut garder à l’esprit que les principaux sont actuellement la crainte de perte de l’emploi, les réorganisations, l’irruption des procédés numérisés, la surcharge de travail, les brimades et le harcèlement. Les organisations susceptibles de produire du stress élevé se caractérisent par des responsabilités organisées de façon confuse et dysfonctionnelle, des procédures de contrôle qui excluent toute confiance interpersonnelle, des changements permanents et non expliqués, et un déséquilibre important avec la vie privée.

Mesure du stress : des outils quantitatifs et qualitatifs

On ne peut gérer et améliorer que ce que l’on mesure. Ce principe de base de la gestion des affaires humaines s’applique aux risques professionnels. Comme tous les autres risques, le stress doit être évalué. Cependant, la mesure n’est pas un but en soi. C’est une aide à la décision. La mesure du stress peut avoir cinq finalités : identifier le phénomène ; évaluer son importance ; connaître les facteurs associés à sa fréquence ; évaluer l’efficacité des outils de prévention ; guider l’allocation des ressources. Il existe de très nombreux outils de mesure du stress, la plupart étant des auto-questionnaires comportant des réponses fermées. Il est recommandé de choisir des questionnaires ayant les propriétés suivantes : leur validité et leur fiabilité en langue française ont été évaluées et publiées ; ils s’intéressent au phénomène lui-même et aux différents facteurs stressants ; ils permettent des comparaisons valables ; pour cela, ils doivent permettre de calculer de façon explicite des scores ; ils demandent une durée de passation qui soit compatible avec le contexte du recueil des données.

Mais il ne suffit pas de recueillir des données de bonne qualité. Il faut aussi savoir les analyser. Au plan statistique, les enquêtes par questionnaire ne peuvent être valablement analysées que si les effectifs d’employés sont suffisants, ce qui dépend de divers paramètres, principalement le nombre de groupes à comparer (âge, sexe, métier, etc.) ; en pratique, l’effectif minimum indispensable est de 100 employés. Si la mesure est une nécessité pour révéler les problèmes et les gérer en appréciant les résultats obtenus, l’approche quantitative ne saurait monopoliser les démarches d’analyse du stress. Les approches qualitatives ont toute leur place dans une démarche raisonnée de prévention du stress et les deux outils se complètent. Les entretiens semi-structurés individuels ou en groupes apportent des informations sur le contexte et le vécu qu’il est difficile de cerner par des questionnaires. Ils permettent d’explorer plus finement le vécu du travail, les relations avec l’environnement, l’interaction entre la vie privée et la vie professionnelle. Schématiquement, les questionnaires permettent d’obtenir une vision populationnelle, tandis que les approches qualitatives explorent plutôt le vécu individuel.

 

Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 13 octobre 2021 !

Stress d’origine professionnelle, par William DAB

Alexandre Douin : « La simulation interactive doit garantir la sécurité des opérateurs travaillant avec des cobots »

Parcours atypique pour Alexandre Douin. Titulaire d’un doctorat en microélectronique, il a travaillé dans le conseil en innovation puis il a intégré le CEA en 2013 en tant que responsable des partenariats industriels. Cinq ans plus tard, il prend la direction du Laboratoire de Simulation Interactive au CEA-List. Sa double culture, managériale (Executive MBA) et scientifique (avec ce doctorat), lui permet de connaître l’environnement scientifique, mais aussi d’être capable de faire travailler toute une équipe, de gérer un budget et la roadmap scientifique.

Techniques de l’Ingénieur : Comment qualifiez-vous votre travail ?

Alexandre Douin – DR

Alexandre Douin : Au quotidien, le travail en simulation interactive consiste à développer de nouvelles briques technologiques de simulation en exploitant les technologies de la réalité étendue (XR) qui englobe les réalités virtuelle (RV) et augmentée (RA). Ces solutions immersives sont nouvelles. Elles changent la façon dont nous interagissons avec le monde en le couplant à un environnement virtuel. Le cœur de ce dispositif est un moteur de simulation permettant d’intégrer des lois physiques et réalistes dans cet environnement virtuel. Ce qui m’intéresse dans mon travail, c’est de pouvoir utiliser ces technologies à la pointe de l’innovation sur des enjeux qui ne font que grandir avec l’industrie 4.0.

Quels outils utilisez-vous ?

Nous sommes toujours à l’affût de nouveaux composants hardware intégrant des processeurs CPU (Central Processing Unit) et des GPU (Graphics Processing Unit) pour gagner en performances, c’est-à-dire pouvoir accélérer des calculs en fonction des phénomènes physiques que l’on souhaite simuler. Demain, si la physique quantique peut nous permettre d’être plus performants en termes de temps de calcul et de volumes de données, cela améliorera forcément l’expérience de simulation interactive.

Comment les solutions immersives ont-elles évolué ?

Au début, les industriels utilisaient des CAVE (CAVE Automatic Virtual Environnement), c’est-à-dire ces écrans stéréoscopiques qui permettaient d’immerger un utilisateur dans un monde virtuel. Ces solutions étaient très onéreuses. À titre d’exemple, notre plateforme CAVE au CEA-List a coûté 1 million d’euros. Maintenant, les sociétés comme Facebook, HTC ou encore Samsung proposent des casques XR qui coûtent moins de 1 000 euros. Cette baisse des prix a considérablement accéléré l’adoption de ces solutions immersives dans les entreprises. Mais chaque cas d’usage va définir la technologie adéquate, soit la réalité virtuelle, soit la réalité augmentée. Les systèmes vont devenir plus compacts et donc plus agréables à porter. Ils deviendront également plus précis et bénéficieront d’une meilleure autonomie. La technologie évolue très rapidement. Tous les deux ans, il y a une nouvelle génération et un nouveau palier franchi en termes de performances.

Vous utilisez la simulation interactive pour étudier l’ergonomie du poste de travail. Quels sont les objectifs ?

Au sein de notre Factory Lab qui est une plateforme d’innovation à vocation d’« usine à projets » pilotée par des entreprises, nous avons mené un projet appelé SEEROB consacré à la sécurité et à l’ergonomie des postes de travail cobotisés. L’un des enjeux est de s’assurer que le poste répond bien à différentes contraintes et normes avant d’être mis en service. Tant que la sécurité des opérateurs n’est pas garantie, nous ne pouvons pas donner le feu vert. Grâce à la simulation interactive, nous pouvons prouver que cette sécurité est garantie, tout en optimisant l’ergonomie et le temps de cycle de production. Grâce à la réalité augmentée, nous allons même mettre en service le poste de travail et vérifier sur site que tout est optimisé.

Quels profils vous intéressent en particulier ?

Comme nous simulons des environnements avec des robots et des cobots, les profils que nous recherchons sont à dominante robotique et analyse numérique. Le développement logiciel dans différents langages dont le C++ et les mathématiques appliquées sont également des compétences recherchées. Pour répondre à des besoins de plus en plus importants, nous recrutons également des spécialistes en intelligence artificielle (dont le machine learning et l’apprentissage par renforcement). L’enjeu de nos simulations est de plus en plus multiphysique avec des corps rigides ou déformables. Il est donc nécessaire de simuler dans un temps très court, en quelques millisecondes. Pour notre laboratoire, l’IA va donc nous permettre la réduction des modèles de ces lois physiques qui régissent ces environnements et ainsi tenir le temps réel. Et si l’on introduit la notion d’haptique qui adresse le sens du toucher, il faut être capable de faire ces calculs très complexes dans la milliseconde. Sinon, nous perturbons les sens.

Carrefour de l’Industrie : le rendez-vous pour comprendre l’industrie du futur

Clé de voûte du plan de relance de la France, l’industrie ne cesse d’évoluer pour répondre aux défis majeurs qui se dressent devant nous. Dans un contexte très compétitif, les moyens de production se modernisent grâce à l’automatisation, la robotisation et la connectivité.

Les cartes se rebattent en permanence pour répondre aux contraintes environnementales de plus en plus prégnantes : durabilité des produits, transition énergétique et numérique et gestion optimisée des matières premières.

L’ambition du « Carrefour industrie du futur » organisé par Comundi avec l’expertise de Techniques de l’ingénieur, qui se tiendra en visioconférence le jeudi 9 décembre 2021, est de vous éclairer sur les enjeux majeurs auxquels vous allez devoir vous adapter.

Les objectifs du « Carrefour industrie du futur »

Tenir le cap de la compétitivité tout en respectant de nouvelles contraintes environnementales passe par une transformation des moyens de production. Il s’agit de comprendre simultanément les nouveaux défis à relever et d’utiliser les bons outils pour tenir les objectifs.

Pour vous délivrer les compétences requises, l’événement s’articule autour de 3 axes :

  • comment upgrader ses moyens de production pour entrer de plain-pied dans l’usine 4.0 : présentation des technologies physiques et informatiques (automatisation, robotisation, impression 3D, fabrication additive, IOT et IA) permettant d’optimiser les flux entre les différentes entités opérationnelles (production, approvisionnement et maintenance) ;
  • définition des implications de la transition énergétique et des leviers à actionner pour décarboner les process industriels : connaissance des réglementations, financements, recyclage, énergies renouvelables, stockage, etc. ;
  • comment innover durablement dans une économie circulaire : méthodes de conception, bio-mimétisme, utilisation de nouveaux matériaux plus performants, réparabilité, gestion des déchets, etc.

Chaque point sera illustré par des exemples de transformations réussies et des meilleures pratiques afin de dessiner un panorama à la fois complet et concret des solutions à votre service.

Un programme optimisé pour vous donner toutes les clés de compréhension
Un parcours personnalisable grâce à un programme modulable

La journée s’organise autour de deux conférences plénières qui dressent un état des lieux :

  • des enjeux liés à l’industrie du futur ;
  • des contraintes et conséquences de la politique du tout électrique.

Les interventions seront accompagnées d’exemples concrets liés au domaine abordé. En complément se tiendront 12 ateliers articulés autour des 3 thèmes de la journée : usine 4.0, transition énergétique et innovation durable.

Vous aurez le choix de participer à 4 d’entre eux parmi ceux qui répondent le plus aux problématiques de votre secteur d’activité. Votre temps sera ainsi optimisé avec un programme sur-mesure.

En plus de ces deux conférences plénières et de ces 4 ateliers au choix, vous pourrez sélectionner un module de certification CerT.I. de Techniques de l’Ingénieur, d’une valeur de 270€. Ces CerT.I. sont des articles de référence interactifs avec quiz d’entraînement et test de validation permettant l’obtention d’une certification Techniques de l’ingénieur.

Vous aurez le choix parmi 18 thématiques abordant de manière approfondie la fabrication additive, l’intelligence artificielle, la réalité augmentée, ou encore les gaz à effet de serre, le stockage de l’énergie ou l’écoconception.

Des interventions de qualité par des experts du domaine

Une transmission efficace du savoir passe par un choix d’intervenants de qualité. Chacun d’entre eux a été choisi avec soin pour son expertise reconnue dans son domaine. Pour que le tour d’horizon soit complet, les intervenants viennent du monde de l’industrie, de la recherche ou du conseil. Ils occupent différents types de postes et disposent de compétences variées, pointues et complémentaires : responsable de production, chimiste, dirigeant, député, enseignant, etc.

Selon François-Xavier de Thieulloy, référent Expert Industrie du Futur à la direction des opérations de Bpifrance, intervenant le 9 décembre lors de la conférence d’ouverture du Carrefour de l’industrie du futur, les entreprises françaises doivent prendre un virage et challenger leur business model en passant par l’humain :

« La conviction au sein de Bpifrance est que nous sommes en pleine révolution industrielle. Les entreprises doivent prendre le virage, celles qui le font les premières ont une longueur d’avance. Cette révolution des business modèles doit passer par l’humain avant la technologie. Même si elle est séduisante et présente chez vos concurrents, la technologie doit rester cantonnée à un moyen et non une fin. »

L’industrie du futur est déjà à votre porte. Pour acquérir et conserver vos avantages compétitifs et vous démarquer de la concurrence, inscrivez-vous au Carrefour Industrie du futur !

Industrie, la RSE indispensable pour la « pérennité » des entreprises

Sandrine Grumberg est fondatrice de Viasourcing, cabinet de conseil et de formation, spécialisé en RSE (responsabilité sociétale des entreprises). Elle accompagne les entreprises dans leur mutation et regrette le manque d’anticipation de certaines entreprises. Elle voit les achats durables comme une application pratique permettant de réconcilier l’humain et l’environnement dans l’entreprise. Surtout, elle estime que les entreprises qui attendent les lois pour prendre à bras le corps le sujet de RSE perdent peu à peu du terrain par rapport à celles qui agissent. Entretien.

Techniques de l’Ingénieur : Est-ce que la RSE est une thématique bien ancrée dans le domaine industriel ?

Sandrine Grumberg

Sandrine Grumberg : La RSE est un sujet largement abordé, mais il reste plusieurs progrès à faire. Toutes les grandes entreprises ont au moins un agenda RSE à plusieurs niveaux, mais le déploiement effectif de cet agenda est une autre question. Il y a encore de nombreux paradoxes à gérer, notamment concernant les projets de court terme par rapport à l’agenda environnemental à long terme.

Les rapports extra-financiers des entreprises deviennent de plus en plus fournis et de plus en plus précis. On parle de supply chain, de chaîne de valeur et de transparence de supply chain. Cela signifie que les fournisseurs des fournisseurs des fournisseurs vont aussi devoir montrer où ils en sont concernant les questions environnementales et sociales. Si les grandes entreprises s’engagent, il reste de nombreuses interrogations concernant les petites et moyennes entreprises françaises.

Dans la supply chain, jusqu’où remonte la RSE ?

Cela dépend des secteurs. Par exemple, l’automobile a toujours eu l’habitude de situer telle ou telle entreprise par rapport aux constructeurs. On parle de fournisseur de rang 1, 2 ou 3. Dans les grandes entreprises, on commence à avoir une cartographie des fournisseurs. Je pense à Ecovadis par exemple, qui propose des mapping de supply chain, pour cartographier les fournisseurs d’une entreprise.

Les grandes entreprises ont de nouveaux risques à gérer : des risques géopolitiques, dus au tarissement des sources de certaines matières premières, ou à l’augmentation des prix de certaines matières. Cette tendance est apparue très clairement pendant le confinement. On s’est rendu compte que l’on avait perdu la main sur certains approvisionnements. Les pays se sont rendu compte qu’ils ne pouvaient pas dépendre de pays très lointains et qu’il fallait diversifier leurs sources.  Mais cela pose d’autres questions : le secret d’une fabrication peut-il encore exister ?

Quels axes d’amélioration reste-t-il dans l’industrie concernant les droits des travailleurs ?

Il y a eu énormément de progrès sur les gestes et postures. Les responsables QHSE (qualité, hygiène et sécurité, NDLR) sont à l’écoute. Lorsque les entreprises respectent les réglementations concernant le bruit et les équipements de protection individuels, le confort est assez bon pour les employés. Les troubles musculosquelettiques sont aussi bien pris en charge. Mais concernant la sphère sociale de l’entreprise, il reste des progrès à faire sur la mixité, la diversité, les questions de genre et le handicap, notamment sur la discrimination à l’embauche. La question de la transition des métiers est aussi un sujet sous le radar.  Les entreprises n’ont pas pris le tournant de la formation et des futurs métiers industriels.

Il faut aussi être un peu plus regardant sur les fournisseurs éloignés, situés dans des zones à risques. Dans certains pays asiatiques, par exemple, on peut se poser des questions sur le travail des enfants, le travail des femmes, l’inclusion des femmes, l’éducation, le droit syndical. On peut s’interroger notamment sur la Chine qui n’a jamais ratifié les accords internationaux du travail mais qui est pourtant l’usine du monde.

Qu’est-ce qui pourrait pousser l’ensemble des acteurs à s’engager dans la RSE ?

La réglementation est une bonne motivation, mais les lois prévoient souvent peu de moyens pour les contrôler. C’est une limite importante. Par exemple, le décret imposant le tri des déchets en 5 flux dans les entreprises n’est pas un franc succès.

Aujourd’hui, les entreprises qui attendent les lois pour faire bouger les choses sont en train de perdre du terrain par rapport à celles qui agissent. À l’international, on parle de « people profit prosperity ». Lorsqu’on parle de « prosperity » dans le monde de l’entreprise, on aborde sa pérennité. Une entreprise cherche à gagner de l’argent mais surtout à être encore là dans 10 ou 20 ans. Les entreprises engagées dans ces questions auront une chance de l’être, moins les autres.

Les entreprises peuvent signer la Charte de la diversité ou le Global Compact. Il s’agit d’engagements gratuits. Il y a des certifications ou labellisations comme B Corp. L’engagement le plus complet concerne la démarche ISO 26000. Ensuite, on peut aussi entrer sur une certification plutôt environnementale ou sociale, selon la vision de l’entreprise.

Une unité de dépollution des eaux usées transformée en biofactory

La communauté d’agglomération Pau Béarn Pyrénées va transformer son unité de dépollution des eaux usées située à Lescar en une biofactory. Grâce à la construction d’une unité de méthanisation couplée à une seconde de méthanation, le nouvel ensemble permettra de produire dix énergies et ressources locales issues des eaux usées et en synergie avec des infrastructures environnantes. Il s’agit de biométhane, méthane de synthèse, l’électricité verte, l’hydrogène, chaleur, biochar, azote, oxygène, eau réutilisée et culture maraîchères (ou aquaponie). Les travaux doivent débuter en début d’année prochaine pour une durée de 2 ans et se chiffrent à 33 millions d’euros. La construction et l’exploitation de ces équipements ont été confiées à un groupement mené par Suez et composé entre autres de Storengy, une filiale d’Engie.

Selon les porteurs de ce projet, deux premières technologiques mondiales vont être mises en œuvre sur le site. Ainsi, les boues vont subir un procédé d’ultra-déshydratation par carbonisation hydrothermale qui permettra de diviser par quatre leur volume en consommant 3 à 4 fois moins d’énergie qu’un sécheur thermique conventionnel, tout en réduisant les nuisances potentielles associées au séchage. Ce procédé, développé par Suez, « accroît sensiblement la production de biométhane et produit une nouvelle ressource matière supplémentaire, le biochar, valorisable soit par retour à la terre, soit par combustion pour la production d’énergie », détaille un communiqué de presse.

Cette carbonisation hydrothermale (ou HTC pour hydrothermal carbonization) est une technologie inspirée du procédé naturel de transformation de la matière organique en charbon. Elle consiste ici en un conditionnement thermique à haute pression et haute température des boues d’épuration digérées, grâce à la vapeur d’eau récupérée sur l’unité de valorisation des ordures ménagères située à proximité du site.

100 % du CO2 capté par l’unité de méthanation

Deuxième innovation technologique : un processus de méthanation catalytique va permettre de capter le CO2 émis par l’unité de méthanisation. Alors qu’il est habituellement rejeté dans l’atmosphère, ce CO2 sera couplé avec de l’hydrogène vert afin de produire du méthane de synthèse, qui a les mêmes caractéristiques chimiques que le biométhane. « La technologie innovante de méthanation catalytique, mise en place par Storengy pour la première mondiale au stade industriel sur une telle installation, permettra de transformer la totalité du CO2 émis en méthane de synthèse, gaz vert renouvelable », indique un communiqué.

L’hydrogène sera quant à lui fabriqué par électrolyse de l’eau à partir de l’électricité produite grâce à l’implantation de 12 000 m² de panneaux photovoltaïques à proximité immédiate du site. Le surplus d’électricité non utilisée par la méthanation sera réinjecté sur le réseau électrique pour alimenter la station.

Concernant le méthane de synthèse, la Communauté d’Agglomération Pau Béarn Pyrénées déclare avoir obtenu de la Commission de régulation de l’énergie une partie des dérogations nécessaires à l’injection du méthane de synthèse dans le réseau de gaz naturel et a sollicité auprès du ministère de la Transition écologique l’octroi des autorisations complémentaires. Cette expérimentation, dont le gestionnaire de réseau GRDF sera partenaire, doit permettre à terme de décliner un cadre technique, réglementaire et financier pour le développement de la filière Power-to-Gas.

Au total, le méthane injecté dans le réseau de gaz de ville devrait représenter à terme 13 000 MWh/an, soit l’énergie équivalente au chauffage de 1 200 foyers. De plus, le site disposera de chaleur excédentaire, valorisable en tant qu’externalité positive, par exemple sur des cultures maraîchères proches ou une ferme aquaponique.

De l’azote produit à partir des résidus liquides de la biométhanisation

La récupération des énergies fatales du site permettra la mise en œuvre de boucles énergétiques vertueuses. Par exemple, la réaction de méthanation catalytique, qui a la particularité d’être exothermique, permettra la valorisation des calories pour alimenter d’autres briques de process. De la même façon, la chaleur récupérée sur la carbonisation et sur l’électrolyseur permettra le chauffage du méthaniseur et la valorisation de l’azote.

Car en plus du biométhane, du méthane de synthèse, de l’électricité verte, de l’hydrogène, de la chaleur et du biochar, le site valorisera d’autres ressources, dans une démarche d’économie circulaire en boucle courte. Il est ainsi prévu de fabriquer de l’azote à partir des résidus liquides de la biométhanisation. Ceux-ci sont en effet chargés en azote, un composé qu’il faut éliminer avant traitement par l’unité de dépollution. « Plutôt qu’un traitement coûteux, l’azote est extrait par stripping grâce à la chaleur verte récupérée sur le site. Le produit obtenu est une solution ammoniacale valorisable localement en engrais agricole : avec 320 m³ de sulfate d’ammonium, ce sont 570 ha de cultures de maïs qui peuvent être fertilisées annuellement », précise un dossier de presse.

Le site produira également de l’oxygène grâce à l’électrolyse de l’eau, qui sera recyclé sur l’unité de dépollution des eaux usées afin d’aérer les bassins biologiques. Enfin, l’eau réutilisée permettra d’irriguer certains espaces verts du site.

Burn-out : comment bien se préserver au travail ?

Psychologue de formation, Catherine Vasey est spécialisée dans le burn-out depuis une vingtaine d’années. Elle accompagne des patients atteints de burn-out dans son cabinet en Suisse et anime aussi des séminaires de prévention en entreprise. Elle a écrit trois livres sur le sujet : Burn-out : le détecter et le prévenir, Comment rester vivant au travail, et La boîte à outils de votre santé au travail. Elle est aussi à l’origine du site NoBurnout dans lequel elle partage des ressources et des informations sur le sujet.

Ses travaux se basent essentiellement sur sa pratique de terrain ; ils ont pour but de vulgariser cette thématique et partager des outils pratiques, afin de se sortir du burn-out sans séquelles et pouvoir retourner au travail. Entretien.

Techniques de l’Ingénieur : Qu’est-ce que le burn-out ?

Catherine Vasey, psychologue.

Catherine Vasey : Le burn-out est un processus, et non pas un état, qui évolue dans le temps. Il s’agit d’un épuisement causé par un stress chronique au travail, qui dure plus de 6 mois. Durant un burn-out, le problème ne vient pas tellement du stress ou de sa gestion, mais d’un manque de récupération à la suite de ce stress. C’est d’abord un épuisement du corps, ce qui le distingue totalement d’une dépression, car ce n’est ni un problème psychique, ni psychiatrique. Il s’agit d’un épuisement du système nerveux autonome sympathique et parasympathique. Le système nerveux autonome sympathique est la « pédale d’accélération » de notre organisme, et le parasympathique en est le « frein ». Lors d’un burn-out, ces deux systèmes sont atteints et le corps ne peut plus être stimulé ou récupérer. Au cours d’un épuisement vraiment grave, la personne n’arrive plus à se concentrer, à récupérer et ressent une intense fatigue. Et c’est cet épuisement biologique qui influence le moral.

Il existe d’ailleurs un examen biologique très récent qui permet d’évaluer le degré d’épuisement d’un organisme. C’est ce qu’on appelle la variabilité de la fréquence cardiaque. Des électrodes sont posées sur le thorax d’une personne et enregistrent la fréquence cardiaque pendant 24 h. Plus cette fréquence cardiaque varie, mieux c’est pour le corps, car cela signifie que le système nerveux autonome est en bonne santé. Si en revanche elle est plus rigide et arrive moins à s’adapter à la vie courante, c’est que le système nerveux autonome est épuisé. Cet examen permet aussi de bien distinguer les personnes en dépression de celles en burn-out. Ce n’est pas la manière la plus courante de réaliser un diagnostic, mais je pense que cet examen va beaucoup se développer. Le burn-out reste une pathologie récente qu’on n’a pas fini de conceptualiser donc on développe encore des traitements et méthodes de diagnostic.

Quels sont les facteurs de risques ?

Il existe trois types de facteurs de risques : les facteurs sociétaux, organisationnels et individuels.

Au sein des facteurs sociétaux, nous retrouvons des risques liés à notre mode de vie. D’abord, la sédentarité croissante dans nos vies privée et professionnelle affecte notre récupération au stress. Initialement, le stress est une réaction physiologique pour agir physiquement – typiquement par l’attaque ou la fuite. Le corps s’attend à ce que nous dépensions ce trop-plein d’énergie dans une activité physique. Or aujourd’hui, nous stressons beaucoup, mais nous ne déchargeons pas cette énergie.

D’autre part, les nouvelles technologies participent au stress, car notre vie professionnelle empiète sur notre vie personnelle et peut créer une surcharge mentale et une impossibilité à récupérer. Ensuite, la société occidentale valorise énormément le travail, qui est intimement lié à notre identité et devient donc une priorité de vie. Or le burn-out arrive justement aux personnes extrêmement investies dans leur poste et très engagées. La perte de sens est également un facteur de risques. Il existe de nombreuses professions où les personnes perdent le sens de ce qu’elles font au regard de leurs valeurs professionnelles. Cela peut arriver par exemple aux ingénieurs qui travaillent dans la qualité, mais qui se voient dans l’obligation d’écourter les process pour sortir des rapports ou des produits plus rapidement. Cela ne correspond pas du tout à l’image qu’ils ont d’un travail bien fait et ils ont la sensation de faire des compromis sur leurs valeurs.

Il existe également des facteurs organisationnels, liés à l’entreprise. C’est le cas lorsque les délais sont trop courts, les attentes trop nombreuses ou complexes, lorsqu’il y a un manque d’organisation, de reconnaissance etc.

Et enfin, il y a des facteurs individuels. Certaines personnalités sont plus à risque, notamment les personnes perfectionnistes, surengagées dans leur travail, qui ont du mal à décrocher. Comme ces facteurs sont internes à l’individu, le fait de changer de poste ou d’entreprise ne suffit pas forcément pour guérir d’un burn-out et la situation peut recommencer.

Dans tous les cas, un seul facteur ne cause jamais à lui seul un burn-out. C’est l’accumulation de plusieurs facteurs d’usure qui provoque cet épuisement du corps, devenu incapable de se ressourcer.

Comment agir pour éviter un burn-out ?

Tout d’abord, il faut être conscient de ses propres signaux d’alerte, d’où l’importance de bien se connaître pour les reconnaître et mettre en place des mesures pour se préserver au maximum. Parmi ces mesures, il est nécessaire de préserver son sommeil, se défouler davantage et se ressourcer dans notre vie privée. Une erreur commune est de penser qu’il faut se reposer pour aller mieux. Or l’important est de récupérer activement, par exemple en faisant des activités physiques (marche, footing, sport…), en s’occupant de son jardin, en assistant à un match de foot où on se lève, crie, se défoule. C’est important de comprendre que le corps peut stresser, ça n’a rien de problématique, mais après il doit récupérer.

Du point de vue professionnel, il faut se focaliser sur ce qui nous fait du bien dans notre travail. En période de stress, nous nous concentrons souvent uniquement sur les sources potentielles de dangers donc sur tout ce qui pourrait poser problème. Nous perdons donc de vue nos succès, nos intérêts. Changer de regard permet de réagir sans nécessairement modifier le contexte professionnel. Il faut se tourner vers ce qui nous fait du bien, comme prendre des pauses avec les collègues que l’on apprécie par exemple.

Comment guérir d’un burn-out ?

Le traitement se fait en trois étapes. D’abord, il faut remonter le niveau d’énergie. Certaines personnes vont stresser et culpabiliser d’être en arrêt de travail et ne récupèrent pas, d’où la nécessité d’être bien accompagné. Ensuite, la deuxième étape est une étape de redynamisation, d’identification de ses facteurs de risque et de préparation au retour au travail. Il s’agit de comprendre pourquoi on a eu un burn-out et de se réentraîner intellectuellement. Cela s’explique biologiquement : le cortisol, une des hormones du stress, fait des dégâts au niveau du cerveau donc des neurones sont blessés et atteints à cause du stress chronique. Si on veut réhabiliter l’intellect, il faut faire des exercices de mémoire, de concentration tous les jours avant de revenir au travail. Et bien sûr, il faut également faire attention à son sommeil et faire de l’activité physique. Sans cette étape, certaines personnes mal accompagnées n’arrivent plus à se concentrer, à organiser une journée, et restent en arrêt de travail.

Enfin, la troisième phase du traitement est le retour au travail. Il y a souvent une incompréhension là-dessus, car le burn-out n’est pas comme toute maladie où on revient au travail une fois guéri. Dans ce cas, le retour au travail fait partie du processus de guérison. Parmi mes patients, environ 80 % des personnes en burn-out grave retournent dans le même poste. Un des symptômes du burn-out est de vouloir quitter un emploi qui nous épuise, mais ce n’est pas forcément la solution. Une partie des 80 % va par la suite changer de travail, mais ça sera par choix et non par incapacité de réaliser leur travail. Cette étape de retour dans le milieu professionnel permet de guérir, car les personnes vont réussir à travailler en situation de stress et ainsi se réhabiliter à leurs yeux. Je milite grandement pour le retour au travail, ce qui n’est pas le cas de tous les professionnels, car c’est un véritable enjeu pour finaliser la guérison.

Que doit mettre en place l’entreprise pour protéger les salariés ?

D’abord, il est important de sensibiliser toute l’entreprise au risque de burn-out, à ses manifestations, aux facteurs de risques, à comment faire le bilan pour soi-même. Ensuite, l’entreprise doit former les chefs de proximité à repérer les facteurs d’usure qui peuvent se manifester dans leur équipe et à comprendre sur quels leviers ils peuvent agir. Ce sont eux les plus proches du terrain et donc les plus à même de prévenir les burn-out en agissant en amont.

Si le manager constate un changement chez un salarié, il pourra être attentif et lui en parler directement. Ce genre d’entretien nécessite du tact donc une formation en amont peut être nécessaire. Il s’agit de parler avec la personne sans critiques ou avertissement, afin de comprendre ce qui lui arrive. Évidemment, cette discussion est bien plus facile à avoir si toute l’entreprise a été sensibilisée en amont. Le processus du burn-out s’accompagne aussi de déni, donc un seul entretien ne suffira certainement pas, et le manager devra en parler plusieurs fois avec le salarié et suivre son évolution, s’assurer qu’il arrive mieux à se préserver, que sa charge de travail est adéquate etc.

Une chose importante à noter est qu’il n’y a pas une mesure efficace pour tout le monde afin d’éviter l’épuisement professionnel. Par exemple, sujet particulièrement d’actualité, le télétravail a pu être bénéfique pour certaines personnes, car il leur a permis de se ressourcer alors que pour d’autres, il a créé de l’isolement, une surcharge de travail et une impossibilité à décrocher. Ce qui est efficace, c’est d’être proche des gens, car les facteurs de risques sont individuels.

Vous travaillez depuis 20 ans dans cette thématique ; avez-vous constaté une augmentation du nombre de burn-out ?

Oui et pour plusieurs raisons. Déjà, nous parlons davantage de ce sujet, c’est mieux identifié, diagnostiqué, les personnes comprennent ce qu’il leur arrive et les médecins y sont plus attentifs. Ensuite, les facteurs de risques se sont développés avec notre modèle actuel. Nous ne travaillons pas de la même manière qu’il y a 20 ans, voire 50 ans. Les nouvelles technologies facilitent certains aspects de nos postes, mais nous rendent aussi plus sédentaires, et compliquent la séparation avec la vie personnelle. Or ce sont des terrains favorables au stress chronique.

Metaverses : des mondes virtuels pour rester en contact

Metaverse ! Les GAFAM et les éditeurs de jeux vidéo en parlent comme le prochain Graal. Imaginé en 1992 par Neal Stephenson dans le roman de science-fiction « Le Samouraï virtuel », ce concept réunit un ou plusieurs mondes virtuels partagés en 3D qui sont interactifs, immersifs et collaboratifs.

Le film de science-fiction « Ready Player One » (2018) offre un aperçu de ce que de nombreuses entreprises technologiques prédisent comme étant la prochaine grande nouveauté d’Internet. Inspiré d’un roman d’Ernest Cline paru en 2011, le héros (un adolescent orphelin) du film fuit sa triste existence morne dans le monde réel en se plongeant dans la réalité virtuelle (RV). Le garçon enfile son casque, qui ressemble à une paire de lunettes RV, et s’échappe dans un univers virtuel délirant, baptisé « OASIS ».

Sans le savoir, de nombreuses personnes connaissent un Metaverse si elles ont des adolescents ou si elles sont elles-mêmes joueuses. Le plus connu du grand public est en effet le jeu Fortnite. Les plus anciens ont certainement entendu parler de Second Life. Apparu au début des années 2000, ce jeu rassemblait dans son univers réaliste des centaines de milliers d’« habitants ». Il avait son propre système monétaire. Trop avant-gardiste et trop complexe, il est retombé dans un relatif oubli.

La fatigue due aux réunions Zoom

Mais pourquoi cet intérêt de Facebook pour les Metaverses ? Le réseau social s’étant aperçu qu’il était distancé par d’autres poids lourds (comme Epic Games, éditeur de Fortnite), il veut miser sur sa division de réalité virtuelle et de réalité augmentée, « Facebook Reality Labs » (FRL), pour que « d’ici 5 ans environ (…) les gens nous perçoivent avant tout comme une entreprise du Metaverse », a déclaré son fondateur, Mark Zuckerberg.

Baptisé « Horizon Workrooms », le projet (pour l’instant en version bêta) de métavers de Facebook constitue une nouvelle façon de collaborer au travail via son casque de RV « Oculus Quest 2 ». Un utilisateur peut partager des fichiers depuis son bureau et faire du brainstorming sur des tableaux blancs infinis. Il peut discuter avec ses collègues dans la salle virtuelle (16 personnes maxi) ou avec des personnes qui l’ont rejoint par appel vidéo (jusqu’à 34 autres personnes).

Quelques mois auparavant, Microsoft avait déclaré être « positionné de manière unique » avec une pile d’outils d’intelligence artificielle et de réalité mixte pour aider les entreprises à commencer à développer des applications de Metaverse.

Les Metaverses apparaissent comme une évolution du bureau post-covid. Dans un récent rapport, les analystes du cabinet Forrester expliquaient que la création d’un bureau dans un cadre virtuel pourrait être un antidote à la fatigue du Zoom. Et de citer 4 principaux avantages :

  • la reproduction de l’expérience d’un bureau en « vrai » ;
  • créer une expérience partagée et renforcer les valeurs de l’entreprise ;
  • développer une culture commune ;
  • mettre fin au débat entre le plan de bureau ouvert et le bureau privé.

L’expérience des employés étant présentée comme une priorité croissante pour les entreprises, certaines ont tenté de tirer profit des contraintes sanitaires pour explorer d’autres pistes. C’est le cas d’Accenture qui compte quelque 7 000 collaborateurs en France.

En 2020, ce cabinet qui accompagne les organisations dans leur transformation technologique et humaine a commencé ses expériences de réalité virtuelle. Il a construit un salon virtuel pour 150 directeurs généraux dans 25 pays. L’entreprise dispose désormais d’un « Nième étage » pour créer une expérience partagée entre les employés ou organiser des formations.

Autre usage concret d’un Metaverse : des simulations pour l’industrie. L’une des références en la matière est le Metaverse de Nvidia (un poids lourd américain connu notamment pour ses cartes graphiques).

Des « jumeaux numériques »

Baptisée Omniverse, sa plateforme héberge un espace virtuel partagé à destination d’ingénieurs, de développeurs et de créateurs afin de créer des simulations dans le monde virtuel, de les tester puis de les exporter en version physique si le résultat est satisfaisant.

Omniverse peut simuler des particules et des fluides, des matériaux et même des machines, jusqu’à leurs ressorts et leurs câbles.

Omniverse est utilisé par un nombre croissant d’industries pour des projets tels que la collaboration en matière de conception et la création de « jumeaux numériques », c’est-à-dire des simulations de bâtiments et d’usines du monde réel. BMW Group l’utilise pour créer une usine du futur, tandis que Mercedes teste son programme de conduite autonome. Quant à Ericsson, il utilise Omniverse pour simuler la propagation des ondes 5G dans les zones urbaines denses.

Mais les Metaverses pourraient aussi révolutionner d’autres secteurs, y compris celui de l’art. « L’art numérique, avec les NFT, est très présent dans les Metaverses. Il y a énormément de musées et d’expositions en ligne. C’est un nouveau mode de présentation et même de collection. Cela représente un tournant extrêmement important dans l’histoire de l’art. En ce moment, je propose une exposition hybride avec les mêmes œuvres dans une galerie à Paris et dans le Metaverse de Cryptovoxels. Il ne s’agit pas de remplacer les usages, mais au contraire de les augmenter et de proposer de nouvelles façons d’appréhender des œuvres numériques », explique Denis Santelli qui a enseigné l’art des nouveaux médias à l’École nationale supérieure d’arts de Paris-Cergy et la conception de médias interactifs à l’Institut de l’Internet et du Multimédia.

Aujourd’hui artiste, Denis Santelli estime que ce sera « la ruée dans les prochains mois, car toutes les marques et les enseignes veulent leur espace dans le Metaverse pour offrir des collections à leurs clients et prospects, proposer d’acheter des NFT… Après avoir créé leur site web puis leurs applications, les entreprises vont maintenant développer leur monde virtuel ».

Un développement insuffisant des réseaux de chaleur selon la Cour des comptes

Les réseaux de chaleur, encore appelés chauffages urbains, fonctionnent selon le principe du chauffage central, mais appliqué à l’échelle d’un quartier ou d’une ville. La chaleur est produite pour l’ensemble des usagers dans une ou plusieurs centrales de production ou chaufferies. En 2015, la loi relative à la transition énergétique pour la croissance verte a fixé un objectif pour la France de multiplier par cinq entre 2012 et 2030 la quantité de chaleur et de froid renouvelables et de récupération livrée à partir de ce type d’installations. La Cour des comptes vient de publier un rapport dans lequel elle analyse la manière dont l’État et les collectivités territoriales compétentes répondent aux problématiques de mise en œuvre de cet objectif national.

L’institution de la rue Cambon constate qu’en France « ce mode de chauffage dit urbain est une contribution efficace à la transition énergétique qui reste insuffisamment exploitée ». Ainsi, entre 2012 et 2019, la consommation de chaleur renouvelable par les réseaux de chaleur est passée de 0,68 à 1,21 Mtep (millions de tonnes d’équivalent pétrole). Malgré cette augmentation de 10 % par an, ce rythme de croissance se révèle insuffisant puisque la chaleur renouvelable livrée en 2030 devrait atteindre 2,26 Mtep, alors que l’objectif fixé par la loi est de 3,4 Mtep. Cette croissance est d’autant plus insuffisante que la Cour considère que le potentiel de ces réseaux est estimé à 5,8 Mtep, soit environ 10 % du besoin national de chaleur.

L’investissement dans de nouvelles infrastructures reste élevé

Le développement de ce mode de chauffage nécessitera une augmentation de la part des énergies renouvelables approvisionnant les réseaux existants ainsi que l’investissement dans de nouvelles infrastructures. Mais cette stratégie se heurte à plusieurs difficultés. La principale est les coûts élevés des investissements initiaux, ceux-ci demandant une approche à long terme sur une durée allant de 20 à 25 ans avant le lancement d’un projet. Or, des incertitudes existent quant à l’évolution des consommations et usages des bâtiments, liées notamment aux différents programmes de rénovation des quartiers.

Face au poids des investissements nécessaires, 80 % des réseaux de chaleur font l’objet d’une délégation de service public (DSP). L’enquête de la Cour des comptes a identifié plusieurs exemples où les contrôles des collectivités délégantes étaient lacunaires, en raison souvent de l’absence de ressources humaines ou techniques adaptées. « Pour cette raison et pour mieux inscrire les réseaux de chaleur et de froid dans l’aménagement des espaces urbains, la compétence de création, d’aménagement, d’entretien et de gestion des réseaux de chaleur et de froid urbain devrait être transférée à tous les établissements publics de coopération intercommunale de plus de 20 000 habitants » conseillent les auteurs du rapport.

Autre carence mise en évidence : la planification territoriale insatisfaisante du développement de ces équipements, qui incombe aux collectivités, à tous les échelons territoriaux. Pour y remédier, l’une des préconisations de la Cour est d’adopter, dans les schémas directeurs des réseaux de chaleur, « une approche multi-énergies, notamment pour identifier les interactions entre les réseaux d’électricité, de gaz et de chaleur à des fins d’optimisation du fonctionnement et des coûts. Cette approche devrait conditionner les aides à l’investissement du fonds chaleur. »

Une transparence insuffisante de la facturation

Le document pointe aussi du doigt la difficulté à obtenir des informations sur les données économiques des infrastructures en place, par exemple sur la facturation. Pourtant, le Code de l’énergie prévoit la collecte de données économiques et statistiques sur l’activité des réseaux de chaleur et de froid. Mais des contraintes liées à la préservation des secrets industriels et commerciaux des exploitants de réseau rendent certaines données économiques peu accessibles ou incertaines, notamment quant au prix de vente de la chaleur. « Il conviendrait d’améliorer la diffusion de ces données utiles pour l’État et les collectivités locales délégantes, tant pour la conduite de la politique nationale de l’énergie que pour une gestion mieux éclairée des réseaux », note le rapport. Les auteurs ajoutent un peu plus loin : « à cette fin, il serait souhaitable que les collectivités délégantes publient un rapport annuel sur les prix et la qualité et le prix du service public de chauffage urbain, à l’image de l’obligation à laquelle elles sont déjà tenues pour d’autres services publics locaux. »

Soft skills : les compétences utiles pour la carrière des ingénieurs

Laure Bertrand. Crédit : Pôle Léonard de Vinci.

Laure Bertrand est directrice soft skills, développement durable et carrière au Pôle Léonard de Vinci, qui réunit une école de commerce (EMLV), une école d’ingénieurs (ESILV) et une école du digital (IIM). Durant les 5 années de formation, les élèves des trois écoles reçoivent de manière transversale des cours sur la gestion du stress, le travail d’équipe, la créativité etc. Celle qui a toujours travaillé de près ou de loin dans les soft skills nous explique comment les compétences personnelles entrent en jeu dans le travail des ingénieurs.

Techniques de l’Ingénieur : Qu’est-ce qu’on appelle les soft skills ?

Laure Bertrand : Ce sont des compétences humaines et relationnelles. Le mot « compétence » implique d’ailleurs que l’on peut acquérir ces soft skills, les développer et se former. Ce n’est pas quelque chose de figé. Il existe beaucoup de classifications car c’est un secteur émergent, donc peu de recherches scientifiques ont été réalisées sur le sujet. Le plus souvent, nous parlons de compétences intra-personnelles – ce qui me concerne moi – et de compétences interpersonnelles – ce qui concerne ma relation avec les autres.

Les compétences intra-personnelles dépendent de mon action, de ma capacité à m’organiser, à gérer mon temps. Beaucoup de ces aptitudes concernent les émotions : l’intelligence émotionnelle, la gestion de ses propres émotions, de son stress etc. D’autres compétences sont davantage cognitives comme la créativité, la posture d’apprentissage, le développement d’un esprit critique.

Les compétences interpersonnelles concernent la coopération : comment je me positionne dans une relation, est-ce que je suis capable d’écoute, d’empathie, de générer de la conviction, de travailler en équipe, de gérer les conflits ?

Enfin, j’ajouterais un troisième point qui me semble primordial et que nous avons également ajouté à notre programme de formation, comme tout ce que j’ai évoqué précédemment : la connaissance de soi. Plus je me connais, plus je suis capable de comprendre mes modes de fonctionnement, mes atouts mais aussi mes limites, donc je sais ce qu’il va falloir que je développe. C’est une base très importante pour mieux comprendre les autres et avoir des relations plus harmonieuses, en prenant en compte les atouts de chacun.

Comment enseignez-vous les soft skills aux étudiants de l’école d’ingénieurs (ESILV) du Pôle Léonard de Vinci ?

Nous avons distingué 13 compétences Soft Skills prioritaires que nous souhaitions inculquer à nos étudiants durant leur formation. Il s’agit par exemple de développer leur leadership et management, communiquer de manière respectueuse et impactante ou gérer un projet individuel ou collectif.

Sur les 5 ans, un total de 350 heures est destiné aux « semaines transversales » avec des hackathons en équipes interdisciplinaires provenant de nos 3 écoles, sur des projets sociétaux et environnementaux. Cette transversalité prépare le plus tôt possible les étudiants à collaborer avec des profils différents et leur apprend à avoir une forme de souplesse, ce qui n’est pas intuitif.

Ensuite, et cela est spécifique à l’ESILV, ils reçoivent des formations projet professionnel et carrières qui permettent de développer la connaissance de soi, la communication et prise de parole, l’impact personnel. Et enfin, ils reçoivent un accompagnement soft skills dans le cadre de leurs projets ingénieurs. Intégrer les enseignements des soft skills à ceux des hard skills et des projets leur permet de les appliquer de manière très concrète dans l’action.

Comment identifier ses propres soft skills, notamment lorsqu’on n’a pas eu de formation sur le sujet ?

La première étape, c’est la conscientisation. Il faut donc prendre un moment pour analyser notre mode de fonctionnement et ce que l’on sait bien faire. Pour cela, on peut par exemple partir du feed-back de personnes qui nous connaissent comme nos proches et nos collègues. Il existe également des modèles de personnalité qui peuvent nous aider. Dans le cadre de nos formations, nous utilisons le VIA-Survey (Values in Action Character Survey) pour évaluer les forces de caractère, le DISC (Dominance, Influence, Stabilité, Conformité), le MBTI qui est le modèle de personnalité le plus utilisé aujourd’hui dans les entreprises, et le LEA (leadership effectiveness analysis) qui définit notre style de leadership. Ces tests doivent être utilisés comme des outils de connaissance de soi, et peuvent nous aider à réfléchir à notre projet de carrière. Il est également possible de faire appel à un coach pour nous aider dans ce travail de questionnement sur nous-mêmes et de mise à plat de nos compétences. Quels que soient les outils utilisés, tout passe par une véritable introspection et un recul sur soi-même.

Peut-on tout apprendre ? Comment acquérir des compétences comme l’intelligence émotionnelle, l’empathie ?

Oui, tout peut s’apprendre. Pour avoir une meilleure intelligence émotionnelle par exemple, cela passe d’abord par la reconnaissance qu’il y a des émotions dans le monde du travail, chose qui n’est pas évidente pour tout le monde. On aimerait faire croire que le monde de l’entreprise est lisse et rationnel, or les émotions s’expriment constamment en lien avec notre contexte professionnel. L’important ensuite est d’accueillir ses propres émotions et d’apprendre à les reconnaître, comprendre comment elles se manifestent chez soi et chez les autres. Puis se questionner sur ce qu’elles signifient, sur notre véritable besoin derrière et sur la manière de solutionner cette situation. Il faut tout de même avoir quelques connaissances sur le sujet, d’où l’importance de s’appuyer aussi sur les travaux de scientifiques, de psychologues. Et enfin, tout va passer par la mise en pratique.

Quelles sont les soft skills les plus recherchées chez les ingénieurs ?

Elles diffèrent en fonction du poste. On n’attend pas les mêmes compétences chez un ingénieur qui aura des fonctions de management, de gestion de projet ou s’il est un expert indépendant. Une des premières qualités indispensables est la capacité à travailler de manière transversale et interdisciplinaire car les ingénieurs sont amenés à coopérer avec d’autres corps de métiers qui n’ont pas nécessairement la « culture ingénieur ».

Ensuite, ils doivent être formés à la dimension humaine du travail d’équipe. Il ne suffit pas de réunir les meilleurs cerveaux pour aboutir au meilleur projet. Il faut qu’ils soient capables de collaborer, de distinguer les points forts de chacun, de donner et recevoir des feed-back, de gérer des conflits.

Enfin, et cela est dû au rythme effréné de l’évolution des technologies, les ingénieurs doivent être capables d’être flexibles et d’avoir la capacité d’apprendre en permanence.

Durant un entretien d’embauche, comment un recruteur peut discerner les soft skills d’un candidat et comment un candidat peut mettre en avant ses compétences personnelles ?

D’abord, il faut être attentif au non-verbal. Ensuite, le candidat doit parler de lui et ne pas se contenter de phrases déclaratives comme « Je suis perfectionniste, je sais gérer une équipe etc. ». L’idée est de mettre en avant des concrétisations concrètes. Le recruteur doit donc l’emmener à parler de ses expériences.

Pour ma part, je pense également qu’il est nécessaire d’évoquer ses réussites, mais aussi les erreurs et les difficultés traversées. Dans notre culture, nous avons tendance à stigmatiser les échecs et donc à cacher nos insuccès. Nous ne disons pas assez qu’un échec n’est pas forcément un problème à partir du moment où il nous fait avancer. Il me semble qu’avoir un recul sur son parcours et réaliser une relecture de ses expériences est une marque de maturité à laquelle les recruteurs doivent être sensibles.

Et enfin, même si un candidat ne semble pas avoir certaines compétences personnelles, on peut aussi être attentif à son ouverture, sa volonté d’apprendre et sa capacité à se remettre en question. Ainsi, il sera plus apte à acquérir de nouvelles compétences en étant accompagné.

Pourquoi parle-t-on autant aujourd’hui des soft skills ?

Si le terme anglais est récent, nous parlions auparavant des « compétences personnelles et professionnelles ». J’ai moi-même commencé ma carrière dans les années 80 en travaillant là-dessus donc le sujet n’est pas nouveau. Cependant, il était à l’époque plutôt réservé aux leaders, aux managers. Je pense qu’aujourd’hui, les révolutions technologiques et l’obsolescence de certains métiers ont rendu la nécessité des soft skills particulièrement évidente. Avec l’automatisation, certaines tâches vont être modifiées voire supprimées, mais les qualités humaines et personnelles s’avèrent pérennes et ne pourront pas être remplacées. C’est pourquoi des compétences comme la flexibilité et l’agilité sont essentielles.

D’autre part, notre mode de fonctionnement actuel crée de plus en plus de pression. Tout va plus vite, ce qui génère de l’anxiété, du stress, d’où la nécessité de savoir contrôler ses émotions et bien réagir à la pression. Je préférerais au contraire que les entreprises deviennent des environnements ouverts et bienveillants mais malheureusement ce n’est pas toujours le cas, donc il faut pouvoir tenir le rythme.

Hackathon IA4AI : l’intelligence artificielle pour des applications industrielles

L’IA au cœur de l’amélioration des process industriels

L’industrie regorge de données et même si l’entraînement de ces algorithmes, le déploiement et l’exécution ont été favorisés par l’accroissement des performances des systèmes informatiques, CPU et GPU en tête, le secteur est loin d’utiliser toutes les capacités de traitement et d’analyse offertes par l’intelligence artificielle.

ArianeGroup, Atos et SKF vous proposent d’explorer les possibilités offertes par ces algorithmes, exploitables dans les centres de données (cloud) ou à la source (on edge) pour des applications industrielles dont les contraintes de latence, de coût et de cybersécurité sont importantes et peuvent réellement impacter les chaînes de production.

Soutenu par leurs partenaires Mathworks et AWS, ils lancent à un défi aux étudiants et startups : à vous de le relever !

Les règles

Tous les étudiants de l’enseignement supérieur et toutes les startups basées en France sont conviés à participer à cette première édition. Les participants devront proposer des développements ou améliorations d’applications industrielles s’appuyant sur l’intelligence artificielle.
Les inscriptions seront ouvertes jusqu’au 20 octobre 2021.
Ensuite, un premier jeu de données sera fourni aux participants, ainsi que des ressources qui les aideront à répondre à la problématique (jetons de données d’AWS, soutien méthodologique de Mathworks sous forme de workshop et articles des Techniques de l’Ingénieur).
Les participants auront alors 2 semaines pour rendre leur copie : la description de la méthodologie utilisée et un script scientifique.
A l’issue de cette première étape, 5 finalistes seront  sélectionnés pour travailler sur le second jeu de données et livrer leurs résultats le 8 décembre. Lors de la finale sur le Campus de l’Espace (Vernon, 27), ils présenteront leurs pitch devant un jury d’experts scientifiques et une audience composée des partenaires et de leurs clients.

Les gains

Les finalistes remporteront des lots allant jusqu’à 5 000 €, en fonction de leur place sur le podium. Plus de 10 000 € de lots sont mis en jeu ainsi que de nombreuses autres récompenses et opportunités professionnelles.

Pour en savoir plus et participer, c’est ici !

Comment comprendre le rôle de l’océan Austral ?

L’océan Austral joue un rôle important dans la régulation du climat, notamment à travers le captage et le stockage de 30 % du CO2 atmosphérique. Cette région est difficile à explorer, car peu accessible, sauf pour les pays limitrophes tels que l’Australie, l’Afrique du Sud, l’Argentine et la France. Pour mieux comprendre le rôle de l’océan Austral et ce que l’on en connaît, Techniques de l’ingénieur a échangé avec trois chercheuses. Catherine Jeandel est directrice de recherche CNRS en géochimie marine rattachée au Laboratoire d’études en géophysique et océanographie spatiales (LEGOS). Hélène Planquette est directrice de recherche CNRS spécialisée dans la biogéochimie marine au laboratoire des sciences de l’environnement marin (LEMAR). Toutes deux ont dirigé l’expédition Swings (South West Indian Geotraces Section). Et enfin, Rosemary Morrow, physicienne et océanographe au LEGOS, réalise une surveillance à très long terme des propriétés physiques et de la circulation de cet océan.

Techniques de l’ingénieur : Depuis quand réalise-t-on des expéditions dans l’océan Austral ?

Catherine Jeandel : On étudie l’océan Austral depuis l’expédition du Challenger entre 1872 et 1876. C’est à cette même période qu’est née cette jeune discipline qu’est l’océanographie [qui consiste à l’étude des cycles biogéochimiques, des courants océaniques, des écosystèmes marins, des organismes ainsi que de l’interaction entre l’océan et les changements climatiques, NDLR].

Que connaît-on de l’océan Austral ?

Catherine Jeandel : L’océan n’est pas homogène. Les eaux marines sont organisées en couches, un peu comme un millefeuille, qui circulent les unes au-dessus des autres en fonction de leur densité. Les eaux chaudes et peu salées vont être en surface. Et plus les eaux sont froides et salées, plus elles sont denses, et plus elles seront en profondeur. Il y a par exemple des eaux très denses, car très froides qui vont circuler à 5 kilomètres de profondeur. Ces eaux à -1,8°C se forment notamment dans la région de glace de mer autour du continent Antarctique. La formation de glace enlève de l’eau douce et cause une sur-salination locale. Le combo très froid et très salé donne donc des eaux très denses. Et lorsque ces eaux vont circuler vers le nord, elles vont glisser sous des eaux plus chaudes et tapisser les fonds de l’océan.

Lorsque nous étions à 2 000 km de l’Antarctique, lors de l’expédition Swings, nous les avons rencontrées. Nous les avons mesurées et échantillonnées grâce à des sondes. Ces eaux avaient été mesurées une dizaine d’années auparavant, et elles ont augmenté en température. Ceci en raison de la fonte des icebergs qui dessale légèrement les eaux côtières le long des côtes de l’Antarctique. Par conséquent, les eaux qui vont couler et circuler vers le nord, où nous les avons mesurées, vont avoir un point de congélation plus élevé ce qui explique leur léger réchauffement mesuré. Plus à l’ouest, sur la côte de la péninsule Antarctique au large de la Terre de Feu, l’eau s’est réchauffée 7 fois plus que les eaux autour ces dernières années, c’est énorme. On commence à voir par exemple un remplacement d’un certain type d’algue par un autre dans cette région.

Rosemary Morrow : Depuis près de 30 ans, nous mesurons la salinité et la température du premier kilomètre en continu entre Hobart (Australie) et la Terre-Adélie (Antarctique). Nous avons commencé en 1992, avec une opportunité de faire la mesure en continu à partir de bateaux de ravitaillement de l’Institut Polaire. Nous avons récemment publié une analyse d’une longue série de mesures sur 25 ans de la physique des eaux sur le premier kilomètre de l’océan Austral et le constat est clair : il y a un réchauffement net dans la partie nord. Cette partie subtropicale est vraiment en train de se réchauffer. La cuvette d’eau chaude en surface s’approfondit. Dans le Pacifique, les périodes de La Niña apportent beaucoup de chaleur dans l’Est australien, et El Niño dans le Sud américain.

Quand on passe au Sud, c’est plus nuancé. La masse d’eau que l’on y retrouve en surface se réchauffe. Mais quand on arrive dans les zones de glace, les eaux en surface refroidissent dans notre secteur, alors qu’elles se réchauffent dans l’Antarctique d’Ouest. Nous avons vu cela avec les satellites, mais nos mesures montrent que ce mécanisme pénètre jusqu’à 400 mètres de profondeur. Cela est lié au fait que la fonte des glaces s’accélère dans les années récentes, ce qui relâche de l’eau douce en surface, donc des eaux plus froides et moins salées. Entre cette zone de glace saisonnière qui refroidit en surface, et la zone subtropicale qui se réchauffe, il y a une large zone relativement homogène, dite « la zone Antarctique ». Ici, au sud des fronts polaires, les couches estivales et hivernales en contact avec l’atmosphère sont en train de se réchauffer. Mais les eaux profondes sont également en train de se réchauffer, et même de remonter un peu vers la surface. Ce n’est pas dû à la variation interannuelle, car elle n’est pas en contact avec l’atmosphère, ce sont des eaux plus vieilles.

Quelles sont les incertitudes ?

Rosemary Morrow : Une des grandes incertitudes, c’est le fonctionnement de l’océan en contact avec les glaces, dans les zones de glace et la stabilité de l’océan dans le changement climatique. Si on a trop de fonte des glaces en surface, il y a une couche de l’eau douce qui flotte. Les eaux abyssales doivent avoir une certaine salinité et densité pour plonger en profondeur dans l’océan. Si la couche de l’eau douce en surface est trop épaisse, l’eau flotte et a du mal à former des eaux profondes. C’est un processus clé, or nos observations in situ restent rares et les observations par satellites captent seulement les conditions de surface, pas en profondeur.

Ensuite, on cherche la raison pour laquelle ces eaux profondes, qui ne sont plus en contact avec l’atmosphère, se réchauffent. Nous faisons des modélisations à très haute résolution, ainsi que l’analyse des plongées des éléphants de mer (équipés de capteurs) à très haute résolution. Ce que l’on a mis en évidence, c’est qu’il y a un processus à fine échelle de remontée des eaux chaudes vers la surface. Mais nous avons peu d’observations et très peu de modèles capables d’avoir une bonne résolution à ces fines échelles, et aucun sur 30 ans.

Quels sont les projets en cours ?

Catherine Jeandel : Il y a – et y a eu – de nombreuses missions dans l’océan Austral : des campagnes autour des îles Kerguelen (mission Keops, conduites par notre collègue Stéphane Blain), autour des îles Crozet conduites par les Britanniques (R. Pollard et R. Sanders, National Oceanography Centre), autour des îles Marion-Prince-Edward conduites par nos collègues sud-africains. Sans oublier les campagnes importantes des années 80 (Programmes INDIGO, CIVA, menés par notre collègue Alain Poisson). Notre projet actuel, Swings, dure 4 ans et est financé par la Flotte Océanographique Française, le CNRS-INSU, l’Agence Nationale de la Recherche et l’Université de Bretagne Occidentale. La première étape consistait à aller en mer chercher des échantillons, et la deuxième, qui est en cours, à les analyser.

Nous avons plus de 12 000 projets, répartis entre les équipes et laboratoires impliqués (48 chercheurs répartis en 15 laboratoires). Nous allons mettre nos résultats en commun pour avoir des interprétations bien documentées. Nous allons reconstituer un grand puzzle, au cours de l’année prochaine, chacun avec sa spécialité (mesure des particules de poussière atmosphérique, mercure, éléments traces, etc.). Cette mise en commun est indispensable pour comprendre le fonctionnement d’une région de l’océan. Il faut que la circulation océanique soit décrite, comprendre les contrôles de la séquestration du CO2 (chimique, biologique, etc.) ainsi que le transport des espèces par les courants. Il est nécessaire de comprendre la pénétration du gaz carbonique dans l’océan et l’ensemble des mécanismes que cela implique.

Rosemary Morrow : La surveillance de l’océan Austral est effectuée dans trois zones difficiles à atteindre : passage de Drake (entre Antarctique et Amérique du Sud), entre l’Afrique du Sud et la mer de Grandall, et notre campagne entre la Tasmanie et l’Antarctique. En 2022 débutera un travail sur de nouvelles mesures altimétriques (niveau de mer et courant océanique). Les nouvelles technologies vont nous aider à voir la dynamique océanique jusqu’à 10 km, ce que l’on n’a pas mesuré en 30 ans.

Aujourd’hui on observe les grands tourbillons d’un diamètre de 100 km, mais pas les petits ! Je travaille activement sur ces mesures spatiales pour comprendre le processus avec la modélisation des observations spatiales et in situ (sondes en profondeur, éléphants de mer, etc.) qui peuvent permettre d’avancer sur ces questions. Nous avons certains résultats préliminaires qui montrent que la résolution de notre image de l’océan Austral doit être améliorée à fine échelle. Cela se fera dans les 10 prochaines années.

Quels sont les instruments utilisés pour étudier l’océan ?

Hélène Planquette : Nous disposons de beaucoup d’instruments dont la plupart est gérée par la Division Technique de l’INSU du CNRS. Nous utilisons par exemple une bathysonde standard et une « propre » qui est recouverte d’aluminium anodisé pour déterminer les éléments traces métalliques, qui sont présents à des concentrations très faibles (de l’ordre du picomolaire). Ces bathysondes sont des préleveurs d’eau multi-instrumentés permettant d’acquérir des données physiques (conductivité, température) et chimiques (oxygène) tout le long de la colonne d’eau et de prélever des échantillons d’eau en bouteilles Niskin (version classique) ou Go-Flo (version propre). Ceci nous permet de réaliser des échantillons sur 24 profondeurs, depuis la surface jusqu’au fond des océans. Le déploiement, la récupération et les manipulations de ces bouteilles de prélèvements nécessitent d’extrêmes précautions pour ne pas contaminer les échantillons d’eau. En effet, quel que soit le bateau, même entretenu, l’extérieur n’est jamais propre (graisse et rouille par exemple). En plus de l’acquisition du treuil et de la bathysonde propre, nous avons dû développer un conteneur laboratoire de 20 pieds, qui est un local sous air filtré, dépourvu de pièces métalliques, ce qui nous garantit un environnement de travail optimal. En effet, la plupart des particules présentes dans l’air sont éliminées, grâce au système de filtre et à la surpression, pour empêcher l’air extérieur d’entrer dans la zone de prélèvement. Les scientifiques s’habillent en conséquence à l’intérieur, notamment en portant des blouses qui retiennent les poussières de nos vêtements. C’est une salle blanche sur un bateau !

Ensuite nous disposons de collecteurs d’aérosols et de pluie, qui sont généralement placés à l’avant du bateau, pour éviter les contaminations liées aux fumées du moteur. Nous utilisons également des pompes in situ qui permettent de filtrer beaucoup d’eau – entre 600 et 2 000 litres – afin de collecter des particules de différentes tailles à différentes profondeurs. Enfin, les prélèvements de surfaces lorsque le navire avance sont effectués grâce à un « poisson » tracté, sorte de petite torpille traînée sur le côté du navire, à 5 mètres de profondeur environ.

La campagne Survostral (2018/2019), à bord de l’Astrolabe avait pour mission la surveillance des paramètres physiques dans l’océan Austral. Copyright : Sébastien Chastanet/LEGOS/IRD/Novembre 2018

Rosemary Morrow : Chaque été austral, nous mettons des observateurs dans les rotations réalisées par l’Institut Polaire (3 sur 5 réalisées). Chaque deux heures, nous lançons une sonde « expendable benthic thermograph » (XBT) qui réalise un profil de température jusqu’à 1 000 mètres de profondeur, la partie de l’océan où il y a le plus de variations rapides. Depuis 2005, nous avons également beaucoup de flotteurs Argo, des sondes autonomes qui plongent à 1 000 mètres de profondeur et dérivent avec le courant. Nous avons donc 15 ans de couverture, partout dans l’océan. Cependant, pour les années qui précèdent 2005, il faut s’appuyer sur les mesures des bateaux.

Copyright : Sébastien Chastanet/LEGOS/IRD/Novembre 2018

Dans les zones de glace, nous avons peu de mesures au-dessus de 60° de latitude provenant des balises ou des bateaux. Mais nous pouvons compter sur nos fidèles sentinelles de variations océaniques que sont les éléphants de mer – équipés de balises et de capteurs océaniques – qui plongent régulièrement jusqu’à 500-1 000 m de profondeur, même dans la glace de mer.

Ingénieur en efficacité énergétique : un profil recherché par les entreprises

Le réchauffement climatique de la planète est aujourd’hui devenu une préoccupation majeure. Face au durcissement de la réglementation, les entreprises doivent s’engager dans une stratégie de réduction de leur empreinte carbone. Elles sont donc de plus en plus nombreuses à la recherche de spécialistes de la performance énergétique. Depuis 2014, Sérine Nefzi exerce la profession d’ingénieure en efficacité énergétique. Aujourd’hui, elle est responsable de la cellule efficience énergétique au sein de la direction du patrimoine immobilier à l’université de Nantes. Nous avons échangé avec elle sur son métier.

Techniques de l’Ingénieur : En quoi consiste votre métier d’ingénieure en efficacité énergétique ?

Sérine Nefzi, ingénieure en efficacité énergétique et responsable de la cellule efficience énergétique à l’université de Nantes. Crédit photo : Sérine Nefzi

Sérine Nefzi : L’objectif principal est d’optimiser les consommations énergétiques et de baisser les émissions de gaz à effet de serre d’un parc immobilier dont j’ai la charge. La première étape consiste à analyser ces consommations à partir de l’étude des factures et aussi grâce à la connaissance des usages des bâtiments. Ce diagnostic constitue le point de départ de toute la démarche qui sera déployée pour baisser les consommations en s’appuyant notamment sur des audits énergétiques. J’interviens à la fois sur le bâti mais aussi sur l’ensemble des systèmes techniques comme les installations de chauffage, de ventilation et de climatisation ainsi que sur l’éclairage. À l’université, mon travail s’applique à un parc tertiaire comprenant des locaux d’enseignement et des laboratoires de recherche. Il peut aussi s’appliquer à l’industrie et se dupliquer à d’autres volets comme le transport et la mobilité.

Une fois cette cartographie énergétique effectuée, comment intervenez-vous ?

L’enjeu est de mettre en place une stratégie de réduction énergétique qui prend la forme d’un plan d’action identifiant le potentiel de baisse des consommations de chaque bâtiment. Je définis les moyens techniques et humains à mettre en œuvre et chiffre les coûts nécessaires au déploiement du plan d’action. Mon intervention se fait à la fois sur le bâti à travers des opérations de rénovation, comme l’isolation ou le remplacement des menuiseries, mais aussi sur le volet des systèmes comme le remplacement d’une chaufferie ou l’optimisation du fonctionnement des éclairages. Il y a aussi un aspect communication où je cherche à sensibiliser les usagers aux économies d’énergie.

Avec qui travaillez-vous ?

Ce métier ne s’exerce jamais seul et je travaille aux côtés d’un autre ingénieur et d’un technicien en génie climatique. Nous avons aussi des techniciens sur site, qui ont chacun leur spécialité, comme des plombiers, des électriciens et avec qui je collabore. Ces personnes aux profils très techniques et opérationnels assurent la maintenance de nos équipements et nous accompagnent dans la mise en place de toutes nos actions. Je suis en lien constant avec d’autres services comme celui de la construction qui pilote les opérations de construction et de rénovation. J’accompagne ce service sur l’aspect de la performance énergétique, de la phase d’études jusqu’à la réception des travaux. L’enjeu à l’issue des travaux est de venir constater en phase d’exploitation la bonne atteinte de la performance énergétique. Je suis également en lien avec le service développement durable qui nous accompagne dans les échanges avec les usagers. Nous effectuons par exemple des campagnes de sensibilisation à des gestes simples sur l’éclairage, la bureautique…

Quelles formations faut-il pour accéder à cette profession ?

Un bac+5 est nécessaire. De mon côté, j’ai une formation d’ingénieure généraliste en génie des procédés qui m’a apporté certains savoirs techniques importants sur la mécanique des fluides, la thermique et l’hydraulique. Durant cette formation, je me suis spécialisée en thermique et énergétique, ce qui m’a permis de maîtriser d’autres aspects comme les énergies renouvelables.

Je pense que l’on peut aussi accéder à ce métier à travers d’autres formations, par exemple en génie thermique et en génie énergétique des bâtiments. On peut aussi probablement y accéder grâce à des masters 2 universitaires. Je pense qu’il existe également d’autres passerelles à travers des parcours professionnalisants.

Ce métier est-il attractif sur le plan de l’employabilité et des salaires ?

Je pense que la dynamique est assez forte, car beaucoup de structures publiques et privées ont des objectifs – notamment réglementaires – à atteindre. Par exemple, sur un parc tertiaire comme le nôtre, nous devons baisser la consommation énergétique d’au moins 40 % d’ici 2030. De nombreuses structures cherchent donc à recruter un ingénieur ou un technicien en efficacité énergétique.

Concernant les salaires, nous sommes sûrement moins rémunérés que dans d’autres secteurs, et il y a des écarts entre le privé et le public. Mais je pense que beaucoup de personnes choisissent cette profession par conviction et par passion comme c’est mon cas. Je me suis engagée dans ce métier pour son utilité et pour l’impact positif qu’a mon travail sur l’environnement.

Est-ce un nouveau métier créé par l’université ?

Je crois que je suis la première ingénieure avec ce profil à intervenir sur le parc immobilier de l’université. D’une manière plus globale, je ne dirais pas qu’il s’agit d’un nouveau métier en tant que tel. Auparavant, les entreprises du secteur du bâtiment, qui engageaient des travaux de construction ou de rénovation, disposaient déjà de compétences en interne sur la performance énergétique. La nouveauté aujourd’hui est que de nombreuses autres structures ont décidé de créer ce poste à part entière, avec des personnes formées possédant une expertise et qui interviennent de manière transverse avec d’autres services.

Est-il difficile d’exercer ce métier, c’est-à-dire de maîtriser l’ensemble des connaissances pour agir sur la performance énergétique ?

Je travaille beaucoup en complémentarité avec des collègues qui ont des compétences techniques que je n’ai pas. Nous travaillons aussi fréquemment avec des bureaux d’études qui nous accompagnent sur des études comme des audits et des missions de conception. Les entreprises qui réalisent les travaux sont aussi d’un apport important. Nous sommes également en relation avec nos pairs au sein d’autres structures publiques et avec lesquels on échange sur les bonnes pratiques, notamment sur des retours d’expérience. Des organismes comme l’Ademe et le Cerema publient régulièrement de la documentation de qualité pour mettre à jour nos connaissances.

Optimiser les villes grâce à l’IA hybride

Avec le développement de villes intelligentes, c’est-à-dire très technologiques avec des infrastructures interconnectées, va se poser la question des prises de décisions en temps réel : comment anticiper un accident, comment réagir lorsqu’il se produit, comment anticiper et éviter des épisodes de pollutions, gérer le trafic aérien, maritime, la trajectoire de drones, anticiper et réguler la consommation d’énergie, surveiller l’état de santé des infrastructures, etc. C’est l’objectif d’un projet international de 5 ans piloté par le CNRS et basé à Singapour qui démarre cet automne. Francisco Chinesta, enseignant-chercheur aux Arts et Métiers, nous explique comment il compte, avec l’aide d’environ 160 chercheurs et ingénieurs, répondre à ces questions.

Techniques de l’Ingénieur : Pourquoi monter un projet autour des villes intelligentes à Singapour ?

crédit : Francisco Chinesta

Francisco Chinesta : Le campus d’excellence CREATE a été créé il y a une dizaine d’années à Singapour pour attirer des universités phares à l’échelle mondiale. On y trouve des antennes du MIT, de l’université de Berkeley, de l’université de Cambridge… Et le CNRS a rejoint ce campus en septembre 2019 pour représenter la recherche française, avec Dominique Ballargeat à sa direction. Nous avons proposé un projet autour la ville intelligente et de l’IA à la National Research Foundation (NRF) rattachée au bureau du Premier ministre de Singapour, qui a accepté de nous accompagner. Le programme a été sélectionné pour un financement à hauteur de 20 millions d’euros alloués aux moyens matériels, aux séjours à l’étranger, à l’expatriation des chercheurs français, et à l’embauche d’environ 80 contractuels (des ingénieurs de recherche, doctorants, ou post-doctorants). S’ajoute à ça environ 80 chercheurs confirmés dont environ la moitié employés du CNRS, et les différentes universités et écoles françaises partenaires du projet. Les autres 40 chercheurs sont issus des différentes universités et laboratoires de recherche singapouriens.

Singapour est un endroit idéal pour tester des applications liées aux « smart cities » puisque c’est une ville-état qui se veut être une vitrine technologique.

Pourquoi est-ce compliqué de mettre en place des « smart cities » ?

La première raison vient de la taille du système. Une ville est un grand système, ce n’est pas la même chose qu’un bâtiment. La deuxième raison est la complexité même d’une ville, où de nombreuses disciplines se rencontrent. On doit gérer dans un même espace les réseaux d’énergie, le trafic aérien et maritime, les drones, les voitures, les transports en commun, la qualité de l’air, l’état des infrastructures… sans oublier les citoyens qui sont au cœur des villes. Il faut les prendre en compte puisque ce sont eux qui vont subir les conséquences des choix pris pour gérer ces villes intelligentes. Par exemple, quelle est l’acceptabilité de la présence des drones en ville ou des décisions prises par les systèmes intelligents ? Il y a donc aussi une dimension humaine et sociétale à prendre en compte dans ces systèmes complexes.

Comment optimiser ces villes ?

Il faut savoir prendre des décisions le plus rapidement possible, concernant une probabilité d’accidents, l’arrivée d’un épisode de pollution… Sauf que prendre des décisions rapides pour des systèmes critiques, on ne sait pas le faire avec des méthodes de modélisation classiques.

Les deux solutions potentielles pour la prise de décision sont soit basées sur les connaissances qu’on a déjà, soit sur l’intelligence artificielle (IA) et l’apprentissage machine. Dans le premier cas, une ville est tellement complexe, avec de fortes variabilités, fluctuations et méconnaissances, que toutes les prédictions faites avec des équations « classiques » issues des lois de la physique risquent de s’écarter de la réalité observée. L’échelle est trop grande, les systèmes trop complexes, les décisions trop risquées, la prise de décision trop rapide, sans oublier la prise en compte de l’Humain dans la boucle qui échappe aux modélisations déterministes classiques. Son libre arbitre fait qu’on ne peut pas savoir à l’avance quelle décision il prendra face à telle ou telle situation.

Dans le cas de l’intelligence artificielle, disons « classique », puisque basée exclusivement sur la donnée recueillie, l’ordinateur peut traiter un très grand nombre de données pour en extraire de la connaissance et ainsi faire des prédictions. Le problème est que, dans une ville, il n’y a pas forcément beaucoup de données. On ne met pas des capteurs tous les 10 cm dans des bâtiments par exemple, ce serait trop cher. Or il faudrait un très grand nombre de données pour obtenir des modèles et précisions fiables avec l’IA.

L’idée dans le projet DesCartes est donc de mélanger les deux solutions, associer les connaissances déjà acquises par les lois de la physique et l’IA : on parle d’IA hybride. Il s’agit de perfectionner et d’enrichir ce que l’on sait plutôt que de tout réapprendre par l’IA. L’IA hybride s’intéresse seulement à ce que nous ne connaissons pas déjà et devient moins gourmande en quantité de données et donc plus simple à comprendre, à interpréter et à expliquer.

Quels sont les objectifs du projet ?

Nous allons construire trois démonstrateurs, en partenariat avec des groupes industriels (EDF, Thalès, le Cetim, Aria et d’autres à venir) ainsi qu’avec le groupe ESI pionnier de l’introduction du concept du jumeau hybride. Le premier, autour des Smart Grids, se focalisera sur les réseaux intelligents pour l’énergie. Dans le deuxième, Remote Sensing, des drones vont être utilisés pour inspecter des infrastructures permettant le diagnostic et le pronostic, pour prendre des décisions concernant la maintenance ou l’évacuation par exemple. Et au sein d’Urban Mobility, le troisième démonstrateur, les trajectoires des drones seront étudiées, notamment pour les adapter en temps réel aux vents qui changent continuellement et aux effets des turbulences créées par les bâtiments. Ces démonstrateurs serviront de preuves de concept. Mais nous allons également discuter régulièrement avec les agences gouvernementales singapouriennes pour adapter nos travaux aux défis sociétaux auxquels Singapour souhaite répondre.

On souhaiterait aussi créer une plateforme en open access dans laquelle n’importe qui pourrait introduire des données et des connaissances pour produire, avec l’aide de l’IA Hybride, des applications capables de contrôler les systèmes complexes. Cette plateforme, « DesCartes Builder », serait l’un des principaux résultats technologiques du programme.