Informatique : un système pour réduire les besoins en mémoire

Au fur et à mesure que les flux de données doivent être rapides, on se rend compte que la mémoire joue un rôle essentiel. La consommation de la mémoire est devenue un enjeu d’importance pour l’informatique en général, des smartphones aux datacenters, en passant par les ordinateurs de bureau.

Par exemple, sur les appareils Android d’entrée de gamme, Google rapporte que plus de 99 % des crashs de son navigateur Chrome sont dus à un manque de mémoire lors de l’affichage d’une page web. Sur les ordinateurs de bureau, le navigateur Firefox s’est considérablement amélioré ces cinq dernières années pour réduire son empreinte mémoire. Dans les datacenters, les développeurs mettent en œuvre une palette de techniques afin d’augmenter l’utilisation de la mémoire.

L’optimisation de la mémoire repose notamment sur les qualités (ou limites en l’occurrence) des langages de programmation. Une équipe du College of Information et Computer Science (CICS), appartenant à l’Université du Massachusetts Amherst, a peut-être trouvé une solution.

Une réduction de la consommation

Baptisée Mesh, leur solution serait capable de comprimer la mémoire des applications écrites ou fonctionnant sur des langages de programmation largement utilisés comme C, C++ ou Objective C, le langage utilisé dans les applications iOS d’Apple. Parmi les membres de cette équipe, le professeur Emery Berger a d’ailleurs conçu l’algorithme sur lequel est basé le gestionnaire de mémoire Mac OS X d’Apple.

Les programmes écrits en C/C++ peuvent souffrir d’une grave fragmentation de la mémoire, entraînant une faible utilisation de la mémoire, des performances dégradées et même des défaillances d’applications dues à un épuisement de la mémoire. Ce problème s’étend à des langages comme Ruby et Python, où les interprètes standard pour ces langages sont eux-mêmes des programmes C. Mesh serait capable de combler efficacement ces « trous » dans la mémoire en tirant parti d’une fonction matérielle appelée « mémoire virtuelle » prise en charge par tous les ordinateurs.

« Lorsque Mesh trouve ces morceaux fragmentés, il peut récupérer la mémoire d’un des morceaux en les combinant entre eux. Ce processus de maillage fonctionne parce que nous ne touchons pas à la mémoire “physique” », explique l’équipe.

Mesh combine de nouveaux algorithmes randomisés avec des opérations de mémoire virtuelle largement supportées pour réduire la fragmentation de manière importante.

Ses résultats sont en effet prometteurs. L’utilisation de Mesh réduit automatiquement les besoins en mémoire du navigateur Firefox de 16 %. Pour Redis, un serveur de structure de données open source, Mesh réduit la demande de mémoire de près de 40 %.

Exploiter la Lune : le pôle sud concentre les intérêts

Le pôle sud de la Lune se situe sur un des bords du bassin Pôle Sud-Aitken, un immense cratère d’impact de 2500 km de diamètre et d’une profondeur de 12 à 13 km, au sein duquel se dessinent d’autres cratères plus petits comme Shackelton, Apollo ou Von Karman – c’est dans ce dernier, sur la face cachée de la Lune, que s’est posé l’atterrisseur chinois Chang’e 4 en janvier 2019. Le pôle sud regroupe à lui seul des intérêts scientifiques et des intérêts économiques et stratégiques. L’exploration et l’installation au pôle sud doivent permettre d’en connaître plus sur l’histoire de la Lune, sur les ressources énergétiques et minières qui s’y trouvent, et de tester les différentes technologies nécessaires à des installations plus lointaines telles que Mars.

De l’eau, de l’eau !

Depuis longtemps les scientifiques suspectent la présence d’eau sur la Lune, principalement sous forme de glaces. Détectées avec certitude il y a quelques années, on commence désormais à en faire une carte de leur répartition. Au pôle sud, les glaces seraient situées plutôt dans les parties sombres et froides des cratères. Il est probable qu’elles soient emprisonnées dans les sols. On estime aujourd’hui que le pôle sud renfermerait entre 10000 et 100 millions de tonnes de glaces. Cependant, leur profondeur, l’épaisseur des différentes couches, leur nature précise, leur origine et leur âge ne sont pas connus et pour les savoir avec précision, il est nécessaire de faire des prélèvements sur place.

La récupération de l’eau est la première étape vers une activité humaine et minière sur la Lune. Essentielle pour supporter la vie humaine, elle est aussi essentielle à la plupart des process d’extraction ou de traitement des minerais et elle pour l’instant identifiée comme le support privilégié pour fabriquer des carburants pour les engins spatiaux (via craquage, en séparant hydrogène et oxygène). Le carburant pourrait servir autant pour les engins retournant sur Terre avec une cargaison ou un équipage que pour les engins en partance pour d’autres destinations spatiales (Mars, Titan etc) ou encore pour le ravitaillement en orbite basse de satellites par exemple.

Pour exemple, United Launch Alliance, co-entreprise montée par Boeing et Lockheed Martin qui possède les lanceurs moyens/lourds Atlas V, Delta IV, et développe actuellement le Vulcan, proposait dès 2016 de fixer le prix du carburant fabriqué sur la Lune et livré en orbite basse à  3000$/kilo.

L’indispensable maîtrise de l’exploitation des glaces lunaires explique ainsi que les principaux projets à venir sur la Lune concerne des envois de robots d’exploration pour connaître l’état et la disponibilité des glaces ou de tests de technologies visant à extraire l’eau du régolithe, et pour les plus ambitieux à tester les premières technologies de craquage à petite échelle.

Les plus optimistes pensent que l’activité minière glacière débutera d’ici une dizaine d’années. Le temps de mieux connaître la ressource et de développer les technologies adéquates.

Pôle sud, soleil et nuit à la fois

Parmi les obstacles à l’installation durable sur la Lune, la nuit lunaire n’est pas des moindres. Les températures chutent alors drastiquement et l’exploration ou l’activité humaine risquent d’être alors limitées. Mais justement le pôle sud présente des régions où la lumière du soleil reste suffisante pendant 200 jours lunaires consécutifs. Ces régions, généralement situées sur des crêtes ou des rebords de cratères sont donc parfois à proximité des régions sombres où se trouvent le plus de glace. Une alliance de choix pour une installation où le photovoltaïque serait une source d’énergie principale.

Des ressources minières en abondance ?

L’étude des roches lunaires rapportées sur Terre par les missions Apollo et les explorations qui ont suivi ont permis d’identifier la présence de plusieurs ressources potentiellement intéressantes. Il s’agit notamment d’eau, d’hélium 3 et de nombreuses terres rares. L’hélium 3 est un isotope particulier de l’hélium que l’on trouve très peu sur Terre mais qui est très courant dans l’espace. Il est à la base de certains procédés de fusion nucléaire actuellement à l’étude qui, s’ils aboutissent, pourraient être consommateurs de cet isotope lunaire. Selon les données de la sonde chinoise Chang’e 1 enregistrées en 2009, les réserves en hélium 3 de la Lune sont évaluées à 100 000t. Il serait intégré au régolithe ou présent à faible profondeur. Pour repère, on estime que l’Union européenne et les Etats-Unis consommerait 200t d’hélium 3 en un an pour assurer leurs besoins énergétiques.

Quant aux terres rares, elles sont devenues aujourd’hui des éléments essentiels de tous les appareils électroniques. La Chine produit à elle seule entre 70 et 90 % de ces terres rares. Mais, le désastre écologique associé à cette exploitation est tel que la Chine limite depuis plusieurs années ces exportations. Les terres rares, malgré leur nom, sont courantes sur Terre, mais de manière très diffuse, nécessitant de traiter d’énormes quantité de minerais pour les récupérer. Aussi, délocaliser leur production dans l’espace, sur la Lune par exemple, est une option à l’étude pour préserver les ressources terrestres et pour limiter les tensions géostratégiques autour de ces matières premières devenues essentielles.

Cependant, l’exploitation lunaire de ces éléments restent très sujettes à caution. En effet, les estimations et analyses révèlent une présence dans des quantités infimes par kilogramme. Sera-t-il viable, faisable et économiquement intéressant de transformer la Lune en gruyère pour quelques kilogrammes de ces terres ? A court-moyen terme (10-20 ans), l’activité minière lunaire sera donc uniquement glacière. L’exploitation éventuelle d’autres ressources géologiques, si elle vient par la suite, se dessine plutôt à l’échéance d’une cinquantaine d’années. Mais d’autres pistes minières spatiales sont à l’étude comme l’exploitation des astéroïdes par exemple.

Le casse-tête juridique de la propriété spatiale

La course effrénée à l’espace pendant la guerre froide a poussé la communauté internationale à s’interroger sur le statut juridique de l’espace et des corps célestes, et sur les limites de son utilisation. En 1967, plus d’une centaine de pays signent le Traité de l’espace qui stipule que l’exploration et l’utilisation de l’espace sont libres dès lors qu’elles servent des objectifs pacifiques. Le traité précise aussi qu’aucune nation ne peut s’approprier des territoires extra-terrestres ni par leur utilisation, ni par leur occupation, ni par tout autre moyen. A l’instar du statut de l’Antarctique sur Terre, aucun pays ne peut revendiquer une parcelle de la Lune, de Mars ou d’un astéroïde.

Mais ce traité visait essentiellement à empêcher l’installation d’armes ou d’infrastructures militaires dans l’espace et à laisser le champ libre à l’exploration scientifique. Pour ce qui est de l’exploitation des ressources et de la propriété privée sur celles-ci, il reste relativement flou et laisse la porte ouverte à plusieurs interprétations juridiques dans lesquelles certains se sont déjà engouffrés. Pourtant, un texte complémentaire, clarifiait ces points relatifs à la propriété et l’exploitation des ressources. Il s’agit de l’Accord régissant les activités des États sur la Lune et les autres corps célestes adopté le 5 décembre 1979 et entré en vigueur le 11 juillet 1984 (version française en page 39) qui plaçait l’exploitation des ressources naturelles de la Lune sous une autorité internationale afin d’en avoir une approche durable et équitable et qui stipulait qu’aucune entité ne pouvait s’approprier ces ressources qui appartiennent à l’ensemble de l’humanité. Mais cet accord a été un échec. Il n’a été ratifié que par 15 pays et par aucun grand pays ayant un programme spatial permettant d’aboutir à une installation sur la Lune (donc ni les USA, ni la Russie, ni la Chine, ni l’Inde, ni les principaux pays spatiaux européens – France, Allemagne, Italie, Royaume-Uni etc.).

États-Unis et Luxembourg autorisent l’exploitation

En novembre 2015, les États-Unis ont adopté une loi qui reconnaît le droit de propriété des entreprises du secteur privé américaines sur les ressources obtenues dans l’espace. Un peu comme l’équivalent du droit maritime international qui accorde le droit de propriété aux ressources pêchées en haute mer par le premier qui met la main dessus. Sauf que ce texte précise néanmoins que les ressources doivent être « abiotiques ». Aussi, en cas de découverte du vivant, celui-ci ne pourrait pas être privatisé. Cette interprétation du traité de 1967 ne fait pas consensus, pour d’autres, cette loi américaine ne peut être valide, puisque les Etats-Unis ne peuvent transférer un droit qu’ils ne possèdent pas. En effet, le traité stipule que l’exploration et l’utilisation de l’espace doivent se faire pour le bien de tous : la question est donc ouverte. Est-ce qu’une activité minière privée sur un astéroïde ou sur la Lune bénéficie à tous ? Si oui, comment l’encadrer, quelles limites lui donner etc. Des thématiques débattues mais loin d’être tranchées au sein de la communauté internationale.

En Europe, c’est le Luxembourg qui a dégainé le premier sur le sujet. En effet, en juillet 2017, le Grand-Duché a adopté une loi autorisant l’exploration et l’utilisation des ressources de l’espace.

Avec ce cadre, toute société établie au Luxembourg, y compris une société étrangère, peut extraire et s’approprier des ressources minières (métaux, hydrocarbures) ou de l’eau dans le but d’en faire commerce sur Terre ou de les utiliser pour une colonie humaine ou une base spatiale. Cependant, le Luxembourg a prévu un encadrement de cette exploitation via la mise en place d’un régulateur qui délivrerait des licences d’utilisation des matériaux.

Que ce soit le cas des États-Unis ou du Luxembourg, ces initiatives pour légiférer sur la propriété privée spatiale de manière unilatérale et de manière assez préventive – on est encore loin d’une exploitation effective et massive des ressources lunaires ou d’astéroïdes – ont surtout rassuré les investisseurs et les entreprises qui commencent à s’intéresser à ce secteur d’activité tels que les américains Planetary Resources et Deep Space Industries ou encore le japonais ispace. Elles ont aussi permis de relancer la réflexion au niveau international en vue d’aboutir à un cadre réglementaire assurant que cette exploitation ne se fasse pas au détriment de certaines populations, de l’environnement ou du patrimoine culturel de l’humanité et ne se fasse pas sous la forme d’une nouvelle ruée vers l’or.

Des mines d’or célestes à portée de sondes

Selon une étude du cabinet PwC commandée par l’agence spatiale luxembourgeoise (LSA) et par l’agence spatiale européenne (ESA) parue le 20 décembre 2018, l’exploitation de minerais dans l’espace pourrait générer entre 73 et 170 Md€ de chiffre d’affaires dans le monde d’ici à 2045 et créer entre 845 000 et 1,8 million d’emplois à temps plein. Cette nouvelle activité minière et industrielle permettrait à la fois de pourvoir en minerais, métaux précieux et hydrocarbures la demande terrestre mais aussi la demande spatiale (approvisionnement de mission spatiale de longue durée).

En effet, même si notre connaissance de la composition des astéroïdes est pour l’instant limitée à des observations à distance – hormis quelques récents échantillonnages – les scientifiques s’accordent sur le fait que la plupart des astéroïdes sont de vraies pépites volantes.

Dans son ouvrage « Mining the Sky » (1997), le planétologue américain John S. Lewis estime la valeur marchande de l’astéroïde Amon. Ce petit corps céleste de type M (métallique) d’une longueur d’à peine plus de 2 km contiendrait l’équivalent de 6000 Md$ de platine, et 8000Md$ de nickel et de fer, 6000Md$ de cobalt plus quelques autres trillions de dollars de composés volatiles comme du carbone, du phosphore, de l’azote etc. Des chiffres astronomiques qui ont de quoi faire rêver des investisseurs.

Déjà des candidats à la mine

Plusieurs entreprises se sont déjà montées pour se positionner sur ce secteur qui s’annonce lucratif. Des sociétés américaines comme Planetary Resources (dont les fonds proviennent notamment de dirigeants de Google et par le réalisateur James Cameron) et Deep Space Industry (DSI) s’étaient très tôt placées sur ce créneau. Trop tôt ? La question se pose puisque ces deux sociétés ont été rachetées récemment. Planetary Resources est à présent la propriété de ConSensys, une entreprise de technologies de blockchain et DSI a été rachetée en début d’année 2019 par Bradford Space. Dans les deux cas, l’activité est désormais plus tournée vers le développement de petits satellites ou de technologies pour ces satellites.

L’objectif minier reste en arrière-plan en attendant que les nombreux obstacles technologiques, réglementaires et financiers soient passés. De nombreuses autres start-up se sont déclarées sur ce créneau proposant / cherchant des solutions technologiques pour le minage, le transport, le traitement in situ etc. Mais, en réalité, l’activité minière n’est pas l’apanage de seules entreprises privées. Ainsi, l’ESA a elle-même un programme de mission visant à tester des technologies pour miner, craquer et exploiter les glaces lunaires par exemple (In-Situ Resource Utilisation Demonstrator Mission) et elle a signé un partenariat ArianeGroup pour le transport de mission visant à miner le régolithe lunaire.

L’étude même des astéroïdes est encore très récente. On dispose d’un inventaire de plus de 600 000 d’entre eux et pour le moment ils sont classés selon leur analyse spectrale. Mais celle-ci ne révèle que la composition de surface, aussi un travail de ciblage plus fin est en cours pour savoir quels sont les astéroïdes les plus intéressants à exploiter.

Des avancées technologiques

Avec les dernières missions scientifiques sur des astéroïdes (Rosetta, Hayabusa et Osiris-Rex), on commence à mieux maîtriser l’approche et l’atterrissage sur des astéroïdes. Les technologies de pointe utilisées pour récolter et analyser quelques grammes de ces astéroïdes montrent néanmoins que l’on n’a pas encore atteint la maturité pour forer et récolter du minerai à une échelle industrielle. Et surtout pas dans des coûts compatibles avec le développement d’une industrie. D’un point de vue technique, trois approches sont aujourd’hui envisagées : la capture d’astéroïdes pour les placer en orbite lunaire, extraire la matière brute mais la traiter ailleurs, extraire et traiter sur place. Les technologies de minage en elles-mêmes ne devraient pas être radicalement différentes de celles employées sur Terre dans les mines à ciel ouvert et, hormis les difficultés pour envoyer le matériel et l’arrimer sur place, les experts ne voient pas de problèmes majeurs dans ce domaine. Les trois options jouent en fait sur les coûts que peut induire le transport soit de la matière (brute ou raffinée) soit de l’équipement nécessaire au minage.

Un contexte favorable

Globalement, on s’aperçoit que le contexte est plutôt favorable : une volonté tant de la part des Etats que des investisseurs privés, des technologies sur le point d’être accessibles, une réglementation qui se met en place. Cependant, il faut rester réaliste, cette exploitation potentielle des astéroïdes devrait encore prendre plusieurs dizaines d’années avant de voir réellement le jour.

L’Europe donne son feu vert à une aide au projet de liaison électrique France-Irlande

D’un montant estimé à 930 millions d’euros, ce projet, lancé en 2011, est reconnu comme Projet d’Intérêt Commun (PIC) par l’Union Européenne. La Commission européenne a ainsi apporté son soutien au projet par le biais d’une subvention de 530 M€ au titre du mécanisme pour l’interconnexion en Europe, mis en place en 2013 par l’Union européenne. Il s’agit d’une des plus importantes subventions de l’Union européenne accordée à un projet d’interconnexion, signale RTE, le gestionnaire du réseau de transport français d’électricité, dans un communiqué publié le jour même.

L’octroi de cette subvention finalise le financement du projet qui peut désormais entrer dans une phase opérationnelle.

Les travaux de construction devraient débuter en 2023, après la réalisation de l’étude d’impact économique et environnemental du projet et de l’enquête publique associée. La mise en service devrait, quant à elle, intervenir en 2026.

Le projet

Porté par RTE et son homologue irlandais EirGrid, le projet « Celtic Interconnector » vise à créer une liaison électrique à courant continu d’une puissance de 700 MW d’environ 575 km (dont environ 500 km en mer), permettant un échange direct d’électricité entre la France et l’Irlande. Il prévoit plus spécifiquement de relier le poste électrique de Knockraha, près de la ville irlandaise de Cork, au poste de la Martyre, dans le Finistère, en passant à l’Ouest des îles Scilly. Le câble étant en courant continu (DC, en initiales anglaises), sont prévues de part et d’autre des stations de conversion pour transformer le courant continu en alternatif et rejoindre les réseaux des deux gestionnaires de réseau.

Côté français, à l’issue d’une concertation de fin janvier à avril 2019, un tracé de 40 km en souterrain a été prévu entre l’atterrage proprement-dit, à Kerradenec, au nord-est de la commune de Kléder, et la station de conversion de La Martyre.

Côté irlandais, la concertation a également eu lieu, au cours de l’été, et EirGrid se prépare à publier un rapport détaillé. Entre l’atterrage et le poste de Knockraha, la question n’est pas tranchée d’un enfouissement du câble, qui sera cependant en alternatif, ce qui réduit la possibilité de le « tirer » sur une longue distance.

Une fois achevé, le Celtic Interconnector sera l’un des plus longs câbles sous-marins d’Europe et représente un véritable défi technologique.

Un projet pour l’Europe

Dans son communiqué, RTE se félicite du soutien clair apporté par la Commission européenne à ce projet majeur pour la transition écologique, qui vient renforcer la solidarité énergétique en Europe.

Cet ouvrage sera la première liaison électrique entre l’Irlande et la France, mais aussi avec l’Europe continentale, ce qui en fait un projet d’une importance majeure dans le contexte des négociations relatives à la sortie du Royaume-Uni de l’Union européenne (Brexit).

Il permettra l’intégration de l’Irlande dans le marché européen d’électricité et jouera un rôle déterminant dans la réalisation des objectifs climatiques et énergétiques de l’Union européenne.

Soutenu par les Gouvernements français et irlandais ainsi que par les régulateurs des deux pays, le projet Celtic interconnector est reconnu Projet d’Intérêt Commun (PIC).

Le développement des interconnexions électriques permet d’accompagner la transition énergétique en Europe. En reliant pour la première fois l’Irlande à l’Europe continentale via la France, Celtic interconnector permettra de renforcer la sécurité d’approvisionnement en électricité des pays reliés et favorisera le développement des énergies renouvelables.

De chaque côté du câble, dans le cadre du Clean New Deal européen, les deux pays se sont en effet engagés à augmenter fortement leur puissance installée en énergies renouvelables. L’avantage d’un tel équipement est de permettre un équilibrage de ces ressources renouvelables qui ne fonctionneront pas forcément au même moment dans chaque pays.

Dans son communiqué, François Brottes, président du directoire de RTE, signale que : « Le soutien de la Commission européenne au projet d’interconnexion électrique entre la France et l’Irlande est une étape majeure dans la construction d’un réseau électrique européen toujours plus résilient et plus solidaire pour accompagner la transition énergétique au meilleur coût ». « Pour l’Irlande, cette résilience revêt une importance de plus en plus grande à mesure que les énergies renouvelables deviennent l’énergie majeure du réseau électrique irlandais », ajoute Mark Foley, directeur général d’EirGrid.

Ce projet a déjà bénéficié d’un financement européen de 3,5 M€ pour la phase d’étude de faisabilité et de 4 M€ pour la phase de design initial et de pré-consultation.

Le mécanisme pour l’interconnexion en Europe (Connecting Europe Facility) spécifique à l’énergie dispose d’un budget global de 5,35 milliards d’euros pour les infrastructures transeuropéennes peut donc s’appliquer aussi aux projets gaziers et de smart grids) sur la période 2014-2020. D’ores et déjà 59% du budget avait été alloué à fin 2018. Dans le budget horizon 2021-2027, la Commission européenne a proposé de renouveler ce mécanisme, en incluant quelque 8,7 milliards d’euros pour les projets énergétiques.

Fessenheim : arrêt demandé par EDF, reconversion actée

Dans un communiqué parallèle le même jour, EDF précise que la mise à l’arrêt définitif des deux réacteurs de Fessenheim sont prévus, pour le réacteur 1, le 22 février 2020 et, pour la tranche 2, le 30 juin 2020. Fessenheim compte deux réacteurs de 900 MW sur le site.

Indemnisation à préciser

La demande d’EDF fait suite à la signature, le 27 septembre 2019, par l’État et par EDF, du protocole d’indemnisation de l’électricien par l’État au titre de la fermeture anticipée de la centrale de Fessenheim, résultant du plafonnement de la production d’électricité d’origine nucléaire à 62,8 GW tel que fixé par la loi du 17 août 2015 relative à la transition énergétique pour la croissance verte (LTECV).

Le protocole d’indemnisation fixe les principes de l’indemnisation de l’entreprise par l’État, composée d’une part fixe liée à l’anticipation des coûts liés à la fermeture et d’une part variable reflétant le manque à gagner pour EDF.

Le communiqué de l’électricien précise de son côté que l’indemnisation prendra la forme de versements initiaux correspondant à l’anticipation des dépenses liées à la fermeture de la centrale (dépenses de post-exploitation, taxe INB, coûts de démantèlement et de reconversion du personnel), qui seront effectués sur une période de quatre ans suivant la fermeture de la centrale. Le total de ces versements devrait être proche de 400 millions d’euros. En outre, des versements ultérieurs sont prévus par le protocole, correspondant à l’éventuel manque à gagner, c’est-à-dire les bénéfices qu’auraient apportés les volumes de production futurs, lesquels sont calculés en référence à la production passée de la centrale de Fessenheim, jusqu’en 2041, calculés ex-post à partir des prix de vente de la production nucléaire, et notamment des prix de marché observés.

Dans une lettre envoyée à la ministre Elisabeth Borne, EDF précise que trois principales opérations sont envisagées entre l’arrêt définitif et l’entrée en vigueur du décret. D’abord, l’évacuation du combustible usé pour lequel le calendrier prévoit un retrait total à l’horizon 2023. Ensuite, est prévue l’évacuation d’une grande partie des déchets d’exploitation et des effluents courants issus de l’exploitation en respectant les modalités, filières et niveaux autorisés. Enfin, la troisième opération porte sur l’évacuation de la grande majorité des potentiels de dangers conventionnels (hydrogène, fuel, huiles…). Le courrier signé du PDG d’EDF, Jean-Bernard Lévy contient également une mise à jour du plan de démantèlement, mais ce document n’est pas publié par EDF.

La reconversion du site

Le MTES rappelle que le gouvernement est pleinement engagé pour la réussite du processus de reconversion du site.

Dans le cadre du Projet de territoire, signé le 1er février 2019, un accompagnement est prévu pour la fermeture de la centrale. Il s’agit de mettre en œuvre, indique le MTES, avec l’appui des collectivités locales et la participation active d’EDF, une stratégie ambitieuse et exemplaire de reconversion des personnels et pour le territoire, afin d’accompagner sa transformation à travers des projets d’aménagement économique, de développement des énergies renouvelables, de verdissement des mobilités et d’innovations.

Le gouvernement a par exemple prévu l’installation de 300 mégawatts (MW) de parcs photovoltaïques. Les résultats d’un premier appel d’offres portant sur 60 MW ont été rendus publics la semaine dernière. Près de 200 MW de projets ont été déposés, et le gouvernement a retenu 12 lauréats pour une capacité cumulée de 62,8 MW avec un prix moyen de 66,05 €/MWh. Deux autres appels d’offres pour des tranches des 120 MW seront lancés en janvier et juillet 2020.

Enfin, une cellule de reclassement a par ailleurs été mise en place pour accompagner les salariés de la centrale. Un Comité de pilotage (Copil) réalisera le suivi des engagements et des projets. Le dernier Copil s’est réuni le 26 septembre 2019 sous la présidence de la Secrétaire d’Etat Emmanuelle Wargon, et le prochain se tiendra début 2020.

Véhicules autonomes et connectés : plus de sécurité avec la 5G ?

Le réseau de données sans fil n’a cessé de progresser au cours des 30 dernières années. Certaines technologies et fonctionnalités ont eu un impact plus ou moins fort sur votre vie. Avec l’arrivée imminente de la 5G (le 11 septembre, le patron d’Orange a indiqué qu’elle pourrait être commercialisée au printemps prochain en France…), nous entrerons dans une nouvelle ère : celle des très hauts débits.

Nous devrions pouvoir disposer d’un débit de 1 Gbit/s pour le téléchargement et de 500 Mbit/s pour envoyer des fichiers. Les promesses de la 5G d’offrir des voitures plus sûres et plus intelligentes seraient l’un des développements les plus remarquables de notre époque.

L’industrie automobile est divisée depuis des années sur l’utilisation des réseaux sans fil. D’un côté, General Motors, NXP, Toyota, Volkswagen et Volvo penchent pour le Wi-Fi. De l’autre, BMW, Daimler, Ford, Huawei, Intel, Qualcomm et Samsung soutiennent la 5G.

Explosion du nombre de services embarqués

Celle-ci pourrait remporter la bataille. Mais que l’on utilise le Wi-Fi ou la 5G, le concept de base de la communication reste le même : les voitures pourront transmettre des données à d’autres véhicules et aux infrastructures locales (routes, feux de circulation et systèmes de contrôle) pour coordonner la sécurité et éventuellement l’autonomie totale.

La 5G embarquée va modifier l’expérience des usagers dans le secteur du transport (voitures, métros, avions, trains…). Bien sûr, il y aura un impact fort sur l’accès à l’internet et au divertissement multimédia. Mais ce sont surtout les services qui devraient se développer.

Le nombre de services embarqués devrait augmenter de 150% entre 2016 et 2020, dans des domaines tels que la maintenance prédictive, l’assistance à la conduite et au stationnement, l’optimisation de parcours en temps réel, les services de paiement embarqués (parkings, péages…), le confort des passagers ou encore la gestion des accidents et des appels d’urgence.

Toute la communication se fera en temps réel. Mais l’enjeu majeur des voitures « connectées » – et celles qui seront autonomes – restera l’amélioration de la sécurité routière. L’erreur humaine reste encore l’une des principales causes d’accidents de la route.

Les technologies actuelles d’aide à la conduite (radars, caméras ou télédétection par laser) se basent sur des capteurs qui fonctionnent en visibilité directe. La technologie de communication V2X (Cellular Vehicule to Everything) permettra l’échange quasi instantané, entre véhicules (ou « See Through »), entre véhicules et infrastructures (V2I) et le « Emergency Vehicle » pour signaler en temps réel l’approche d’un véhicule de secours.

La faible couverture de la 5G

Les véhicules pourront ainsi « voir » plus loin sur la route et à 360° et ainsi mieux connaître leur environnement, anticiper les risques de collision et fluidifier le trafic. Des tests concluants ont été menés par le Groupe PSA et Qualcomm Technologies qui ont signé un partenariat en 2017.

Pour favoriser l’expansion mondiale de l’écosystème C-V2X, le Groupe PSA a récemment rejoint la 5G Automotive Association (5GAA). Cette organisation interprofessionnelle encourage les communications C-V2X, à la fois directes et via les réseaux.

PSA n’est pas le seul à miser sur la 5G. À l’occasion du CES 2019 (la grand-messe de l’électronique aux États-Unis), Nissan avait présenté son innovation « Invisible-to-Visible » (I2V). Cette solution permet de « voir » dans les virages et ainsi de vous alerter sur les dangers potentiels (obstacles sur la route, piétons…).

Reste peut-être le plus aléatoire : le déploiement de la 5G dans l’hexagone et les autres pays. Or, ce n’est qu’en 2025 qu’elle devrait être proposée dans les grandes villes et le long des grands axes de transport.

L’intelligence artificielle perce les secrets des grands peintres

Des œuvres perdues de Goya et de Van Gogh ont pu être découvertes après que les scientifiques aient développé un algorithme d’IA permettant de repérer les images antérieures dans les radiographies des peintures.

Dernièrement, des chercheurs de la Galerie nationale, de l’Université Duke et de l’University College London ont joué aux détectives afin d’essayer de percer les secrets du Retable de Gand des frères Hubert et Jean Van Eyck.

Saisi par les nazis dans les années 1940, il avait été retrouvé par les Monuments Men en 1945 (voir le film de George Clooney à ce sujet). Leur chef d’œuvre est inspiré de divers épisodes bibliques. Achevé en 1432, il  se composait à l’origine de douze panneaux. Les deux sections d’ailes, chacune composée à l’origine de quatre panneaux – peints des deux côtés – pouvaient être entièrement ouvertes les jours de fête pour révéler les quatre panneaux centraux.

Pas de loupe comme Sherlock Holmes, mais un nouvel algorithme destiné à étudier les images à haute résolution acquises à l’aide de différentes techniques d’imagerie contenant des éléments de l’avant et de l’arrière des panneaux double-face du tableau.

Jusqu’à présent, il était difficile de distinguer les images sous-jacentes et les images superposées parce qu’elles ont toutes été fusionnées dans la radiographie. Les techniques d’imagerie ont leurs limites et le volume de données produites peut être décourageant à analyser.

Des compositions superposées ou modifiées

Une nouvelle approche, mêlant radiographie (outil précieux pour l’examen et la restauration des peintures) et l’intelligence artificielle (alimentées par le deep learning) peut être utilisée pour résoudre potentiellement les défis posés par l’investigation artistique.

« Elle pourrait permettre de révéler d’autres caractéristiques cachées dans un tableau, comme des dessins cachés antérieurs », déclare le Dr Miguel Rodrigues (UCL Electronic & Electrical Engineering).

Concernant le Retable de Gand des frères Hubert et Jean Van Eyck, cette piste pourrait révéler des compositions superposées ou modifiées, ainsi que des dommages qui ne sont pas apparents en surface.

En séparant les images radiographiques complexes, le nouvel algorithme permet aux historiens de l’art, aux restaurateurs et aux scientifiques du patrimoine de mieux comprendre les peintures des maîtres anciens. L’information révélée pourrait aider les experts à protéger et à restaurer des pièces délicates.

« L’application de l’IA au traitement des images radiographiques fournira des outils très utiles pour décrypter des images techniques complexes. Les faiblesses structurelles des supports en bois et des couches de sol et de peinture ont pu être diagnostiquées avec plus de précision », précise Hélène Dubois, responsable du projet de conservation du Retable de Gand à l’Institut royal du patrimoine culturel (KIK-IRPA).

Un nouveau procédé pour fabriquer des batteries composites recyclables

Les filières de recyclage des batteries de véhicules électriques en fin de vie existent bel et bien. Néanmoins, récupérer le lithium des batteries nécessite de passer par une succession d’étapes de broyage et de raffinage dont le coût total est plus élevé que la valeur des métaux récupérés. Par conséquent, améliorer la recyclabilité des batteries est un enjeu crucial pour l’avenir des véhicules électriques.

Le frittage à froid : un procédé novateur

Dévoilé en 2016 dans le journal Advanced Functional Materials par une autre équipe de chercheurs de Penn State, le procédé de frittage à froid (Cold Sintering, NDLR) permet de concevoir des matériaux organique/céramique hybrides. En effet, contrairement au frittage traditionnel qui fait intervenir des températures de plus de 1000 °C, en frittage à froid la température ne dépasse pas 100 °C ou 200 °C. Ainsi, ce fonctionnement à basse température empêche la destruction des matériaux organiques, ce qui rend possible la création d’hybrides organiques/céramiques.

Un matériau hybride flexible et conducteur électrique

Pourquoi chercher à concevoir un matériau hybride ? Comme l’explique le professeur Enrique Gomez, le but est de créer le matériau idéal en associant la conductivité ionique d’électrolytes solides tels que le LAGP ou le LATP à la flexibilité de sels organiques au lithium. Les travaux que lui et son équipe viennent de publier récemment sont pour le moins prometteurs. En effet, en plus d’être très denses (près de 90% de densité), les composites LAGP–LiTFSI et LATP–LiTFSI qui y sont présentés ont une conductivité ionique qui avoisine 10−4 S.cm−1, une valeur qui se rapproche de celle des matériaux traditionnels frittés à 800°C.

Les multiples applications du frittage à froid

Mise à part la fabrication d’électrolytes solides, la synthèse de composites de type céramique/sel organique pourrait avoir d’autres applications. La conception de cathodes composites en fait partie, au même titre que la réalisation de matériaux à fonction structurale possédant une certaine réactivité. Néanmoins, l’équipe du professeur Gomez est consciente du décalage qui existe parfois entre recherche académique et réalité industrielle. Tout en poursuivant leurs travaux académiques, ils sont également en quête de partenariats industriels afin d’accélérer l’implémentation de futures technologies basées sur le frittage à froid.

Source : Penn State News, 19/09/2019

Des nano-objets semi-conducteurs pour détecter les fuites d’hydrogène

En plus de présenter un large intervalle d’explosivité (compris entre 4 et 77 %), l’hydrogène gazeux a pour caractéristique d’être extrêmement inflammable. En effet, son énergie minimale d’inflammation est de seulement 20 µJ dans l’air, ce qui correspond à une simple décharge électrostatique d’origine humaine ! Pire encore, en présence d’oxygène pur cette énergie minimale tombe à 3 µJ. Si l’on ajoute à cela son caractère inodore et incolore, autant dire que la conception de capteurs d’hydrogène performants est une question de première importance.

Les capteurs résistifs basés sur des MOx

Les détecteurs d’hydrogène peuvent incorporer différentes technologies : les capteurs optiques, électrochimiques, acoustiques, électriques, etc., chacune présentant des avantages et des inconvénients. Le choix du bon détecteur d’hydrogène est ainsi très complexe et dépend du contexte d’utilisation et du niveau de développement de la technologie de détection.

Dans cette grande famille, les capteurs résistifs ont plusieurs avantages, ils sont peu coûteux, assez sensibles et simples à concevoir. Leur fonctionnement est le suivant : la résistance électrique de certains matériaux change au contact de gaz spécifiques. Parmi les nombreux matériaux utilisables pour la détection d’hydrogène, les oxydes métalliques semi-conducteurs (MOx) comme le ZnO intéressent particulièrement les chercheurs depuis plusieurs années.

Un matériau qui facilite la diffusion de H2

Sa sensibilité à l’hydrogène fait du ZnO un bon candidat pour la conception des capteurs résistifs. Néanmoins, d’après une équipe de chercheurs de l’IIT Hyderabad et l’IIT Jodhpur cette sensibilité peut encore être grandement améliorée. Ainsi, en déposant des nanoparticules d’oxyde de zinc sur des nano fibres de carbone, les chercheurs ont mesuré un taux de détection autour de 74 % contre environ 44 % dans le cas de nanoparticules de ZnO pures.

Pourquoi un tel bond de détection ? Les chercheurs attribuent cette amélioration à la très forte porosité de la structure formée par les nano fibres de carbone qui est favorable à la diffusion de l’hydrogène gazeux jusqu’aux nanoparticules de ZnO.

Par ailleurs, selon le Docteur Mahesh Kumar, la présence d’oxygène à la surface des nano fibres de carbone serait également un facteur d’amélioration de la sensibilité.

Tertiaire : les logiciels-robots ne peuvent pas tout faire

La RPA est présentée par des experts comme le Saint Graal de la productivité dans les bureaux. Ce serait la solution idéale pour réduire les tâches à faible valeur ajoutée et chronophages. De plus en plus d’entreprises en déploient ou envisagent de le faire prochainement.

Un logiciel RPA (Robotic process automation) automatise les processus répétitifs, basés sur des règles, habituellement exécutés par des personnes assises devant des ordinateurs. Dans le secteur bancaire, des tâches telles que l’ouverture de comptes ou le traitement des demandes de prêts hypothécaires peuvent dorénavant être automatisées.

Dans le secteur de l’assurance, la RPA peut s’avérer utile pour automatiser les demandes d’indemnisation en cas de maladie ou d’accidents corporels ou encore l’intégration de nouveaux demandeurs ou agents. Dans le secteur des transports, la supply chain (la logistique) peut être rationalisée.

La RPA sous certaines conditions

Les solutions de RPA répondent à ces enjeux d’augmentation de la productivité (et parallèlement de la réduction des erreurs humaines) en automatisant les tâches répétitives à faible valeur ajoutée.

Leur champ d’application est vaste puisqu’elles peuvent être déployées dans n’importe quel secteur (assurance, banque, logistique, industrie…) pour automatiser de nombreux processus métiers ou opérationnels.

La liste des possibilités est presque infinie et avantageuse pour toute entreprise qui doit faire face à des processus manuels laborieux ou fastidieux. Cela semble prometteur. Mais de nombreux experts de la RPA font également remarquer que le vaste potentiel de cette solution ne signifie pas qu’elle s’adapte partout.

La RPA peut être utile sous certaines conditions. Voici les principales :

  • une tâche répétitive que n’apprécient pas vraiment les collaborateurs ;
  • un grand volume ;
  • un processus basé sur des règles ;
  • une opération qui doit être faite rapidement ;
  • une tâche qui implique des données sensibles ;
  • une tache sujette à l’erreur humaine (cette dernière condition renforçant le précédent critère).

Les entreprises qui envisagent de déployer ce type de technologie ne doivent pas oublier qu’elle est adaptée à des processus prévisibles et fondés sur des règles qui se répètent régulièrement. Cela peut paraitre une évidence, mais beaucoup de projets de RPA s’avèrent des échecs ou ne sont pas performants, car ils ont été mal pensés, pour les trois raisons principales suivantes.

Un environnement plus dynamique que prévu

Le processus s’avère plus dynamique que vous ne le pensiez. Si un processus nécessite une prise de décision au cas par cas, cela signifie que des interventions humaines deviennent fréquentes, voire récurrentes !

Dès lors, soit le projet est annulé ou adapté (il faudra chercher dans le processus en question une tâche répétitive qui pourrait être automatisée), soit il doit intégrer plus de complexité. L’objectif étant qu’il puisse continuer à fonctionner dans un environnement en constante évolution tout en produisant les bons résultats. Une décision qui va à l’encontre du principe même du RPA.

RPA ne signifie pas (encore ?) IA !

Cette solution est conçue pour suivre les instructions, pas pour apprendre par elle-même ou réagir à des événements imprévus. Un robot RPA peut se « bloquer » s’il rencontre des scenarii pour lesquels il n’a pas été configuré.

Typiquement, si un robot RPA a été configuré pour aller sur une page web et cliquer sur le coin supérieur gauche pour atteindre une page d’inscription, il peut le faire sans soucis. Mais si le bouton est placé à un autre endroit de la page, il ne pourra pas accomplir sa tâche.

Des attentes irréalistes

Comme pour tout projet innovant, il est nécessaire de s’appuyer sur différents paramètres pour en mesurer les résultats. Dans le cadre d’un projet RPA, il s’agit de vérifier qu’il est performant et donne de meilleurs résultats que si une tâche était exécutée par un être humain.

Or, un projet RPA a besoin d’un peu de temps pour monter en puissance. Il convient de peaufiner ses réglages. Il ne s’agit pas d’une solution en mode SaaS qui fonctionne immédiatement. D’où de possibles conflits entre le fournisseur du RPA et le client  qui s’attend à ce que les solutions RPA soient prêtes à l’emploi avec une personnalisation limitée.

Les bactéries vont-elles révolutionner le monde de l’optique ?

Outre les problèmes de sécurité oculaire qui touchent les pilotes de ligne, les capteurs optroniques peuvent également être perturbés et détériorés par les sources laser. Pour atténuer la puissance des lasers, il existe une méthode : la limitation optique. Cette méthode nécessite l’utilisation de matériaux connus pour leurs propriétés optiques non linéaires tels que le graphène, les nanotubes de carbone ou encore le C60-fullerène. Cependant, les études récentes montrent que le tellure sous sa forme élémentaire semble également posséder des propriétés optiques non linéaires intéressantes. L’Équipe de chercheurs a donc voulu démontrer le potentiel de cet élément.

Un nanomatériau synthétisé par des bactéries

Le travail réalisé par cette équipe internationale de chercheurs est plutôt original. En effet, ils ont utilisé des nanoparticules de tellure synthétisées par une bactérie appelée Bacillus Selenitireducens. Pourquoi avoir recours à des procédés de synthèse chimique dangereux et coûteux quand on peut exploiter la nature ?

Ce type de bactéries a un mode de vie vraiment surprenant: à l’état naturel, elles respirent par la réduction d’oxyanions de sélénium, produisant ainsi des nanoparticules de Se(0). C’est donc en “nourrissant” les bactéries par du Te(IV) au lieu du Se(IV), que l’équipe de chercheurs a réussi à produire ces nano tiges de tellure.

Une non-linéarité optique supérieure à celle du graphène

Les mesures de la non-linéarité optique des nano tiges de tellure indiquent que ce matériau est un excellent absorbant saturable sur certaines longueurs d’onde, ce qui veut dire qu’il absorbe la lumière à basse intensité, mais devient transparent à forte intensité. La comparaison avec le graphène est intéressante : sa réponse est bien meilleure pour des longueurs d’onde de 2,5µm et 2,8µm, équivalente à 800 nm, mais inférieure à 1030 nm.

Des applications dans de nombreux domaines

Les travaux publiés dans le journal Nature Communications évoquent d’autres applications potentielles pour ce matériau. Il pourrait ainsi servir de commutateur optique pour les télécommunications, ce qui permettrait d’améliorer la vitesse et la capacité des communications par Internet.

Par ailleurs, les nano tiges de tellure d’origine biologique sont particulièrement efficaces dans l’infrarouge moyen. Ce domaine de longueurs d’onde est particulièrement intéressant pour l’usinage laser ainsi que le biomédical et pourrait même ouvrir la voie vers de nouveaux moyens de communication en espace libre.

Sources : http://www.uh.edu/news-events/stories/2019/september-2019/09052019-curran-tellurium-nanorods.php

Cybersécurité : l’intelligence artificielle n’est pas l’arme fatale !

La multiplication des attaques informatiques rend très difficile la tâche des équipes de sécurité. Et même si on constate une diversité et une sophistication (des cas récents montrent aussi que les cibles sont « faibles » car elles n’appliquent pas les règles élémentaires de sécurité…) des techniques malveillances, l’ennui est une réalité !

L’identification et l’évaluation des cybermenaces nécessitent l’examen de grandes quantités de données et la recherche de signaux et de comportements suspects. Résultat, de nombreux RSSI, DSI ou experts en cybersécurité sont victimes (ou très proches) d’un burn-out.

Dans un tel contexte défavorable aux organisations, l’IA peut représenter une option salutaire. De plus en plus de fournisseurs de solutions de cybersécurité proposent des produits intégrant de l’IA (ou sa déclinaison, le Machine learning) pour faciliter l’identification des cybermenaces et leurs impacts.

Les algorithmes d’IA peuvent être entraînés à prendre certaines mesures prédéfinies en cas d’attaque et, avec le temps, ils peuvent apprendre quelle devrait être la réponse adéquate grâce à l’apport d’experts en cybersécurité.

De plus, les logiciels d’analyse des données de cybersécurité basés sur l’IA peuvent accomplir une tâche avec une précision toujours plus grande que celle faite par des experts. L’analyse d’importants volumes de données et la détection d’anomalies sont quelques-uns des domaines dans lesquels l’intelligence artificielle pourrait aujourd’hui apporter une valeur ajoutée en matière de cybersécurité.

Les principaux cas d’usage sont les suivants

  •  L’identification des menaces réseau : Les logiciels de sécurité réseau basés sur l’IA peuvent (potentiellement) surveiller tout le trafic entrant et sortant afin d’identifier tout comportement inhabituel.
  • La surveillance des emails : L’IA commence maintenant à être déployée pour renforcer la surveillance des messageries. Reposant notamment sur le traitement en langage naturel, un logiciel de détection d’anomalies peut aider à identifier si l’expéditeur, le destinataire, le corps ou les pièces jointes du courriel sont des menaces.
  • L’IA pour combattre… l’IA : Les entreprises vont devoir impérativement améliorer la vitesse de détection des cybermenaces, car les pirates utilisent maintenant l’IA pour découvrir les faiblesses dans les réseaux.

Mais trop d’entreprises commencent à voir l’IA comme un moyen de réduire leur effectif en matière de cybersécurité. C’est une erreur ! L’IA a besoin du savoir-faire et de l’expérience empirique d’experts. Par ailleurs, la « performance » des algorithmes IA dépend des données qui leur sont transmises.

« C’est plus complexe d’avoir la trace d’une cyberattaque que l’image d’un chat », rappelle le directeur de l’innovation chez Wallix, Henri Binstock. Selon Aarti Borkar, vice-président d’IBM Security, il peut y avoir des erreurs dans trois domaines : le programme, les données et les personnes qui conçoivent ces systèmes d’IA.

La qualité des données a une importance capitale. « Si les données utilisées sont biaisées, l’intelligence artificielle ne comprendra qu’une vision partielle du monde et prendra des décisions basées sur cette compréhension étroite », explique Aarti Borkar.

De la même façon, si les personnes qui conçoivent le programme viennent d’une culture ou d’un milieu similaire et partagent les mêmes idées, la diversité cognitive sera faible. Et cette absence d’ouverture d’esprit ne favorisera pas l’émergence de multiples scenarii.

De façon plus générale, les craintes concernant les limites de l’IA rejoignent indirectement celles des spécialistes de AI Now, l’un des meilleurs groupes de recherches dans le domaine de l’IA.

« Les systèmes techniques échouent encore souvent et l’erreur humaine peut amplifier cette défaillance. Ces questions de sécurité sont particulièrement importantes lorsque des vies sont en danger », avertit AI Now.

Le volume de données ne cesse d’augmenter, les fuites aussi !

Les données sont au cœur de toute activité professionnelle. Les entreprises les utilisent pour améliorer l’expérience client, conquérir des marchés, optimiser leur gestion

Les données sont aussi le « carburant » des services reposant sur des technologies récentes, telles que l’informatique cognitive, l’Internet des objets (IoT), l’intelligence artificielle et l’apprentissage automatique (Machine Learning, ML).

Résultat, le volume de données ne cesse d’exploser. Selon le cabinet IDC, la production de data passerait de 33 zettaoctets en 2018 à 175 zettaoctets (175 milliards de téraoctets) en 2025. Le volume de données devrait très fortement augmenter, en partie à cause de l’Internet des objets.

La data dans le cloud

Mais seuls 1 à 2 % des données créées ou répliquées chaque année sont sauvegardées ou stockées pour une période donnée. La majorité des informations sont donc analysées ou consommées en temps réel.

Considéré comme l’un des piliers de la transformation numérique des entreprises, le cloud va être de plus en plus utilisé comme support de stockage. IDC prévoit que les octets installés dans les clouds publics augmenteront pour passer de 4 % en 2015 à 42 % en 2025. Dès 2021, ce cabinet estime que la part des données sauvegardées dans le cloud dépassera celle dans les datacenters traditionnels.

Aujourd’hui, plus de 5 milliards d’individus utilisent chaque jour des données. D’ici 2025, ils seront 6 milliards, soit 75 % de la population mondiale. En 2025, chaque personne connectée exploitera des données au moins une fois toutes les 18 secondes.

Mais cette exploitation de la data imposera de renforcer leur protection. Or, toutes les entreprises n’ont pas pris, et ne prendront certainement pas (la multiplication des fuites de données appuyant cette prédiction…), toutes les mesures adéquates.

Révolution culturelle

Dans la réalité, la prise de conscience et la mise en place d’une réelle politique sont limitées. Selon un rapport  publié en mai dernier par le Ponemon Institute, la situation est inquiétante.

  • Les effectifs et les budgets ne sont pas suffisants pour gérer les risques liés à l’IoT, interne ou développé par des tiers.
  • Les programmes de gestion des risques par des tiers incluent rarement ceux liés à l’IoT.
  • L’évaluation des risques liés aux objets connectés par des audits n’est pas généralisée.

Plus que jamais, les entreprises doivent prendre conscience des menaces numériques qui peuvent concerner les données. L’entrée en application en mai 2019 du RGPD a permis de faire « bouger les lignes ».

Au-delà d’une série de mesures nécessaires pour être en conformité avec ce règlement européen, c’est toute une révolution culturelle qu’il convient d’entamer. Les mentalités doivent évoluer vers plus de sécurité.

Le bois, un biopolymère composite imprimable en 3D

Bien que le bois soit exploité par l’homme depuis la nuit des temps, sous toutes ses formes, pour concevoir du mobilier, du papier ou encore des textiles, les procédés de transformation conventionnels ont pour conséquence de détruire l’architecture des cellules du bois.

La structure hiérarchique du bois

Le bois est un matériau fascinant, car constitué d’un assemblage de biopolymères qui s’opère à différentes échelles un peu à la manière de poupées russes. Ainsi, les cercles visibles à l’œil nu sont eux-mêmes composés de cellules microscopiques en forme de nid d’abeille, dont les parois peuvent également être considérées comme un matériau composite. Mais ce n’est pas tout : si on observe attentivement ces parois, on constate qu’elles sont un agencement de plusieurs couches concentriques de fibres de cellulose, contenant des microfibrilles nanométriques enrobées d’une matrice organique.

Reproduire la structure en nid d’abeille du tissu cellulaire du bois

C’est cette architecture cellulaire si particulière, appelée ultrastructure du bois, qui intéresse l’équipe de chercheurs dirigée par le professeur Paul Gatenholm. En effet, au cours de leurs travaux précédents, ils avaient déjà réussi à transformer de la pâte à bois en un gel de nanocellulose, la première étape vers la création d’une encre utilisable en impression 3D. Cette fois-ci ils ont été beaucoup plus loin en interprétant le code génétique du bois afin de programmer une imprimante 3D. Ceci leur a permis à la fois de contrôler l’orientation des nano fibrilles de cellulose au cours de l’impression et la forme en nid d’abeille des cellules.

Vers la création de nouveaux produits écologiques

L’équipe du professeur Gatenholm a d’ores et déjà développé plusieurs prototypes en vue d’une industrialisation. Ils ont par exemple élaboré un concept de packaging innovant en imprimant des structures en nid d’abeille autour de particules solides qui se retrouvent emprisonnées dans les parois. Comme la cellulose est une excellente barrière à l’oxygène, il s’agirait donc d’un procédé d’encapsulation permettant d’emballer des denrées alimentaires ou pharmaceutiques. Cette technique permettrait ainsi de concevoir des emballages localement, sur mesure, et d’éviter l’utilisation de plastique dérivé du pétrole, sans créer de déchets.

Des applications dans le domaine spatial

Les technologies d’impression 3D font aujourd’hui partie des éléments clés de la conquête spatiale, car elles permettent notamment aux astronautes de réparer des équipements et de concevoir des outillages. Par ailleurs, les futurs longs voyages spatiaux vers mars imposeront certainement la plantation de végétaux pour la production de nourriture. Or, la cellulose à la particularité d’être une matière première renouvelable qui peut être extraite facilement des plantes. Les chercheurs ont ainsi déjà fait la démonstration de leur technologie à l’occasion d’un workshop organisé par l’agence spatiale européenne (ESA) et travaillent actuellement avec la NASA.

https://www.chalmers.se/en/departments/chem/news/Pages/Mimicking-the-ultrastructure-of-wood-with-3D-printing-for-green-products.aspx

Ancre : la recherche en énergie redéfinit son plan d’action

L’Ancre a par ailleurs annoncé à l’occasion de son assemblée générale avoir désigné son nouveau président, Mohammed Benlahsen, qui préside aux destinées de l’Université de Picardie Jules Verne, depuis 2016.

L’Ancre, qui comporte 20 membres, mais dont les fondateurs sont le CEA (Commissariat à l’énergie atomique et aux énergies alternatives), le CNRS (Centre national de recherche scientifique), la CPU (Conférence des présidents d’universités) et l’IFPEN (Institut français du pétrole et des énergies nouvelles), a pour mission la coordination des politiques de recherche publique en énergie. L’organisme vise à renforcer les liens entre recherches publique et privée, à diffuser l’état des connaissances et identifier les enjeux futurs, afin de contribuer à l’élaboration des politiques publiques, plus particulièrement dans le cadre de la transition énergétique.

Dans un communiqué diffusé le 24 septembre, l’Ancre rappelle que sur ses dix premières années, ses experts ont été mobilisés « sur la coordination de politiques publiques telles que la Stratégie nationale de recherche sur l’énergie (SNRE), la Programmation pluriannuelle de l’énergie (PPE), (ont) mené des études marketing en aval de la recherche, en développant une vision cohérente et partagée des besoins de recherche et d’innovation associés à la transition énergétique (potentiel technologique et économique des filières photovoltaïques à haut rendement, écologie industrielle, électrification des engins off-road, biocarburants pour l’aéronautique, initiatives sur l’énergie dans les campus universitaires mondiaux, production et usages des bio-huiles). »

Néanmoins, depuis son lancement, « sur le plan national, la mise en œuvre de la PPE (Programmation pluriannuelle de l’énergie) et de la SNBC (Stratégie nationale bas carbone), ainsi que les objectifs de neutralité carbone questionnent de manière transversale de nombreux domaines de recherche, sur le plan national et européen », a expliqué François Jacq, Administrateur général du CEA et président de l’Ancre depuis février 2019 jusqu’à l’assemblée du 24 septembre. « C’est pourquoi, afin de redynamiser et renforcer les travaux de l’Alliance, nous avons, ces derniers mois, lancé un plan d’action en quatre points : la finalité de l’Alliance, les actions communes pour ses membres, son organisation et son fonctionnement ainsi que sa communication », a-t-il ajouté.

Recherche de la transversalité

Le nouveau plan d’action de l’Ancre se décline en termes de projet transversaux aux groupes programmatiques (sources d’énergie, usages), en s’appuyant sur de nouveaux scénarios et en prenant en compte les objectifs de neutralité carbone à l’horizon 2050.

Sur le plan européen, l’implication dans la construction du programme Horizon Europe, l’émergence de nouveaux partenariats, des relations renforcées avec l’alliance européenne de recherche sur l’énergie (EERA) permettent à l’Alliance de peser sur la construction de l’Europe de la recherche sur l’énergie et de nourrir des échanges avec les partenaires européens.

En parallèle, l’Ancre constitue une excellente opportunité de tisser des réseaux au sein d’une communauté recherche dans le domaine de l’énergie, de construire et de structurer de nouvelles communautés, de peser sur l’orientation des politiques publiques, la programmation de la recherche et d’anticiper les enjeux du futur.

Nouvelle gouvernance, nouveau président

A l’occasion du renouvellement bisannuel de la gouvernance de l’Ancre, les membres de l’assemblée générale ont désigné, pour deux ans, Mohammed Benlahsen, Président de l’Université de Picardie Jules Verne, à la présidence de l’Alliance.

L’Université de Picardie Jules Verne est très investie sur la thématique du stockage électrochimique de l’électricité (Labex STORE-EX, Réseau RS2E, coordination du réseau européen Alistore…). Le nouveau président est particulièrement impliqué dans les recherches sur les couches minces et les nanotubes.

L’impétrant a déclaré, à l’occasion de sa désignation, que « l’alliance a élaboré ces six derniers mois un plan d’action ambitieux impliquant notamment une réorganisation des travaux des groupes programmatiques en mode projet, sur des sujets impliquant une grande transversalité entre les champs thématiques de ceux-ci, ce qui est nécessaire pour porter une vision de la neutralité carbone à l’horizon 2050. Un travail approfondi devra également être réalisé avec les alliances Allistene (numérique), Athena (sciences humaines et sociales) et AllEnvi (environnement). Il sera aussi nécessaire de porter la vision des communautés scientifiques et des sciences de base qui irrigueront le domaine de l’énergie à un horizon de 10 à 15 ans ».

Une nécessité d’interdisciplinarité pour les ingénieurs

ETI: Comment caractériser l’ingénieur de 2019 ?

Gérard Duwat: Je pense qu’il y a une évolution dans la mentalité des ingénieurs. Il y a un désir d’indépendance, d’entreprenariat, même si cela ne se constate pas encore dans les faits. On y reviendra. Au-delà, on sent chez les ingénieurs une forte sensibilité aux problèmes environnementaux: c’est une banalité de le dire, mais on le constate aujourd’hui concrètement dans le choix des sujets auxquels s’attèlent les ingénieurs, dans les projets développés dans les écoles d’ingénieurs, les incubateurs, les start-ups… Pour simplifier, on peut dire qu’il y a deux domaines d’intérêt chez les jeunes ingénieurs attirés par l’entreprenariat, d’une part les problématiques environnementales, et d’autre part l’utilisation des plateformes numériques pour proposer un offre commerciale nouvelle.

Ensuite ?

On note aussi une autre tendance, comportementale. Il s’agit d’un renforcement, de la déontologie et de l’éthique individuelle. Un élément qui vient conforter cela est l’exigence relativement nouvelle des ingénieurs d’un accompagnement éthique et déontologique autour des sujets touchant à l’intelligence artificielle par exemple. C’est quelque chose de très net et relativement récent.

Au-delà, notre enquête fait également ressortir que les ingénieurs ont de plus en plus conscience d’être des acteurs à part entière de la transformation société, il y a une véritable responsabilisation de ce côté là.

Les ingénieurs se voient-ils de plus en plus comme des entrepreneurs potentiels ?

Il y a une volonté de plus en plus forte pour aller vers la libre entreprise. Il y a également un travail de préparation qui est fait au niveau des écoles.. Cela dit, dans les faits, ceci reste encore assez marginal, quand on regarde aujourd’hui le nombre d’entrepreneurs à titre principal, nous sommes autour de 6% par rapport à la totalité des ingénieurs en activité. De plus en plus d’ingénieurs ont une activité libérale secondaire, beaucoup de retraités en particulier.

Qu’est-ce qui freine cette progression ?

Le passage à l’acte n’est pas évident, d’où les chiffres observés, mais les écoles font un travail de formation et d’accompagnement de plus en plus pertinent. Avant l’an 2 000, moins de 10% des ingénieurs ambitionnant de créer leur entreprise estimaient avoir été bien préparés à cela. . Aujourd’hui, ils sont plus de 30%.

Quel rôle jouent les entreprises dans cette évolution ?

Les entreprises aussi favorisent cette tendance, en créant leurs propres incubateurs, et en encourageant leurs salariés à créer des start-ups au sein de leur écosystème.

Après, il ne faut pas surestimer cette tendance, Une bonne moitié des des élèves ingénieurs n’ont aucunement l’ambition de créer leur entreprise au cours de leur carrière, ni même d’exercer une métier de manageur.

Et un frein majeur subsiste aujourd’hui qui amoindrit les velléités de nos ingénieurs pour créer leur entreprise, c’est la question du financement.

N’y a t-il pas également un aspect culturel, si on compare avec ce qui se passe chez les Anglo-saxons par exemple ?

C’est vrai que la formation que reçoivent les ingénieurs anglais et américains est différente de la nôtre. En France on a tendance à aller du particulier vers le général. C’est l’inverse aux Etats-Unis par exemple. Du coup, je pense qu’ils sont mieux préparés à l’entreprenariat, en ayant une vision beaucoup plus large de leur métier. Et puis, on y revient, il y a aux Etats-Unis une facilité de financement qui est incomparable par rapport à ce que nous connaissons en France.

Une autre tendance forte aujourd’hui chez les ingénieurs est l’apprentissage tout au long de leur carrière. Comment les écoles d’ingénieurs appréhendent-elles ce défi ?

Les acquis techniques ou technologiques que l’on peut développer au cours de ses études sont devenus extrêmement précaires. Rien n’est définitif, tout est à apprendre continuellement. L’une des grande force des écoles d’ingénieurs françaises est de maintenir de façon très forte la volonté de former beaucoup plus les esprits pour leur capacité à apprendre que pour ce qu’on leur délivre. Les écoles d’ingénieurs, il me semble, restent sur ce crédo là aujourd’hui et c’est très bien.

Je pense également que les écoles d’ingénieurs ont nettement compris que pour être un ingénieur complet, il y a une nécessité d’interdisciplinarité. Il faut que les connaissance d’un ingénieur se mêlent à la connaissances d’autres ingénieurs, de filières différentes. Les ateliers de codesign par exemple, qui se multiplient dans les écoles d’ingénieurs, en sont la parfaite illustration. Cette nécessité de travailler en interdisciplinarité implique des capacités d’adaptation, d’ouverture et de curiosité qui sont des ingrédients indispensables aujourd’hui pour les futurs ingénieurs.

Techniques de l’Ingénieur sera présent à Smart City !

Depuis 6 ans, le Salon SMART CITY + SMART GRID aide les entreprises, les décideurs locaux et territoriaux à appréhender et identifier les nouvelles technologies et solutions « smart cities » disponibles pour des bâtiments, des villes et des territoires durables, intelligents et connectés…

Voici les grands thèmes qui seront abordés sur l’édition 2019 :

  • Solutions de pilotage unique de la ville et de ses équipements,
  • Le développement d’offres « as a Service » pour financer les investissement de la ville et faire des économies,
  • Solutions pour la sécurité urbaine, le contrôle et la surveillance (qualité de l’air, santé, éclairage urbain, vidéo-protection, les cyber-risques, la gestion des données personnelles RGDP, ou comment la smart city devient une safe city plus sobre, plus respirable et plus sûre pour les citoyen),
  • Projets d’utilisation intelligente de réseaux d’énergies et services pour la ville (solutions de stockage d’énergie décentralisés, démonstrateurs smart grid sortant de leur statut expérimental, outils de dialogue entre la ville et les citoyens).

Avec l’accroissement des technologies telles que l’IA (Intelligence Artificielle), l’analyse prédictive, l’IoT, le développement des nouvelles solutions pour la gestion des réseaux d’électricité, de gaz et d’eau, la croissance globale de la population urbaine, les applications connectées sont de plus en plus autonomes et intelligentes et sont en passe de transformer durablement de nombreux secteurs et domaines.

Ainsi durant 2 jours, SMART CITY + SMART GRID réunira :

90 sociétés exposantes : fournisseurs de produits, d’équipements, de solutions réseaux très haut débit et d’objets communicants pour la ville et le bâtiment – Opérateurs de services aux collectivités (eau, déchets, efficacité énergétique, performance environnementale, mobilité urbaine…) – Opérateurs de solutions énergétiques – Editeurs de logiciels – Intégrateurs de solutions IT.

2 500 visiteurs professionnels attendus : acteurs de la ville et des communautés urbaines (services de l’urbanisme, de l’environnement, l’énergie, les transports, la voirie, les systèmes d’information, l’aménagement numérique de la ville), aménageurs, promoteurs immobiliers, SEM, EPA, régies, syndicats intercommunaux, investisseurs publics et privés, gestionnaires de patrimoine immobilier.

Ainsi qu’un cycle de 20 conférences et 15 ateliers : riche en contenu et animé par des experts référents dans leur domaine de compétence.

Vers un nouveau record des cyberattaques ?

Selon une étude du courtier Aon, le nombre de cyberincidents sur le premier semestre est déjà supérieur au niveau des années 2015 et 2016 entières. Il a répertorié 3718 cyberincidents dans le monde au premier semestre. A ce rythme-là, les niveaux atteints l’an dernier seraient largement dépassés (5858 cyberincidents en 2018).

« Les données les plus récentes suggèrent que les “ransomwares” (ou rançongiciels, NDLR) et les fuites de données sont en augmentation par rapport à 2018, qui avait été l’année la plus prolifique en matière de fuites », signalent les experts d’Aon.

Les ransomwares sont des codes malveillants qui se cachent, principalement, dans les pièces jointes des emails. En cliquant sur un PDF ou une photo envoyée par email, une personne déclenche involontairement l’attaque informatique. Elle va consister à chiffrer (crpyter) tous les fichiers de son ordinateur et ceux partagés avec ses collègues au bureau. Résultat, l’activité de l’entreprise est au point mort car plus personne ne peut travailler…

Messagerie mal sécurisée : usurpation

Les statistiques d’AON rejoignent celles publiées en juillet par AIG (American International Group). Son étude faisait remarquer que les dépôts d’assurance liés aux BEC (Business email compromises) représentaient près d’un quart (23 %) de toutes les demandes d’indemnisation en cyberassurance qu’elle a reçues l’an passé.

Les BEC s’appuient sur l’usurpation de l’adresse email d’un dirigeant pour demander, par exemple, au DAF ou au comptable de l’entreprise de faire un virement (frauduleux évidemment) ou pour récupérer des données confidentielles.

Ce chiffre confirme celui publié il y a quelques mois dans le rapport de Beazley : les attaques de type Business email compromises (BEC) ont représenté 24 % du total des incidents signalés en 2018, contre 13 % en 2017.

AIG attribue la récente augmentation des réclamations de cyberassurance liées aux BEC aux mauvaises mesures de sécurité mises en place par les entreprises victimes : utilisation de mauvais mots de passe, pas d’authentification multifactorielle, manque de formation des collaborateurs concernant les menaces numériques…

L’erreur ou la négligence humaine

Ce type d’attaque peut coûter très cher aux organisations. Selon une étude récente du FBI, les attaques du BEC ont coûté presque 12 milliards d’euros aux entreprises dans le monde entier au cours des cinq dernières années. En juin 2018, le FBI avait arrêté 74 cybercriminels sur trois continents. Plus de 14 millions de dollars avaient été récupérés.

AIG confirme que les logiciels de rançon (ou ransomware) arrivent en seconde position (18 %) des dépôts de plainte qu’il a enregistrés. Mais il s’attend à ce que les ransomwares reprennent bientôt la première place qu’ils occupaient l’année précédente, en 2017, lorsque les sinistres liés aux logiciels de rançon représentaient 26 % de toutes les réclamations de cyberassurance.

Enfin, AIG indique que les demandes d’indemnisation et dépôt de plainte pour atteinte à la protection des données causées par des pirates informatiques et les atteintes à la protection des données causées par la négligence des employés (p. ex., envoi de données à la mauvaise personne), arrivent ensuite, avec 14 % chacune.

Dans ce contexte, il est essentiel de mettre en place des outils de sécurité adaptés et une politique de sauvegarde. Mais les entreprises ne doivent pas oublier la formation/sensibilisation de leurs collaborateurs.

Début septembre, Proofpoint (un des poids lourds de la sécurité informatique) révélait que 99 % des menaces nécessitent une action humaine pour s’exécuter (activer une macro, ouvrir une pièce jointe, cliquer sur un lien, etc.), soulignant l’importance de l’ingénierie sociale dans l’efficacité des attaques.

« Les ingénieurs ont délaissé le secteur financier pour celui du conseil »

E.T.I : L’enquête annuelle de l’IESF fait état pour 2018, comme pour les années précédentes, d’une situation privilégiée des ingénieurs sur le marché de l’emploi.

Gérard Duwat: L’accès à l’emploi est extrêmement rapide à la sortie des écoles, à tel point qu’aujourd’hui plus de 60% des ingénieurs sont embauchés avant même l’obtention de leur diplôme.
Leur niveau de satisfaction professionnelle reste très élevé bien que les salaires n’augmentent que faiblement à euro constant. Après la crise de 2008, on a plutôt constaté une tendance des entreprises à retenir les talents et à rémunérer les “anciens”, en tout cas ceux qui apportent une valeur reconnue par l’entreprise, plutôt que de faire de la surenchère auprès des jeunes.

Qu’en est-il de l’expatriation des ingénieurs ?

Le phénomène d’expatriation vers l’étranger a atteint aujourd’hui son asymptote: depuis plusieurs années le nombre d’ingénieurs travaillant à l’étranger varie peu, autour de 17%, ce qui est quand même relativement élevé. Les intentions de retour, moins d’un sur deux, leur niveau de satisfaction restent stables.

Les ingénieurs sont également moins attirés par le secteur financier…

La crise de 2008 a été une rupture. Depuis, on a observé un phénomène qui n’a fait que se confirmer, c’est la baisse de l’appétence des ingénieurs pour le secteur financier. Les chiffres le montrent dans toutes les enquêtes.

Un autre phénomène de bascule a été constaté : les ingénieurs qui avaient un attrait pour le secteur de la finance se sont tournés en masse vers le conseil.

Les ingénieurs délaissent-ils les grandes entreprises pour les start-ups, comme on l’entend souvent dire ?

Cette année, l’enquête IESF ne s’est pas attardée sur les chiffres concernant l’entreprenariat profondeur l’année dernière. Si le goût pour l’entreprenariat et le sentiment d’y être mieux préparé augmentent, ceci ne se traduit pas encore les faits de façon significative.

De fait, on entend souvent dire que les jeunes ingénieurs ont un attrait très important pour les jeunes pousses, qui pourrait à terme poser des problèmes de recrutements pour les grandes entreprises… si c’est le cas, rien dans les enquêtes que nous avons menées ne vient valider cette thèse, pour le moment en tout cas.

2018 est en tout cas une année particulièrement dynamique en termes d’embauches.

Globalement les embauches sont toujours aussi importantes, avec près de 125 000 embauches en 2018, dont environ 30 000 primo accédants à l’emploi.

Cela indique donc un turn over assez important, puisqu’on compte à peu près 100 000 ingénieurs qui ont changé d’emploi durant cette période. Cette tendance est vraie en France mais est aussi valable pour les ingénieurs travaillant à l’étranger, avec 23 000 recrutements en 2018.

Il y a donc du mouvement. L’image de l’ingénieur qui fait toute sa carrière dans la même entreprise n’existe plus. Ce qui ne va pas sans créer parfois des problèmes pour les entreprises, qui se retrouvent en tension en termes de recrutements.

Quels sont les secteurs les plus porteurs ?

Le secteur aéronautique reste très porteur, avec 4 500 embauches en 2018 (3750 l’année précédente), alors que le secteur automobile embauche un peu moins en 2018 (5 000 embauches contre 5 650 l’année précédente). Dans le domaine de l’énergie, il y a à nouveau une demande forte, avec une augmentation des embauches en 2018 par rapport à 2017.

Ce qui se confirme, comme nous l’avons déjà évoqué, concerne le secteur des banques et assurances: ces secteurs continuent à embaucher, mais sans commune mesure avec le passé: environ 5 000 embauches en 2018.

Aujourd’hui les banques continuent à recruter des ingénieurs, pour relever des challenges essentiellement liés à la transformation numérique et l’adaptation des systèmes d’informations, non pas pour développer des algorithmes destinés à être utilisés dans les salles de marchés, comme ça a pu être le cas à une certaine époque.

Et cette évolution a profité au secteur du conseil.

Les sociétés de conseil en stratégie ou en management ont attiré beaucoup d’ingénieurs des grandes écoles (7 600 embauches en 2018), c’est devenu un des secteurs d’embauches le plus important. Et on a observé, comme on en parlait précédemment, un effet de vase communicant, entre le secteur financier qui embauche moins depuis quelques années et le secteur du conseil, qui a pris une importance grandissante.

Un point qui m’a frappé également concerne le domaine de la logistique. Quasi inexistant il y a quelques années, il est aujourd’hui en plein développement et a embauché 1 800 ingénieurs en 2018 ! Ce qui n’a finalement pas grand chose d’étonnant, quand on observe les bouleversements qui s’opèrent dans ce secteur, avec l’arrivée d’acteurs comme Amazon qui créent une foule de nouveaux métiers dans le domaine de la logistique.

Quel est le secteur où la tension en termes de recrutement est la plus importante ?

C’est probablement dans le secteur des sociétés de services et de logiciels que que la situation est la plus tendue. On peut distinguer d’un côté tout ce qui est conseil et services informatiques, et de l’autre les sociétés d’ingénierie. L’un comme l’autre restent les plus gros embaucheurs, avec pour la partie numérique près de 16 000 recrutements (13 000 l’année précédente) et 13 600 pour les sociétés d’ingénierie (contre 12 800 en 2017).

Ce qui est certain c’est que l’ensemble des sociétés de services reste le plus gros pourvoyeur d’emplois pour les jeunes ingénieurs, puisqu’il totalisent environ 30 000 embauches l’an dernier.

Chose étonnante, ce secteur qui embauche le plus, est aussi celui pour lequel le niveau de satisfaction des ingénieurs et la rémunération occupent les plus mauvaises places d’après notre enquête. Ceci n’est d’ailleurs pas nouveau: beaucoup d’ingénieurs choisissent ces filières pour compléter leur formation technique et professionnelle et migrent ensuite vers d’autres secteurs qui leur apportent plus de satisfaction en termes de rémunération et d’opportunités.

Propos recueillis par Pierre Thouverez

La compensation, parent pauvre de la protection de la biodiversité

Des chercheurs du Museum national d’Histoire Naturelle (MNHN) et d’AgroParisTech ont étudié les projets de compensation des atteintes à la biodiversité de 24 projets d’infrastructures. Leur étude a analysé les dossiers de compensation de 16 routes et autoroutes, d’un chemin de fer, de deux lignes électriques, de deux aqueducs souterrains et de trois gazoducs. Ces projets d’aménagements menés entre 2012 et 2017 – 17 en Occitanie et 7 dans les Hauts-de-France-, montrent qu’il faut développer de nouvelles méthodologies et de nouveaux indicateurs pour améliorer la compensation en matière de biodiversité.

L’équipe note un grand déséquilibre dans les informations disponibles entre les pertes et les gains de biodiversité de chaque projet. « L’emplacement, la nature et l’étendue des impacts sont documentés et certains. En revanche, la génération et l’évaluation des gains sont vagues et incertains », notent les chercheurs. 81% des surfaces compensées sont des zones naturelles ou semi-naturelles. La compensation des projets analysés se limite en grande partie à quelques mesures pour préserver la garrigue des forêts et des prairies sèches. Seulement 20% des surfaces se trouvent sur des zones agricoles dégradées par l’agriculture intensive ou d’anciennes friches industrielles. Parmi celles-ci, « seulement 3% de la superficie était artificielle avant le travail de compensation, offrant des gains potentiels élevés », calcule l’étude. En plus, les dossiers ne comportent que peu d’informations sur le niveau de conservation des sites et leur qualité écologique.

Une compensation sur des surfaces faibles

Outre le peu d’information sur la qualité écologique des sites de compensation retenus, l’étude pointe des surfaces de compensation beaucoup plus faibles que les surfaces impactées. Les 24 projets s’étendent sur des surfaces allant de 5,6 à 1081 hectares, alors que les surfaces de compensation s’échelonnent de 0,16 à 130 hectares. « La superficie totale des sites impactés est de 2451 hectares, tandis que la superficie totale de compensation est de 577 hectares », relève l’étude.

En plus, alors que les projets s’étendent généralement sur un seul site, les surfaces de compensation sont le plus souvent morcelées, réparties en moyenne sur 3,83 sites par projet. « La compensation est censée encourager les conditions propices au développement de la biodiversité, et devrait donc cibler de grands sites. Cependant, il est en fait effectué sur une multitude de petits sites, ce qui rend encore plus difficile l’obtention de gains de biodiversité » , constate l’étude.

Quels projets sont concernés par l’évaluation environnementale?

Le Code de l’environnement liste les projets de travaux, d’ouvrages ou d’aménagements soumis à évaluation environnementale obligatoire. C’est par exemple le cas des autoroutes, des routes de plus de 10 km ou de la construction de voies pour le trafic ferroviaire à grande distance. D’autres projets sont examinés au cas par cas afin de déterminer, au regard de leurs possibles impacts environnementaux, si une évaluation environnementale est nécessaire.

En particulier, l’étude d’impact doit prendre en compte la séquence « éviter, réduire et compenser » concernant les incidences négatives sur l’environnement. La loi biodiversité de 2016 affiche par ailleurs l’objectif d’absence de perte nette de biodiversité, voire de gain. Elle oblige tout projet impactant la biodiversité et les services qu’elle fournit à respecter la séquence éviter, réduire et compenser.

Le maître d’ouvrage précise la nature des compensations dans l’étude d’impact et reste l’unique responsable de l’efficacité de la compensation. Pour ce faire, il identifie des zones où il s’engage à compenser les pertes de biodiversité engendrées sur le site de son projet.

Quels métiers pour les nouveaux ingénieurs ?

Les ingénieurs sont toujours très prisés par les recruteurs. Ce n’est plus une nouvelle. Aujourd’hui pourtant, certains secteurs restent sous tension. Pour plusieurs raisons.

D’abord, et c’est une problématique qui prend de plus en plus d’importance, la formation. En effet, certains secteurs peinent à recruter depuis quelques années, à cause d’une pénurie de main d’oeuvre adéquatement qualifiée. D’où une responsabilité accrue des écoles d’ingénieurs, dans l’adaptation de leur cursus en fonction des besoins de l’industrie.

Les secteurs qui recrutent le plus

Le secteur métallurgique est celui qui devrait recruter le plus, avec 110 000 postes à pourvoir par an d’ici 2025. L’industrie mécanique prévoit elle de créer 40 000 postes par an durant les cinq prochaines années.

L’industrie aéronautique également prévoit de recruter en 2020. Si les besoins sont là, les secteurs que l’on vient de citer connaissent tous une problématique qui n’est pas nouvelle mais dont les conséquences sont de plus en plus lourdes. En effet, l’image de l’industrie auprès des jeunes n’est pas bonne, même si la tendance évolue favorablement depuis peu.

Ainsi, les jeunes diplômés se laissent plus facilement séduire par une expérience à l’étranger, ou alors ils choisissent des start-ups et  des secteurs comme les technologies de l’information… bref, pas les grandes entreprises industrielles.

Comme on l’a dit, cette tendance évolue, notamment avec l’émergence de l’usine du futur, qui véhicule une image moderne du métier d’ingénieur, mais aussi du travail à l’usine: impression 3D, réalité virtuelle, robotique, intelligence artificielle… sont ainsi les nouveaux métiers d’avenir.

Au-delà, l’apprentissage et la formation sont deux domaines fondamentaux pour l’industrie française dans les années qui viennent. La capacité des écoles d’ingénieurs à adapter leurs cursus de formation en fonction des nouveaux besoins en termes de compétences – et de compétences croisées – de l’industrie fera la réussite de l’industrie dans les décennies qui viennent.

Numérique, énergie et expatriation

Les ingénieurs français gardent une très bonne cote à l’étranger. «Les ingénieurs français sont très polyvalents, capables de s’adapter rapidement et reconnus pour leur capacité à analyser, traiter et proposer des solutions créatives à des problèmes complexes et multi-dimensionnels», confie un entrepreneur exerçant en Amérique du Sud dans le domaine des énergies renouvelables.

Justement, le domaine des énergies renouvelables et plus globalement la problématique de la transition énergétique drainent de plus en plus d’emplois. De même que le domaine du numérique, en pleine révolution.

Dans les deux cas, les compétences recherchées par les recruteurs sont un défi pour les ingénieurs. En effet, ces derniers doivent développer, en plus de compétences techniques des compétences spécifiques: c’est la raison pour laquelle beaucoup d’ingénieurs commencent leur carrière dans des sociétés informatiques et de logiciels, avant de bifurquer vers des emplois mieux rémunérés. Ainsi ils élargissent transversalement leurs compétences et sont plus à même à relever les défis actuels.

C’est pourquoi la formation et le rôle des écoles d’ingénieurs deviennent aujourd’hui fondamentaux. Au-delà de la nécessité de former plus d’ingénieurs dans les années qui viennent pour résoudre les problématiques de pénuries qui émergent, l’évolution des cursus et la nécessité d’élargir les compétences des futurs ingénieurs constituent des défis d’une importance capitale.

 

Les microplastiques doublent tous les 15 ans dans les sédiments de Santa Barbara

Trois chercheurs de l’Institut d’océanographie Scripps de l’Université de Californie à San Diego publient une étude sur la contamination par les microplastiques des sédiments côtiers du Bassin de Santa Barbara dans la revue Science Advances. Ils ont analysé une carotte de sédiments prélevée à 580 mètres de profondeur. Elle couvre la période 1834-2009.

« Nous avons constaté une augmentation exponentielle des dépôts de plastique de 1945 à 2009 avec un doublement tous les15 ans, expliquent les chercheurs. Cette augmentation est étroitement corrélée à la production mondiale de plastique et à la croissance démographique côtière du sud de la Californie au cours de la même période.  » En 2009, le taux de dépôt de microplastiques dans le sédiment y atteignait près de 4000 particules par centimètre carré par an.

Un indicateur de l’Anthropocène

Comme d’autres études récentes, les chercheurs proposent d’utiliser le plastique comme indicateur géologique de l’ère moderne. « Cette augmentation des dépôts plastiques au cours des années qui ont suivi la Seconde Guerre mondiale peut être utilisée comme un indicateur géologique de la grande accélération de l’Anthropocène dans les données sédimentaires  », avancent-ils.

Dans les dépôts post-1945, les chercheurs ont majoritairement trouvé des fibres (67,5%) et des fragments (20,8%). Il y avait peu de films (9,7%) et très peu de billes (2%). Par spectroscopie infrarouge à transformée de Fourier, ils ont identifié la présence des plastiques les plus utilisés dans les produits de consommation courante : polystyrène, polyéthylène basse et haute densité, PVC, polyamide, polyester, PET et polypropylène.

Les sédiments récoltés à 580 mètres de profondeur sont passés sur un tamis de mailles 104 µm. La plupart des microplastiques mesuraient entre 500 et 1000 µm. « Les petits microplastiques trouvent leur chemin vers le benthos marin où ils sont susceptibles d’être ingérés par divers organismes », relatent les chercheurs.

Une nouvelle peau bio-imprimée en 3D pour la recherche cosmétique

« Comparée aux méthodes in vitro actuelles, la peau bio-imprimée en 3D développée avec CTIBiotech permettra une analyse plus proche de la physiologie humaine et du rôle immunitaire des macrophages », affirme le Dr Sébastien Cadau, spécialiste en modèle de peau en 3D chez BASF à Lyon. « C’est ainsi que la technologie va nous aider à accélérer le développement d’actifs innovants et extrêmement fiables pour le marché cosmétique. » Autrement dit, cette peau bio-imprimée en 3D permettra le développement d’ingrédients actifs ayant des propriétés anti-inflammatoires et l’évaluation d’actifs cosmétiques.

Les macrophages sont des cellules spécialisées des globules blancs impliquées dans la détection, la phagocytose et la destruction des bactéries et des organismes nuisibles. Ils surveillent en permanence le micro-environnement de la peau pour détecter des signes de stress cellulaire, de lésion tissulaire ou d’infection. Les macrophages assurent un rôle essentiel pour cicatriser les plaies et pour régénérer entièrement les tissus. Enfin, ils présentent un degré élevé de plasticité qui favorise ou supprime l’inflammation.

BASF et CTIBiotech collaborent depuis 2011 et ont commencé à travailler sur des modèles de peau en 3D pour le développement et le test d’actifs destinés aux soins cutanés en 2015. Ils obtiennent leur premier grand résultat en 2018. Ils démontrent alors à la fois la production ex vivo de sébum physiologique dans le modèle 3D de glande sébacée humaine et sa régulation au moyen d’ingrédients actifs. « La prochaine évolution du modèle de glande sébacée reposera sur une technologie de bio-impression 3D qui nous permettra de reproduire entièrement les micro- glandes dans un modèle de peau humaine complète in vitro », annonçait alors les deux entreprises.

L’équipe de France du nucléaire dévoile son petit réacteur modulaire

La technologie retenue est fondée sur celle des réacteurs à eau pressurisée (REP) qui équipent le parc actuel français. L’objectif des SMR (ce sont les initiales anglaises qui sont les plus utilisées) est de répondre aux besoins croissants en électricité décarbonée, dans le monde entier. C’est pourquoi ce REP devrait avoir une puissance comprise entre 300 et 400 MW, afin de pouvoir être intégré dans n’importe quel taille de réseau électrique, indique un communiqué de presse des quatre entités le 17 septembre. Loïc Rocard, PDG de TechnicAtome, et pilote de ce consortium français, a rappelé à Vienne que la solution développée reposera sur des REP de 340 MW, composés de deux réacteurs de 170 MW chacun, fonctionnant à l’image des réacteurs actuels du parc d’EDF (par deux), rapporte la Société française d’énergie nucléaire (SFEN).

Très en avance sur ce sujet, le Canada dispose d’une feuille de route visant à développer ces solutions pour des sites éloignés, voire isolés du réseau, notamment pour l’industrie minière.

C’est également un moyen de remplacer de nombreuses centrales au charbon, dont la puissance, par « module » est souvent de 400 MW, plus particulièrement pour les plus anciennes et donc les plus polluantes et émettrices de CO2.

L’expérience de la « team France »

Ce projet de SMR va bénéficier de 50 ans d’expérience et de l’équivalent de 2 000 années-réacteur de ses concepteurs, soit la durée cumulée de fonctionnement des réacteurs actuels du parc français, et des installations de recherche. Les porteurs du projet espèrent pouvoir proposer une offre commerciale pour la fin de la prochaine décennie.

Basé sur la technologie éprouvée de REP, Nuward sera une solution modulaire qui intégrera plusieurs innovations majeures, au bénéfice de l’opérateur et de la compétitivité du produit. Les concepteurs ont déclaré qu’il offrirait «la simplicité et la compacité d’une conception intégrée, la flexibilité dans les phases de construction et d’exploitation, ainsi qu’une approche innovante en matière de sécurité, conformément aux normes mondiales les plus strictes. »

Le CEA apportera « ses compétences en matière de conception de cœurs de réacteurs, de développement et de validation d’outils de calcul, d’analyses de sûreté, de qualification de systèmes et de composants en mettant à disposition ses installations de test pour des actions de R&D », insiste Christian Jacq, administrateur général du CEA.

EDF mettra à profit son expérience d’architecte-ensemblier et d’opérateur de tranches nucléaires.

Spécialiste des sous-marins et des porte-avions à propulsion nucléaire, Naval Group fournira son expertise en matière de structures nucléaires modulaires et petites. Hervé Guillou ajoute que « Naval Group est ainsi engagé dans les plus hauts standards de sécurité, de compétitivité et d’innovation dans le domaine nucléaire. Cette coopération est une belle opportunité et offre d’intéressantes synergies avec notre cœur de métier dans la propulsion nucléaire. »

Et TechnicAtome apportera son savoir-faire en matière de conception de réacteurs compacts, acquis grâce à la conception de plus d’une vingtaine de réacteurs nucléaires pour le parc de sous-marins français.

Nécessaire coopération internationale

Les quatre partenaires se sont déclarés ouverts, le 17 septembre, à la coopération internationale en matière d’harmonisation de la réglementation, de normalisation, de conception et d’optimisation. Jean-Bernard Lévy a rappelé, à Vienne, que « travailler sur l’harmonisation et la normalisation est aussi essentiel pour la viabilité des SMR. En effet, compte tenu de leur petite taille, ils ne peuvent pas être repensés pour chaque projet afin de répondre à la demande spécifique de chaque organisme de réglementation de chaque pays. La viabilité de l’analyse de rentabilisation des SMR réside dans la perspective d’une certaine harmonisation future. Le rythme auquel une telle harmonisation sera gérée déterminera la capacité de la première génération de SMR à faire partie de la transition énergétique. Je crois que le centre de Vienne de l’AIEA, qui délivre les normes de sécurité, est le meilleur endroit, selon moi, pour appeler à cette harmonisation ! », rapporte la SFEN.

Le CEA et EDF ont déjà entamé un dialogue avec Westinghouse Electric Company afin d’étudier une telle coopération pour développer des SMR, ont expliqué les quatre partenaires le 17 septembre. Le design du SMR de Westinghouse « intègre la seule technologie de « sûreté passive » en exploitation », signale un communiqué des parties prenantes, publié le 17 septembre également.

« Dans le cadre de cette coopération internationale, les parties s’engagent également à coopérer pour la standardisation de la réglementation et l’harmonisation des normes relatives au design, condition essentielle pour une mise en œuvre réussie de la technologie SMR, » ajoute le communiqué commun du CEA, d’EDF et de Westinghouse, qui présenteront une feuille de route détaillé du projet au début de l’année 2020.

Revue du Web #126 : les vidéos les plus étonnantes du mois

Un robot filiforme capable de glisser dans les vaisseaux sanguins

Des chercheurs du MIT ont imaginé un robot filiforme pour traiter les accidents vasculaires cérébraux et les anévrismes. A la fois souple et élastique, ce robot est une véritable avancée médicale pour les chirurgiens qui pourront même opérer à distance.

La carte de crédit Apple peut se transformer en couteau

Apple a lancé sa carte de crédit aux Etats-Unis et elle se démarque des cartes traditionnelles. En effet, il s’agit d’une carte en titane, un matériau très résistant. Tellement résistant que cette carte bancaire peut, par exemple, servir à couper des aliments. Démonstration.

Un robot « attrape-méduse »

Un centre de recherche d’Harvard a développé une pince robotisée à très faible pression, capable d’attraper en douceur certains organismes marins fragiles, tels que la méduse.

Un robot « surveillant de sites industriels »

La start-up suisse ANYbotic a dévoilé un nouveau robot à quatre pattes, baptisé ANYmal C, destiné aux tâches d’inspection et de vérification sur des sites difficiles d’accès pour les humains, comme les plates-formes pétrolières ou les conduits étroits. Capable de se déplacer, il a été surtout conçu pour inspecter des machines ou des installations soumises à d’éventuelles défaillances et anomalies.

Une machine mi-distributeur de jus d’orange, mi-imprimante 3D

L’agence d’architecture Carlo Ratti Associati (CRA) a présenté le distributeur de jus du futur. La machine n’écoule pas seulement des litres de jus d’orange, elle fabrique également des gobelets grâce à l’écorce des fruits. Ce projet vise à promouvoir l’économie circulaire.

Le monde de 2059, vu par Samsung

Un groupe d’experts mandatés par Samsung a imaginé à quoi pourrait ressembler notre société dans 50 ans. Leurs propositions sont variées et les concepts les plus fous se mélangent dans ce qui ressemblerait à la ville de demain.

Le réseau de transport d’électricité de demain

Dénommé Schéma décennal de développement du réseau (SDDR), le document part de plusieurs constats réalisés sur les lignes très haute tension d’électricité en France (63 kilovolts à 400 kV). Comme l’a lui-même indiqué François Brottes, il y a à la fois la transition énergétique, qui implique des changements profonds, et l’enjeu de renouvellement d’un réseau dont la moyenne d’âge atteint les 50 ans. Ainsi, au total, cela conduit RTE à viser d’ici à 2035 (et non 2030, comme le laisse supposer le caractère décennal du SDDR) un investissement nécessaire de 33 milliards d’euros, ce qui correspond à environ  2 milliards d’euros par an, contre une moyenne de 1,3 md€ à 1,5 md€ ces dernières années… Ramené à l’horizon du SDDR, cela suppose 20 milliards d’euros d’ici à 2030, à comparer aux 61 md€ prévus en Allemagne, ou aux 5md€ en Belgique sur la même période. Le Royaume-Uni a misé sur 12,4 md€ sur 2021-2025 et l’Italie sur 6,2 md€ sur 2019-2023. Preuve selon RTE que le gestionnaire du réseau de transport a clairement misé sur une approche « au plus juste en intégrant les possibilités de flexibilité des énergies renouvelables. » A l’horizon 2035, le « coût » du réseau de transport d’électricité ne devrait ainsi pas être modifié proportionnellement, demeurant à 10% de la facture des consommateurs.

Il faut en effet rappeler que c’est la Commission de régulation de l’énergie (CRE) qui doit donner son accord à ce programme d’investissements, RTE étant une entreprise régulée.

Rénover un réseau âgé mais résilient

Côté rénovation, huit milliards d’euros sont prévus afin de renouveler les ouvrages les plus anciens, c’est-à-dire ceux qui atteignent les 85 ans… Mais, insiste RTE, si le réseau est plus âgé que celui des pays voisins, c’est le fruit d’arbitrages conscients, et non subis. Les lignes ont été conservées à un haut niveau de qualité grâce à une maintenance adaptée. En outre, la résilience du réseau a été renforcée après les tempêtes de 1999.

Après un premier renouvellement du réseau depuis sa création qui doit être entamé immédiatement, RTE estime être prêt, dès 2030, à augmenter significativement l’effort (de l’ordre de 30%) afin de maintenir la qualité de service d’aujourd’hui.

Côté adaptation, 13 milliards sont prévus afin de prendre en compte le nouveau mix électrique qui va être issu de la programmation pluriannuelle de l’énergie (PPE), soit en augmentant la capacité de lignes actuelles, la construction de nouveaux liens, voire l’enlèvement de lignes. RTE signale que cette adaptation du réseau permettra de réduire les émissions de CO2 du système électrique européen de l’ordre de 5 à 10 millions de tonnes équivalent carbone, soit autant que les émissions actuelles des centrales au charbon françaises.

Numériser, interconnecter, raccorder l’offshore

En outre, il convient « de poursuivre et d’adapter aux nouvelles technologies l’ossature numérique préexistante du réseau, en renforçant les exigences de cybersécurité et en permettant le développement des technologies nécessaires pour pousser plus loin l’utilisation de l’infrastructure actuelle et réduire le besoin de nouvelles lignes. » Cet aspect représente quelque 3 md€ d’investissements, estime RTE.

Par ailleurs, conformément aux engagements européens, RTE rappelle qu’« il faut doubler en 15 ans la capacité d’interconnexion de la France, en sélectionnant les projets les plus rentables, pour tirer le meilleur parti des différences de consommation et de production en Europe et parvenir à un mix équilibré et soutenable sur le plan économique, très majoritairement fondé sur les renouvelables et le nucléaire, à l’horizon 2035. » Cela pèse pour 2md€ dans la balance des dépenses à venir.

Enfin, RTE signale que c’est désormais au gestionnaire de réseau de transport de « construire un réseau de raccordement des énergies marines, c’est-à-dire un réseau marin planifié de manière cohérente et efficace avec les capacités d’accueil à terre et le potentiel de développement en mer, de manière à en limiter les coûts », insiste RTE. Reste que le poids dans l’investissement futur atteint les 7 milliards d’euros, avec 1 GW prévu par année par la PPE.

Les associations professionnelles des énergies renouvelables ne s’y sont pas trompées. Le Syndicat des énergies renouvelables (SER) s’est félicité de « la capacité des réseaux publics d’électricité à accueillir une part importante d’énergies renouvelables dans le mix électrique français à des coûts maîtrisés pour le consommateur et en maintenant la qualité de service actuelle. » Le SER ajoute que le « SDDR met en lumière le fait qu’aucune rupture technologique majeure n’est nécessaire pour intégrer 50% de production d’électricité renouvelable à l’horizon 2035 ». De même, la Fédération de l’énergie éolienne (FEE) a martelé : « Ses conclusions sont limpides : les énergies renouvelables – éolien en tête – sont le pilier du futur mix énergétique français. Aussi, les résultats montrent que leur intégration dans le réseau est loin d’être aussi coûteuse que certains intérêts voudraient le faire croire et, ne nécessite pas de soi-disant ’’back-up’’ thermiques. La filière éolienne accueille avec satisfaction ce rapport qui prouve une fois de plus la pertinence de l’éolien pour l’avenir énergétique de la France. »

Les compagnies pétrolières font fi de l’Accord de Paris

Un nouveau rapport du think thank Carbon Tracker dévoile que les principales majors pétrolières ont consenti 50 milliards de dollars d’investissements dans 18 projets qui risquent une forte dévalorisation de leurs actifs dans un monde bas carbone. Dans un scénario de réchauffement à 1,6°C d’ici 2100 (au regard du scénario de l’AIE pour rester en dessous des 2°C), seuls les projets pétroliers avec un prix du baril sous les 40 dollars seront rentables, estime l’étude. Mauvaise nouvelle : les projets identifiés nécessitent un prix du baril plus élevé, d’au moins 60 dollars pour être rentables. Parmi les projets les plus risqués, notons le projet Aspen sur l’exploitation de sables bitumineux, porté par ExxonMobil au Canada. Il requiert un baril à plus de 80 dollars pour un rendement de 15%.

Des majors pétrolières qui risquent gros

En fondant leurs décisions sur un monde à 2,7°C, Carbon Tracker alerte sur le fait que les grandes compagnies pétrolières risquent de perdre 2200 milliards de dollars d’ici 2030. « Les investisseurs devraient remettre en question les dépenses des entreprises pour la production de nouveaux combustibles fossiles, estime Andrew Grant, analyse chez Carbon Tracker et auteur du rapport. La meilleure façon de préserver à la fois la valeur pour les actionnaires et de s’aligner sur les objectifs climatiques sera de se concentrer sur des projets à faible coût qui dégageront les meilleurs rendements. »

De toutes les majors pétrolières, ExxonMobil est celle qui court le plus grand risque de dévalorisation de ses actifs. Plus de 90% de ses investissements prévus sur la période 2019-2030 concernent de nouveaux projets incompatibles avec l’accord de Paris. C’est le cas de 70% des projets pour Shell, 67% pour Total, 60% pour Chevron, 57% pour BP et 55% pour Eni. Carbon Tracker estime que d’ici 2030 la valeur du portefeuille d’investissements de Shell, Total, Chevron, BP et Eni risque de diminuer de moitié si elles continuent d’agir contre les objectifs de l’accord de Paris.

Compétences des ingénieurs: l’importance des “soft skills”

Le diplôme d’ingénieur est le meilleur passeport vers l’emploi. Cette maxime, entendue depuis plus de 20 ans, reste vraie aujourd’hui. Même si les données du problème ont évolué.

Les mutations technologiques entreprises jusqu’au début des années 2000 ont laissé la place à une révolution numérique toujours en cours.

L’usine d’aujourd’hui a l’ambition de devenir une usine du futur, avec son lot d’IA, de robotisation, de maintenance prédictive, d’impression 3D… il faut donc développer et/ou recruter les compétences qui vont avec.

Et les besoins sont importants. C’est ainsi que la France s’est rendue compte qu’elle ne formait plus suffisamment d’ingénieurs. Pour couvrir les besoins d’ici 2032, le pays devra passer de 33 000 ingénieurs diplômés chaque année à 40 000, minimum. Ainsi, nombreuses sont les écoles d’ingénieurs à faire évoluer leurs cursus, pour coller au mieux aux besoins de l’industrie.

Compétences croisées

Sans se focaliser sur un secteur en particulier, voyons quels sont ces besoins. Une tendance qui s’est développée depuis plus d’une dizaine d’années est la sacralisation des compétences croisées. Ainsi, les ingénieurs sont de moins en moins spécialisés, ou plutôt ils sont spécialisés dans plusieurs domaines. Cette évolution est aujourd’hui entérinée.

Ce qu’on observe aujourd’hui, et qui pourrait être analysé comme un prolongement – non pas prévisible, mais logique – de cette transversalisation des compétences dépasse l’aspect purement technique du métier d’ingénieur.

En effet, la révolution numérique en cours dépasse tout ce qu’on a pu imaginer, et il est encore aujourd’hui difficile de projeter l’écosystème industriel auquel elle aboutira.

Il est plus aisé cependant de projeter le profil des ingénieurs à même de relever ces défis.

L’avènement du tout numérique oblige les ingénieurs à multiplier leurs compétences. Ainsi, les compétences “numériques” doivent s’accompagner d’autres compétences techniques.

Ensuite, l’horizontalisation des métiers et des compétences oblige les ingénieurs à repenser leur métier. En bref, s’ajoutent aux connaissances techniques des connaissances économiques, sociologiques, qui constituent un nouveau défi pour les ingénieurs: comment traiter en cohérence tous les aspects d’une problématique pour proposer des solutions viables, au-delà de l’aspect technique ? Pour cela, il faut pour l’ingénieur développer ces fameuses compétences transversales… mais il lui faut aussi évoluer vers une appréhension de son métier plus large. Et ceci est plutôt une bonne nouvelle. Le métier d’ingénieur devient ainsi plus central, au-delà du secteur industriel. Ce dernier, hier cantonné dans son bureau d’étude ou dans son usine, doit aujourd’hui composer avec des problématiques dont il ne peut s’extraire sans dévaloriser la pertinence de son action.

Cela dit, l’enjeu pour les ingénieurs d’aujourd’hui et de demain, au-delà des compétences techniques, réside dans leur capacité à assimiler l’évolution de leur métier et de leur image. D’où le développement des soft skills dans les écoles. Une évolution qui illustre bien ce qui se passe au niveau industriel: les ingénieurs recrutés aujourd’hui le sont moins sur leur savoir technique – les formations en interne après le recrutement deviennent la norme – que sur l’évaluation de leur capacité à travailler en équipe et surtout à comprendre les enjeux globaux qui sont corrélés à leur fonction dans l’entreprise.

P.T

Des pirates veulent copier le médicament le plus cher du monde

Ce groupe de biologistes indépendants et amateurs a annoncé il y a quelques jours son intention de mettre à disposition de tout le monde une version « bon marché » du Glybera (alipogene tiparvovec) qui était destiné à traiter une maladie très rare, la déficience lipoprotéine lipase.

Proposé par UniQure (basé à Amsterdam et Lexington), ce traitement à 1 million de dollars avait obtenu fin 2012 une autorisation de mise sur le marché européen. Mais, il s’est révélé être un fiasco retentissant : un seul patient a pu en bénéficier depuis qu’il est disponible commercialement depuis 2012.

Pas assez « rentable », ce traitement avait été retiré du marché en 2017. Aux Pays-Bas, le ministre de la Santé avait même indiqué que le Glybera faisait partie des pratiques douteuses sur les prix exorbitants des entreprises pharmacologiques.

Ces pirates « biologiques » auraient donc mis au point un prototype d’une version plus simple et moins cher (moins de 7 000 euros). « Il a été développé dans un hangar dans le Mississippi, un entrepôt en Floride, une chambre à coucher dans l’Indiana et sur un ordinateur en Autriche », explique Gabriel Licina, un biopirate de l’Indiana. Ils annoncent qu’il le soumettrait à des scientifiques universitaires et des entreprises pour les aider à le vérifier, l’améliorer et le tester sur des animaux.

Propriété intellectuelle

Cette annonce a été faite à l’occasion de la Biohack the Planet. Cette conférence à Las Vegas accueille des citoyens scientifiques, des journalistes et des chercheurs pour présenter et échanger des idées autour de présentations sur les implants corporels, la biosécurité et les hallucinogènes.

Les experts informés sur ce projet de piratage biologique sont divisés. D’un côté, il y a ceux qui craignent des dérives et doutent de la capacité du groupe à développer ce clone. D’autres rappellent que le coût excessif des traitements génétiques a laissé les patients sans options et a créé une incitation à pirater les percées génétiques. Enfin, il y a la problématique de la propriété intellectuelle.

Le porte-parole d’UniQure affirme que son entreprise  possède toujours un brevet sur le médicament : « une version “contrefaite” du Glybera se heurterait probablement à d’importants obstacles réglementaires et commerciaux », a-t-il indiqué.

Cette année, la société pharmaceutique suisse Novartis a lancé une autre thérapie génique, Zolgesma, pour l’atrophie musculaire spinale, à un prix de 2,1 millions de dollars. À ce tarif-là, il est évident que de nombreux patients ne pourront pas en profiter. Les actionnaires et les investisseurs, oui !

Selon Piper Jaffray, une banque d’investissement, près de 2 milliards de dollars avaient été levés par 10 entreprises de thérapie génique aux États-Unis en 2015.