Le cri d’appel des petits Etats insulaires !

Les 39 petits États insulaires du monde sont situés sur la ligne de front du changement climatique. Et ils sont donc les premiers à devoir s’adapter au changement climatique. Ils en appellent à la solidarité internationale pour y parvenir. Notamment, ils demandent à généraliser le principe d’échanges « dette contre résilience ». Celui-ci consiste à transformer des dettes commerciales coûteuses en investissements dans la résilience face au changement climatique.

« Il suffit d’un stylo pour changer la classification de nos dettes et donner accès aux financements à bas taux d’intérêts aux petits états insulaires », rappelle le Premier Ministre de Sainte-Lucie, Allen Michael Chastanet. Richard Branson, fondateur du groupe Virgin, rejoint cet appel : « Les petits états insulaires doivent être reclassifiés pour avoir accès à de l’aide au développement pour reconstruire leurs bâtiments de façon résiliente pour qu’après un nouvel ouragan, tout ne soit pas détruit à nouveau ». Il faut dire que ces pays subissent de loin les plus fortes pertes relatives provoquées par des catastrophes naturelles. Chaque année, c’est entre 1 et 9 % de leur PIB qui part ainsi en fumée, selon la Banque mondiale.

Avoir droits aux financements

Le Premier ministre de la République de Maurice, Pravind Kumar Junha, le confirme : en tant que pays considéré à revenu intermédiaire, ils n’ont plus le droit aux financements de la Banque mondiale.  « Nous sommes victimes de notre propre succès », regrette-t-il. « Nous devons régler une question fondamentale : avoir accès aux finances et voir comment nous pouvons rendre cet accès plus souple », souligne-t-il.

Outre les financements publics, l’intérêt est d’attirer les capitaux privés. Ainsi, un partenariat public-privé doté de 2,8 milliards de dollars, fera des Caraïbes la première « Climate Smart Zone » dans le cadre d’un plan d’investissement de 8 milliards de dollars. Avec pour objectif de catalyser les investissements bas carbone dans les domaines prioritaires des réseaux énergétiques et des infrastructures.

Haïti au bord du gouffre

Jovenel Moïse, Président d’Haïti souligne la situation particulièrement dure de son pays. De 2004 à 2017, les dégâts liés aux catastrophes auraient représenté la perte de plus de 30 % de PIB. Soit 2,7 milliards de dollars. Par ailleurs, il souligne l’importance de réfléchir en tant qu’association d’états insulaires, notamment sur la problématique des assurances pour aboutir à une assurance couvrant l’ensemble des Caraïbes. « En 2016, sur des dégâts évalués à 2,7 milliards de dollars, la couverture d’assurance n’a donné que 23 millions de dollars », dénonce-t-il.

« Le problème de la bureaucratie est très grave », prévient Jovenel Moïse. Il appelle à ce que l’aide internationale soit donnée au gouvernement. Avant de préciser pour finir : « Nous savons ce que nous avons comme problèmes et connaissons les solutions  ».

Par Matthieu Combe, journaliste scientifique

Les États américains défient l’Amérique de Donald Trump

John Kerry, secrétaire d’État des États-Unis durant la présidence de Barack Obama, dénonce fermement la politique de Donald Trump en matière de lutte contre le changement climatique. Contrairement à ce que tente de faire le nouveau Président américain, John Kerry souligne qu’ «il faut faire adopter une déclaration universelle par toutes les banques pour dire qu’il ne doit plus y avoir un seul investissement dans le charbon». Il appelle à la création d’une électricité décarbonée d’ici 2050. Et rappelle que 38 États ont approuvé la loi en faveur du développement des énergies renouvelables. Ces derniers représentent 80 % de la population américaine. En plus, un grand nombre de gouverneurs et maires voudraient appliquer l’Accord de Paris, même si Trump s’en désintéresse au niveau fédéral.

Continuer l’action climatique à tous les autres niveaux

Suite à l’annonce du retrait de l’Accord par Donald Trump, plusieurs États ont constitué la United States Climate Alliance, s’engageant à respecter sur leurs territoires l’objectif qui avait été pris au niveau fédéral dans l’Accord de Paris. 15 États sont engagés, représentant 36 % de la population américaine. Cela reste largement insuffisant pour compenser une politique ambitieuse au niveau fédéral. Toutefois, il s’agit d’un signal fort adressé à la communauté internationale et à la population américaine.

«Les États-Unis ne sont pas sortis de l’Accord de Paris: les scientifiques, les entreprises et les États sont encore là», veut défendre Arnold Schwarzenegger, ancien gouverneur de Californie venu prêter main forte. Il souligne notamment l’importance des coalitions internationales, comme son ONG R20 qui aide les gouvernements sub-nationaux à agir pour le climat. Il y a aussi la coalition mondiale Under2 des États et Province qui représentent plus de 1,3 milliards de personnes et 40% du PIB mondiale. Pour accélérer l’action sub-nationale et montrer que les États-Unis sont toujours dans la course, un sommet de l’action climatique est organisé à San Francisco du 12 au 14 septembre 2018. Des ONG, États, Provinces et entreprises sont attendus du monde entier.

De nouvelles initiatives pour les États américains

D’autres initiatives se lancent. John Kerry annonce le partenariat entre 8 régions de l’ouest Américain en faveur des véhicules électriques. Il s’agit de l’Arizona, du Colorado, de l’Idaho, du Montana, du Nevada, du Nouveau Mexique, de l’Utah et du Wyoming. Objectif : partager les bonnes pratiques et le développement d’un réseau commun de stations de recharge permettant les déplacements en véhicules électriques d’un État à un autre.

Le Mexique a annoncé une collaboration régionale pour mettre en place un marché du carbone dans les Amériques. Cette coalition comprend plusieurs pays: Canada, Colombie, Chili et Mexique. Mais aussi les États de Californie et Washington. Le lancement de ce marché s’inscrit dans une dynamique de renforcement des instruments de tarification du carbone et d’articulation des marchés carbone régionaux.

En fin de sommet, Michael Bloomberg, millionnaire et ancien maire de New-York, a rappelé que Donald Trump devait payer les 50 milliards de dollars promis avant pouvoir sortir de l’Accord de Paris. «Si le gouvernement ne paye pas, la fondation Bloomberg et ses partenaires s’en chargeront», a-t-il annoncé.

Ban Ki-Moon, secrétaire général des Nations unies jusqu’à fin 2016 soutient toutes ces actions. Il qualifie le retrait de Trump d’«erreur politique» et d’ «action irresponsable» jugeant qu’il se retrouve « du mauvais côté de l’histoire ». Il dit «merci aux villes et États qui continuent à s’engager». En coulisses, tout est fait pour que l’Amérique d’après-Trump puisse revenir dans l’Accord de Paris. «Donald Trump a mis Donald Trump en dehors de l’Accord de Paris, estime Arnold Schwarzenegger. Il est coincé dans le passé pendant que nous marchons vers le futur.»

Par Matthieu Combe, journaliste scientifique

Revue du web #109 spéciale chimie/matériaux : les vidéos étonnantes du mois

Des plantes lumineuses

Une équipe de chercheurs du MIT a mis au point des plantes qui brillent dans le noir. Pour réaliser cette étrange prouesse, ils se sont directement inspirés des lucioles bien sûr !

Les propriétés de la luciférine et de l’enzyme luciférase font des merveilles. Votre future lampe de chevet ?

Un muscle artificiel

Jusqu’à présent, les robots mous étaient très souples mais manquaient cruellement de tonus…

Désormais dotés de muscles artificiels élaborés dans les laboratoires d’Harvard et du MIT, ils pourraient soulever 1000 fois leur masse !

Les gants les plus résistants au monde

Voilà une innovation qui pourrait considérablement améliorer les conditions de vie des ouvriers. Resafe, une entreprise chilienne, a imaginé des gants très résistants.

Coups, écrasement, brûlures, coupures… Le matériau baptisé Mark VIII, mélange de nitrile et de coton recouvert de peau de peau de chevreau, semble résister à tout.

Du verre qui se répare tout seul

Une équipe de chercheurs de l’Université du Japon a créé une substance baptisée « polyéther thiocarbamide » qui a l’apparence du verre tout en présentant une propriété très intéressante : pressez deux morceaux l’un contre l’autre, et après quelques instants, vous n’en aurez plus qu’un !

Un robot archéologue

Deux robots, conçus par l’Inria, pourraient pénétrer puis observer les cavités découvertes il y a peu dans la Pyramide de Khéops. L’enjeu est de laisser un minimum de traces.

Découvrez notre article sur les robots qui visiteront l’intérieur des pyramides.

 

Par I. B

Les Japonais aussi visent la Lune

L’entreprise nippone ispace vient de présenter son projet de « Moon Valley », qui doit débuter par le développement d’un atterrisseur et par l’envoi de deux missions lunaires d’ici 2020 avant de devenir une véritable cité lunaire. La première mission est programmée pour le quatrième trimestre 2019 et la seconde un an plus tard. La première vise à mettre l’atterrisseur en orbite lunaire pour réaliser des observations de la surface, la seconde doit conduire à un atterrissage en douceur et au déploiement de plusieurs rovers d’exploration et de cartographie de la surface. La levée de fonds de cette « série A » (tour de table qui vient après le financement d’amorçage dans la création d’une start-up) est annoncée comme un record pour le Japon et pour le secteur commercial spatial selon ispace.

atterisseur-1000

Objectif : Lune commerciale

L’atterrisseur lunaire d’ispace est conçu pour transporter 30 kg de charge utile : cela inclut deux rovers, conçus également par ispace. Chaque rover pourra lui-même transporter 5kg de charge utile. L’objectif est de développer des véhicules de transports légers et modulaires permettant des missions flexibles, régulières et à bas coût vers la Lune. ispace table sur des équipements de micro-robotique pour réduire le coût des missions et multiplier les occasions de lancements. Avec ces développements, ispace pourrait fournir un service de transport vers la Lune pour tous type de clients : agences nationales, institutions scientifiques, entreprises privées. L’installation d’équipements scientifiques d’observations et d’analyse devraient dans un premier temps fournir des données sur les ressources lunaires et l’environnement topographiques de la surface.

Premiers pas avec Google Lunar Xprize

ispace est aussi l’entreprise qui soutient l’équipe japonaise Hakuto, l’un des cinq finalistes du Google Lunar X Prize (GPLX). Pour rappel, le GPLX est un concours qui récompensera  par un prix de 20M$ la première équipe, financée par des fonds privés, qui fera atterrir un engin sur la Lune et se déplacera sur 500m à la surface en étant capable de transmettre des photos et vidéos à la Terre. La deadline pour le lancement étant fixée au 31 mars 2018. L’équipe Hakuto devait à l’origine décoller le 28 décembre sur un lanceur indien, en compagnie d’une autre équipe finaliste, Team Indus, mais la date de lancement n’a finalement pas été confirmée. Une inconnue de taille surtout après le dernier échec du lanceur indien (PSLV) fin août 2017.

Le rover Hakuto sert en quelque sorte de prototype pour le futur rover ispace : chassis en fibre de carbone renforcé de plastique (CFRP), roues en matériaux supportant des températures extrêmes (de -150°C à +100°C), quatre caméras 360 haute définition permettant à un pilote humain de diriger le rover via des données transmises à la terre sous un format compressé et une caméra munie d’une intelligence artificielle pour stopper en cas de danger non identifié. (Pour en savoir plus sur le rover Hakuto vidéo LIEN =  )

Une véritable cité en vue

Dans la vision d’ispace, ces atterrisseurs ne sont qu’une première étape pour l’établissement d’une véritable colonie lunaire aux alentours de 2040. La cité comprendrait à peu près 1000 personnes vivant sur place et pourrait accueillir quelques 10 000 visiteurs par an (voir cette vidéo digne d’un spot publicitaire issu  d’un film de science fiction vous invitant au voyage spatial). L’infrastructure à la surface serait basée autour des ressources en eau pour permettre de soutenir diverses industries allant de l’extraction de minerais au tourisme.

ispace n’est pas la seule société qui espère établir une liaison Terre-Lune à bas coût. En effet, Moon Express, un autre finaliste du GLXP a construit son projet dans cette optique. Moon Express annonçait ainsi cet été qu’il programmait l’envoi d’un poste de recherche robotisé au pôle sud de la Lune pour prospecter les ressources en eau et minerais en 2019. Un première mission commerciale de retours d’échantillons viendrait ensuite en 2020.

Par Sophie Hoguin

Les centrales à charbon européennes perdent de l’argent !

Décidément, le charbon fait couler beaucoup d’encre. Dans son étude « Lignite of the living dead » parue cette semaine, le think tank financier Carbon Tracker jette le discrédit sur la filière charbon européenne. Le groupe spécialiste de l’analyse du risque climatique pour les marchés financiers a analysé les comptes de 619 centrales à charbon dans 28 Etats membres. Les résultats ne sont pas brillants du tout.

Au bout du compte, 54 % des centrales au charbon perdent de l’argent en Europe. Cette proportion atteindra 97 % en 2030 si rien n’est fait. Selon Carbon Tracker, les pertes accumulées pourraient alors atteindre 22 milliards d’euros. Pourtant, les entreprises ont actuellement prévu de ne fermer que 27% de leurs centrales à charbon d’ici là.

Des renouvelables plus compétitives

Dès 2021, les futures normes de qualité de l’air imposeront à 70 % des centrales à charbon existantes d’installer de nouveaux systèmes de filtration. Des filtres très chers pour nettoyer les gaz qu’elles rejettent. Et les prix du carbone feront grimper leurs coûts d’exploitation du charbon. Finalement, d’ici 2024, construire des éoliennes terrestres coûtera moins cher que d’exploiter les centrales au charbon existantes. D’ici 2027, ce sera également le cas pour le solaire photovoltaïque. Sortir du charbon et développer les énergies renouvelables sera donc bon pour la qualité de l’air, la santé des habitants mais aussi pour le portefeuille des actionnaires.

La palme d’or du nombre de centrales à charbon le moins rentable revient à l’Allemagne. En les fermant, le pays pourrait économiser 12 milliards d’euros. En Pologne, l’épargne pourrait atteindre 2,7 milliards d’euros. La République tchèque, l’Espagne et le Royaume-Uni pourraient quant à eux économiser respectivement 2,2 milliards, 1,8 milliard et 1,7 milliard d’euros. En France, la fermeture des centrales permettra d’éviter 770 millions d’euros de pertes pour EDF et 830 millions pour Engie.

Respecter l’Accord de Paris ?

C’est bien l’application de l’Accord de Paris qui est dans la ligne de mire de cette étude. Car continuer à produire de l’électricité à base de charbon en Europe au niveau actuel est incompatible avec la baisse des émissions promise. Bonne nouvelle : déjà sept pays européens ont défini une date de sortie du charbon, pour 2030 et ou avant. C’est le cas évidemment de la France pour 2022, à travers son Plan Climat. Mais aussi du Danemark, de la Finlande, de l’Italie, des Pays-Bas, du Portugal et du Royaume-Uni. En revanche, la majorité des Etats européens s’y refusent toujours. C’est notamment le cas de la Pologne qui aide ses centrales à hauteur de 400 millions d’euros pour qu’elles s’équipent de filtres.

Le rapport détaille que les centrales à charbon peuvent maintenir leur activité pour plusieurs raisons. Elles peuvent notamment espérer bénéficier du marché de capacité ou d’aides publiques accordées à l’avenir pour accélérer la fermeture des centrales. Certaines espèrent aussi peut-être que les prix de l’électricité repartiront à la hausse suite à la fermeture de leurs usines concurrentes. Enfin, garder des centrales en activité permet de reporter leurs coûts de démantèlement.

Par Matthieu Combe, journaliste scientifique

La Corée s’invite sur la scène nucléaire britannique

Kepco remplace Engie

L’entrée de Kepco dans le projet de Moorside fait suite au retrait d’Engie, en avril dernier, du consortium chargé de la construction de la centrale. Le groupe français a fait jouer une clause de cession de ses participations (40% du projet – 118 M€) à son partenaire Toshiba, suite à la faillite de Westinghouse (filiale américaine du groupe japonais). Kepco était en compétition avec la China General Nuclear (CGN), également intéressée et déjà partenaire d’EDF sur Hinkley Point C.

Pour le groupe coréen, la reprise du projet Moorside est très importante dans sa stratégie de conquête des marchés internationaux. Le programme nucléaire du Royaume-Uni offre en effet une belle vitrine pour des constructeurs désireux de montrer leurs compétences dans la construction et l’efficacité de leurs réacteurs de dernière génération (APR-1400 pour Kepco, EPR pour EDF et le HPR 1000 pour CGN). Jusqu’à présent, Kepco n’avait réussi qu’une seule vente de réacteur nucléaire à l’étranger, en 2009 et plus précisément aux Emirats Arabes Unis. Le groupe coréen avait alors surpris le secteur en enlevant un contrat de 20 milliards de dollars pour quatre réacteurs nucléaire de 1 400 MW, promis sur le papier au consortium français EDF/Areva/GDF Suez/Total, jugé trop cher par Abu Dhabi.

Moorside vue artiste Nugen

La question du prix

Si l’entrée de Kepco est plutôt une bonne nouvelle pour le gouvernement britannique qui doit renouveler rapidement son parc électrique : 20 % des capacités du pays fermeront d’ici 2020. La stratégie d’Albion repose sur le couple nucléaire / énergies renouvelables, notamment l’éolien en mer dont le Royaume est un leader mondial en termes d’installations. Mais depuis le contrat signé avec EDF sur Hinkley Point C, qui garantit au groupe français un prix de vente de 92,50 £/MWh (105 €/MWh), des voix se sont élevées pour dénoncer un prix jugé trop élevé, notamment face à la chute des coûts des énergies renouvelables partout dans le monde.

Si le gouvernement de Teresa May n’a pas remis en cause son ambition nucléaire, son  ministre de l’Energie Richard Harrington a néanmoins indiqué lors d’une récente conférence que la question du prix serait cruciale pour approuver le projet de Moorside. «Ces annonces soulignent toutes les grandes opportunités qui se présentent à l’industrie nucléaire, mais nous savons que le secteur est également confronté à un grand défi, à savoir rester compétitif. L’éolien offshore et l’avancement des technologies telles que le stockage par batteries augmenteront la pression sur les autres technologies, notamment nucléaire. Le gouvernement jouera un rôle clé à cet égard, mais il ne fait aucun doute que l’industrie doit montrer la voie», a-t-il déclaré. Selon la presse anglo-saxonne, le ministre exigerait une baisse des coûts comprise entre 20 et 30%. Une équation compliquée pour une industrie, à qui il est demandé de multiplier les démarches coûteuses de sûreté suite à l’accident de Fukushima en 2011, tout en baissant ses prix.

Romain Chicheportiche

Infographie: Impression 3D et développement durable

L’impression 3D représente un potentiel supplémentaire dans les démarches de développement durable. Elle ne constitue pas à coup sûr une réponse au sujet car cela dépend de sa mise en œuvre et de son développement, notamment par la nature des matières utilisées, la relocalisation des activités, le développement du qualitatif en lieu et place du quantitatif. L’impression 3D peut être un outil, au service d’une population responsabilisée et impliquée dans la préservation environnementale, pour un autre mode de croissance.

IMPRIMANTES3DV3

 

Télécharger la lettre des éditeurs au format PDF

Isolants topologiques : quand la lumière empêche d’y voir clair

Le isolants topologiques sont des matériaux isolants en volume mais dont la surface peut pourtant devenir conductrice. Ces nouveaux matériaux, découverts il y a une dizaine d’années, présentent un grand intérêt tant pour la recherche fondamentale que pour des applications notamment en électronique des spins (spinélectronique) et informatique quantique. Cependant depuis 10 ans les chercheurs ne s’expliquaient pas pourquoi les mesures des bandes d’énergie des électrons à la surface ne concordaient pas selon que l’on utilisait une méthode basée sur le magnétotransport ou sur la photoémission résolue en angle (ARPES) – un type de spectroscopie utilisant de la lumière ultraviolette (UV) pour étudier les propriétés des électrons (énergie, vitesse, bandes de conduction…).

isolant topologique photoémission
Crédit : https://doi.org/10.1103/PhysRevX.7.041041 / American Physical Society Evolution des bandes d’énergie en fonction du temps lors d’une exposition à la lumière UV et schémas des phénomènes explicatifs qui y sont liés.

C’est la lumière qui est fautive !

Dans un article de Physical review X, une équipe internationale (Pays-Bas, France, Suisse, Allemagne) explique comment résoudre cette énigme et comment utiliser les méthodes de mesure par photoémission de manière fiable. En effet, bien que les deux méthodes expérimentales pour déterminer les propriétés des électrons soient précises et habituellement fiables, elles donnent systématiquement des résultats différents pour les isolants topologiques ; la méthode de photoémission tendant à placer les bandes d’énergie à des niveaux plus bas. Certains avançaient que cette dernière était plus sensible aux impuretés de surface dues à des atomes de gaz de l’environnement qui seraient présents mais cette explication semblait fragile face au fait que la photoémission se déroule sous vide et sous des pressions bien plus élevées que la méthode par magnétotransport. Les résultats de ces études montrent que c’est l’exposition à la lumière ultraviolette qui est en réalité responsable d’un changement dans la structure électronique du matériau observé. Il s’avère que dès le premier flash de lumière UV, le point de Dirac descend et que toute la structure des bandes d’énergie se déforme vers des valeurs d’énergie plus basses.

bandstructuur_2
Crédit : https://doi.org/10.1103/PhysRevX.7.041041 / American Physical Society Après 20 secondes d’exposition à la lumière UV émise lors d’une expérience sous photoémission, on peut voir que la structure des bandes d’énergie est très différente de celle après 1 seule seconde. Les cercles colorés indique la position du point de Dirac.

Rien ne se fait au hasard

Les expériences menées ont aussi permis de dévoiler que la déformation des structures de bandes sont prédictibles et dépendent notamment de l’état de pureté de la surface, des caractéristiques du flux de photon et du temps d’exposition. Alors, faut-il jeter à la poubelle toutes les expériences faites en photoémission ? Non ! Les chercheurs ont pu établir des protocoles permettant d’obtenir des données avec la photoémission, qui sont en concordance avec celles obtenues par la méthode de magnétotransport. Ils se sont notamment aperçus que ces valeurs étaient disponibles soient avec des temps d’exposition extrêmement courts soit très longs. Ils ont réussi à expliquer les différents états traversés par les électrons à la surface sous l’influence de la lumière UV (phénomènes de photoionisation, photodissociation, désorption  de surface etc) expliquant l’évolution des bandes d’énergie au cours du temps. Des phénomènes qui pourraient même trouver des applications dans des systèmes basés sur les isolants topologiques où l’on se serviraient de cette déformation des bandes d’énergie.

 Par Sophie Hoguin

Les obligations vertes peuvent-elles verdir la finance ?

D’aucuns penseront qu’un rapport élaboré par un mouvement altermondialiste est biaisé. Néanmoins, cette enquête est riche d’enseignements pour dresser un premier bilan des investissements verts au moment où le monde de la finance se réunit à Paris pour afficher sa transition. Premier enseignement : le marché des obligations est évalué à près de 100.000 milliards de dollars. Quelle y est la part du marché des obligations vertes? Depuis leur création en 2005 et jusqu’en juin 2017, un total de 895 milliards de dollars ont été investis dans ce marché encore de niche. Une goutte d’eau. Pour l’année 2017, les obligations vertes pourraient atteindre 130 milliards de dollars. C’est la conclusion d’un rapport élaboré par HSBC et la Climate Bonds Initiative. Mais selon l’étude, seulement 25 % des obligations vertes seraient certifiées. Pour la plupart, les obligations vertes offrent donc difficilement des garanties sur les projets financés et les résultats sur le terrain.

Dans un autre rapport, l’OCDE estime que le marché des obligations vertes pourrait décoller d’ici 2035. À cet horizon, environ 700 milliards de dollars pourraient être émis annuellement pour environ 5.000 milliards de dollars de titres en circulation. Mais cela reste inférieur aux investissements bas-carbone nécessaires pour respecter l’Accord de Paris. La même organisation estime en effet les besoins à 2.260 milliards de dollars chaque année en 2035.

Des obligations vertes réservées aux projets verts ?

Selon Attac, les projets financés par ces nouvelles obligations ne seraient pas forcément « verts ». Attac dénonce notamment le financement du nouvel aéroport de Mexico par le Mexique dans ce cadre. Mais aussi celui d’un méga-barrage par Engie. L’association rajoute à cette liste l’émission d’obligations vertes souveraines par la Pologne qui lutte pourtant contre les politiques climatiques européennes ambitieuses. Et la compagnie pétrolière Repsol qui a pu financer l’efficacité énergétique de ses raffineries et usines chimiques en Espagne et au Portugal.

Il apparaît que les projets éligibles ne sont pas réglementés. En effet, il n’existe pas de définition claire des projets qui peuvent être financés. Tout au plus, les obligations vertes labellisées répondent à des critères volontaires et non contraignants – Green Bond Principles (GDP) -, les obligations climat aux Climate Bond Standards (CBS). Des pratiques controversées peuvent ainsi être financées. Par ailleurs, il est possible de certifier des obligations, indépendamment des entreprises ou institutions qui les émettent. Aucun grand acteur et aucun secteur n’est épargné de ces financements. Par ailleurs, moins de 50% des obligations vertes clôturées publient un rapport d’évaluation des impacts dans l’année qui suit. Ainsi, « ni le public ni les investisseurs ne peuvent connaître les effets concrets de la mise en œuvre de cette obligation », regrette Attac.

Quelles recommandations pour aller plus loin ?

« Le système financier doit être 100% climat-compatible si l’on veut respecter l’accord de Paris », prévient Maxime Combes, économiste et figure d’Attac France. L’association demande donc l’introduction d’un standard européen qui assure la transparence des projets et des sanctions en cas de manquement. Elle demande aussi la création d’une nouvelle agence de dotation soutenue par les pouvoirs publics qui permette de labelliser ces obligations. Enfin, les obligations vertes étant majoritairement réservées aux grands opérateurs, Attac demande à ce que d’autres canaux de financements tout aussi efficaces soient créés pour les plus petits acteurs.

Une obligation verte fonctionne comme une obligation classique. Un acteur de marché – banque de développement, entreprise, État, collectivité territoriale… – emprunte auprès d’investisseurs sur une durée définie, contre le paiement d’un intérêt. L’émetteur peut toutefois auto-déclarer « verte » ou « climat » son obligation si elle est supposée financer des projets compatibles avec la protection de l’environnement ou du climat. Cela permet notamment de financer des infrastructures qui se caractérisent par des coûts d’investissements initiaux élevés et un retour sur investissement de plusieurs années.

Par Matthieu Combe, journaliste scientifique

 

Manager une équipe projet : mettre en place une stratégie

Caractériser le profil du projet

Le profil du projet se détermine à l’aide de la carte du projet. Cette carte est définie par deux axes : en ordonnée, l’axe de la complexité technique ; en abscisse, l’axe de la complexité humaine.

lacarteduprojet

La carte du projet est divisée en quatre secteurs caractéristiques du profil des projets :

  • Secteur 1 : Le projet est faiblement complexe techniquement et humainement. Projet sans difficulté particulière. C’est un projet de profil 1.
  • Secteur 2 : Le projet est fortement complexe techniquement et peu humainement. C’est un projet un peu plus difficile à gérer qu’un projet de profil 1. C’est un projet de profil 2.
  • Secteur 3 : Le projet est faiblement complexe techniquement mais l’est plutôt humainement. Ce type de projet demande plus de doigté de la part du chef de projet et une stratégie différente des deux premiers profils. C’est un projet de profil 3.
  • Secteur 4 : Le projet est techniquement et humainement complexe. Ce type de projet est très difficile à mener. C’est un projet de profil 4.

Le profil des projets se situe sur une échelle de difficulté de 1 à 4. Cette échelle est plutôt du type exponentiel que linéaire.

Après avoir analysé la complexité technique et observé les acteurs au cours des deux premières étapes, le chef de projet synthétise ces informations sur cette carte. Celle-ci lui permet de caractériser le profil de son projet et de mesurer le degré de difficulté de son projet.

Conseil :
Faire baisser au maximum la difficulté de mise en œuvre de son projet. Pour ce faire, le chef de projet a tout avantage à découper son projet en plusieurs sous-projets de difficulté inférieure, si c’est possible bien entendu. À titre d’exemple, un projet avec un profil 4 est plus facile à mener en le découpant en un sous-projet « technique » de profil 2 et en un sous-projet « hommes » de profil 3.

Choisir la stratégie adaptée

Face aux caractéristiques du profil du projet, deux stratégies s’offrent au chef de projet :

  • la stratégie par les tâches ;
  • la stratégie par les acteurs.

La stratégie par les tâches se concentre essentiellement sur l’organisation précise des tâches. L’aspect humain est relégué au second plan. Seules la quantité et la qualité des personnes sont un sujet de préoccupation. L’enjeu principal est de définir dans le détail : chacune des tâches du projet, la personne qui la réalise et le temps qu’elle a pour l’exécuter.

La stratégie par les acteurs se focalise prioritairement sur les relations humaines. La façon de réaliser les tâches passe après. L’objectif principal se concentre sur les acteurs, qui font ou qui empêchent les tâches de se faire, afin d’en rallier le maximum à notre cause.

À la lecture de cette carte, le chef de projet en déduit la stratégie à adopter. Si le projet est de :
Profil 1 : L’utilisation de la stratégie par les tâches est totalement adaptée.

  • Profil 2 : Là encore la stratégie par les tâches est juste.
  • Profil 3 : Une approche différente des deux premiers profils est conseillée. La manœuvre employée est celle de la stratégie par les acteurs.
  • Profil 4 : La stratégie par les acteurs est à adopter.

La stratégie par les tâches est principalement utilisée pour les projets qui ont un profil 1 ou 2. Pour les profils 3 ou 4, la stratégie par les acteurs est mieux appropriée.

Le fait d’avoir découpé un projet en plusieurs sous-projets permet de faire cohabiter les deux stratégies. L’objectif principal est de mettre en place un plan adapté et efficace.

Après avoir choisi la tactique adaptée au profil du projet, il est bon de la formaliser, dans un document. Le plan d’actions correspondant sert de fil rouge au chef de projet.

Conseils :

  • Il est important de choisir la bonne stratégie en fonction de son projet.
  • Appliquer une stratégie par les acteurs pour des projets de profil 1 ou 2 est une perte d’efficacité. Elle l’alourdit sans amener de contrepartie positive.
  • Appliquer une stratégie par les tâches, sur des projets de profil 3 ou 4, est un risque majeur de déclenchement de conflits. La conséquence est de mettre une majorité d’acteurs dans le camp des « contres ». Le projet est alors dans une situation irréversible d’échec.

Valider la stratégie

Même si nous avons beaucoup parlé du chef de projet sur les actions précédentes, il n’est pas seul à travailler sur ces thèmes. Le commanditaire doit l’accompagner et le soutenir. À ce stade du projet, il est très important que le chef de projet et le commanditaire constituent déjà un binôme solide, il en va de la crédibilité du projet et donc de sa réussite.

Cette action permet de prendre du recul et de passer en revue chacune des tâches déjà étudiées. Le commanditaire et le chef de projet sont-ils en accord ? Y a-t-il des points à préciser ? Quelles sont les marges de manœuvre ? Cette stratégie est-elle cohérente avec la finalité du projet ? Le lien entre les méthodologies de conduite de projet et de management d’équipe projet est-il bien établi ? Les deux méthodologies sont-elles en phase ? Si certaines réponses à ces questions sont floues, il est bon de reprendre le travail et de clarifier les points nécessaires.

En validant la stratégie, le commanditaire et le chef de projet engagent individuellement et collectivement leur responsabilité. C’est un acte fort.

Conseils :

  • Prendre le temps de faire cet exercice permet de créer du lien entre le chef de projet et le commanditaire.
  • C’est l’occasion de mettre en œuvre, à l’échelle de deux personnes, certains concepts (développés un peu plus loin dans cet ouvrage) comme celui du développement d’une équipe performante par exemple.
  • Les points essentiels de cette validation sont la finalité du projet et la stratégie à mettre en œuvre.

Mettre en œuvre la stratégie par les tâches

La phase de préparation, en amont des tâches de réalisation, est prépondérante.

Le chef de projet identifie l’ensemble des tâches de fabrication du produit objet du projet.

Pour se sécuriser, il analyse les risques inhérents à cette production et prend en compte un certain nombre d’actions préventives. Celles-ci correspondent au niveau d’assurance qu’il souhaite prendre. Plus le projet est innovant et plus il apporte un soin particulier à ce travail. Il intègre ces nouvelles tâches à la liste des tâches déjà définies pour la fabrication elle-même.

Le chef de projet détermine ensuite la durée et la charge de chacune des tâches. Il définit l’ordonnancement et les liens entre elles.

Il analyse les compétences nécessaires à l’accomplissement de ces tâches. Il recherche les individus qui possèdent les savoir-faire indispensables à la bonne réalisation de chaque composant du produit.

Parallèlement, il répertorie l’ensemble des ressources matérielles et financières nécessaires à l’accomplissement des tâches.

Le chef de projet individualise alors les objectifs en associant les réalisateurs, les moyens et les tâches élémentaires.

Une fois ce travail de préparation effectué, il lance la phase de fabrication. Pendant toute la durée de réalisation, son travail consiste à s’assurer qu’il n’y a pas de dérive entre ce qu’il a planifié et ce qui se passe réellement. En cas d’écart, le chef de projet réagit immédiatement pour revenir au plan de route prévu.

Comme nous pouvons le constater, le projet se gagne pendant la phase de préparation. Donc, plus la planification prévisionnelle est de qualité, les moyens humains, matériels et financiers à la hauteur des enjeux du projet et moins la phase de réalisation pose de problème. Le chef de projet, en utilisant la stratégie par les tâches pour des projets de profil 1 et 2, se donne un maximum de chance de réussite dans son entreprise.

Conseils :

  • Mettre un maximum d’énergie du chef de projet sur la phase de préparation car c’est à ce moment-là que le projet se gagne.
  • Ne pas lésiner sur les moyens humains, matériels et financiers.
  • S’entourer des meilleurs experts métiers du produit à fabriquer.
  • Ne pas hésiter à faire appel à un spécialiste de la planification si nécessaire.

Mettre en œuvre la stratégie par les acteurs

Pour réussir cette stratégie, le chef de projet garde toujours en tête la finalité ultime du projet. Il se focalise en priorité sur les comportements des acteurs vis-à-vis du projet. Il dépense son énergie à rallier efficacement un maximum d’acteurs à la cause du projet. Le processus, pour réaliser les tâches, passe alors au second plan et les tâches, en elles-mêmes, viennent encore après.

Tout d’abord, le chef de projet identifie son premier noyau d’alliés. Il y fait entrer :

  • Les triangles d’or car, même s’ils sont « pour » le projet, ils ne suivent pas aveuglément le chef de projet. Ils définissent souvent mieux que lui le meilleur chemin à emprunter pour arriver au but en évitant les chausse-trapes. Le chef de projet n’en prend pas ombrage car il donne priorité à la finalité du projet.
  • Les hésitants potentiellement alliés. Ils sont les premiers acteurs à basculer dans le camp des alliés. Ils sont convaincus par les triangles d’or qui ont eu les mêmes doutes, à un moment donné, mais qui ont trouvé leurs propres arguments pour adhérer au projet. Ces arguments sont alors utilisés auprès des hésitants.

Nota bene : Les fidèles n’y entrent pas nécessairement car ils n’ont pas le recul nécessaire par rapport au projet pour voir les embûches potentielles.

Ce premier noyau formé, le chef de projet s’entretient individuellement avec chacun des membres. Il établit une synthèse des points positifs, des critiques et des conditions de ralliement. Il réunit le groupe à qui il présente cette synthèse ainsi qu’un projet remanié qui tient compte de celle-ci, tout en gardant la même finalité. Le projet n’est plus la solution du chef de projet mais devient la solution des membres du premier noyau d’alliés, cocréé à l’unanimité.

Le chef de projet accompagne alors ce premier noyau à s’engager sur ce nouveau chemin. Il donne suffisamment de visibilité à cette action et aux premiers résultats concrets obtenus par ces membres. Cela permet à l’ensemble des acteurs du projet d’en prendre conscience. L’objectif est de montrer que les premiers hésitants se sont ralliés au projet et ainsi encourager de nouveaux hésitants à venir rejoindre le groupe des alliés. Cette action a aussi pour but de faire passer les premiers passifs vers le camp des hésitants et ainsi créer une dynamique.

C’est le principe de la tache d’huile. De nouveaux résultats concrets, obtenus par les premiers alliés, encouragent de nouveaux acteurs à les rejoindre. L’objectif est de créer une dynamique collective suffisamment puissante pour que les passifs suivent le mouvement « naturellement ».

À partir du moment où les passifs se mettent à suivre les alliés, le projet est gagné. En effet, seuls les derniers opposants restent immobiles vis-à-vis du projet. À ce stade, ils n’ont plus d’autre choix que de se rallier ou de se démettre car leur énergie n’est plus suffisante pour contrecarrer le mouvement.

dynamique-strategie-acteurs

Conseils :

  • Mettre l’énergie du chef de projet sur la création de la dynamique de groupe et de sa pérennité.
  • Repérer individuellement les acteurs alliés qui alimentent cette dynamique collective.
  • Voir les acteurs non pas comme une masse statique mais comme un groupe d’individus en mouvement que le chef de projet est capable d’orienter via les alliés.
  • Appliquer la théorie de l’engagement. L’idée est de demander à des opposants au projet de s’engager par petites touches successives sur des actions concrètes sur lesquelles ils se sentent à l’aise. Ils finissent progressivement par adhérer au projet et devenir des alliés.
  • La stratégie par les acteurs est tout sauf une stratégie de consensus mou (partiel). En effet, le premier noyau d’alliés coélabore le meilleur chemin à suivre en coresponsabilité, et donc en pleine unanimité consciente. C’est le gage d’une équipe performante qui tient dans le temps.

Points clés

  • Quatre profils types caractérisent les projets en fonction de la complexité technique et de la complexité des relations humaines.
  • Ces profils types donnent le degré de difficulté de réalisation du projet.
  • Dans le cas d’un projet de grand degré de difficulté, essayer, si possible, de le scinder en plusieurs sous-projets. Le degré de difficulté de chacun d’eux est alors moindre.
  • Caractériser le profil du projet permet de choisir la stratégie adaptée au projet.
  • Les deux stratégies de base sont les suivantes : la stratégie par les tâches et la stratégie par les acteurs.
  • Bien entendu, il est important de savoir positionner le curseur stratégique entre ces deux approches en intelligence de situation.
  • La stratégie par les tâches privilégie la phase de préparation et plus particulièrement la planification détaillée des tâches et les ressources à mettre en œuvre pour les réaliser.
  • Le processus et le contenu sont premiers dans le cas de la mise en œuvre de la stratégie par les tâches.
  • La mise en œuvre de la stratégie par les acteurs se gagne en créant une dynamique collective, à partir d’un petit noyau d’individus choisis méticuleusement. Cette dynamique entraîne toutes les parties prenantes du projet. Le chef de projet laisse le premier noyau d’alliés codéfinir la meilleure route à suivre mais il garde en permanence le contrôle de la finalité ultime du projet.
  • Le sens prime sur le processus dans le cas de la mise en œuvre de la stratégie par les acteurs.

fa8dacca016e20530f4e21acbc456a9e-maep6-1631

Manager une équipe projet – 6e édition  – 8 étapes et 12 livrables pour accompagner son équipe dans la réussite d’un projet
Auteur : Yves SOTIAUX
Éditeur : GERESO ÉDITION
Nombre de pages : 243
Date de parution : 12 octobre 2017

Ces robots visiteront l’intérieur des pyramides

Ainsi la Pyramide de Khéops recèle-t-elle encore bien des mystères, d’après une étude publiée dans la revue Nature en novembre dernier. Initiée par la Faculté des ingénieurs de l’université du Caire et l’Institut HIP (Héritage Innovation Préservation), la mission ScanPyramids, avec le concours du CEA, avait annoncé la découverte de cavités inconnues jusqu’à présent. Les premiers résultats datent en fait d’octobre 2016 et, depuis lors, les équipes scientifiques s’interrogent sur la manière d’explorer l’intérieur de ces cavités en les laissant intactes. Un robot ne pourrait-il pas se faufiler dans un trou de souris, résultat d’un perçage minutieux, puis atteindre ces recoins de pyramide toujours cachés aux yeux du monde ?

La mission ScanPyramids prend contact avec l’Inria (Institut national de recherche en informatique et en automatique) et ses experts-roboticiens. «A l’époque, nous ne savions pas réaliser ce genre de robot explorateur, admet Jean-Baptiste Mouret, chercheur et spécialiste en robotique et en intelligence artificielle. Mais le challenge était intéressant.» Le projet pour réaliser ce robot «minimalement invasif» est amorcé et, un an plus tard, les premiers détails techniques viennent d’être dévoilés : les chercheurs de l’Inria ne vont pas réaliser un seul robot miniature, mais deux. Le premier robot fait figure d’éclaireur et sert à établir l’état des lieux, en quelque sorte. Le second, qui ressemble à un petit dirigeable, est prévu pour se déplacer et examiner le site plus en détails, si possible ou si nécessaire.

blimp-1140x336

Un défi de miniaturisation

«Le robot de reconnaissance est équipé d’une caméra, orientable dans toutes les directions, qui permet de produire des images panoramiques de 15 000 pixels de large, explique Jean-Baptiste Mouret. Les trois torches bénéficient d’une puissance totale de 1500 lumens afin de percer l’obscurité. Le robot ne mesure que 3,5 centimètres de diamètre et il a fallu caser les moteurs, l’électronique… La miniaturisation a été un défi.» Relié à un câble transportant l’énergie et les données, ce robot se déplace à l’aide de roues et de chenillettes. «Celles-ci sont en contact permanent avec la paroi du trou pour assurer la propulsion, grâce au système de suspension que nous avons mis au point» détaille Jean-Baptiste Mouret. Le robot est aujourd’hui quasi-fonctionnel, bien qu’il demande encore à être éprouvé hors d’un laboratoire. A l’exception des composants électroniques et des axes, les prototypes ont été intégralement fabriqués en plastique, à partir d’une imprimante 3D Form 2.

Long de 30 à 35 centimètres dans sa configuration initiale, ce robot a l’avantage d’être modulaire. Les composants de propulsion sont indispensables, mais la plupart des autres pièces sont interchangeables. Une fois sa mission accomplie, le module de reconnaissance revient à son point de départ, est retiré puis remplacé par le robot d’exploration, qui emprunte le même chemin. Pour cette phase qui demande un robot mobile et même volant, les chercheurs de l’Inria ont imaginé et conçu un petit dirigeable, gonflé à l’hélium, et sa station d’accueil, autrement dit une mini-piste d’envol et d’atterrissage. Le dirigeable est piloté à distance par un opérateur à l’aide un émetteur-récepteur radio, logé dans la station d’accueil. La «nacelle»  embarque plusieurs composants, pour certains issus du modélisme, dont quatre moteurs, des projecteurs, une caméra analogique, un micro-contrôleur et surtout plusieurs capteurs qui aident à la navigation. Car l’engin est conçu pour être partiellement autonome. «Si la liaison radio est perdue, le robot doit retourner à sa base de lui-même, commente Jean-Baptiste Mouret. Dans une situation normale, ces capteurs assistent le pilotage, pendant le vol, et l’atterrissage de précision sur la station d’accueil.»

Des déplacements analysés à l’aide d’une vision d’insecte

Les capteurs en question sont élaborés à l’Institut des sciences du mouvement de Marseille (CNRS/Aix-Marseille Université). «Le capteur de flux optique mesure la vitesse des objets sur sa «rétine» lorsque le robot se déplace, développe Jean-Baptiste Mouret. Si les parois d’un couloir défilent à la même vitesse à gauche et à droite, le robot-dirigeable en déduit qu’il évolue au milieu. Ce système s’inspire de la vision des mouches et des abeilles. Le second capteur, HyperCube, sert à calculer l’angle d’approche en phase d’atterrissage.» Tous les éléments qui composent la nacelle, y compris les 20 grammes de batterie lithium-polymère pour 15 minutes d’autonomie, pèsent au total 50 grammes. Ce poids n’a pas été décidé de manière arbitraire car il dépend du volume du ballon, lequel fait 80 centimètres de diamètre. Ceci pour une bonne raison :  «Les couloirs dans la partie connue de la pyramide de Kheops mesurent un peu plus d’un mètre de large, constate Jean-Baptiste Mouret. La limite est donc imposée.» La quantité de gaz injectée dans le ballon, à partir d’une bouteille d’hélium située à l’extérieur, a également intérêt à être exacte au gramme près. Au-delà de 50 grammes, le ballon s’envole au plafond. En-dessous, il est incapable de soulever sa charge.

Le dépliement et le repliement de ce ballon, quand il est de retour sur la station d’accueil, donne toujours du grain à moudre aux chercheurs de l’Inria. «C’est en cours de réflexion, mais les astuces que nous mettons en œuvre commencent à fonctionner, se réjouit Jean-Baptiste Mouret. Le robot volant requiert encore au moins un an de travail avant que nous n’obtenions un prototype fiable. A ce moment-là, nous prévoyons d’inclure des algorithmes d’apprentissage pour que le robot puisse réagir à des situations imprévues, quand il subit un dommage par exemple. C’est aussi un axe de recherche.» L’ensemble du projet, s’il est lié à la mission ScanPyramids, a d’autres applications potentielles. «L’exploration des grottes ornées, difficiles d’accès ou préservées de l’influence humaine, et d’autres usages dans l’industrie sont envisageables, estime Jean-Baptiste Mouret. Ces robots répondent à un besoin que d’autres technologies actuelles ne peuvent assumer.»

Frédéric Monflier

Les molécules sont-elles droitières ou gauchères ?

Les équations théoriques prédisaient le phénomène, mais personne n’avait pu le prouver, comme l’expliquent les chercheurs dans leur article publié le 8 décembre 2017 dans la revue Science.

En enfilant le gant droit dans la main gauche, on expérimente ce qu’on appelle la chiralité : deux formes en tout point semblables mais qu’on ne peut pas superposer puisqu’elles sont des images miroir différentes. Cette propriété se retrouve un peu partout dans notre univers et à toutes les échelles, des particules élémentaires aux galaxies.

Bien que les caractéristiques physiques des molécules chirales soient les mêmes, une forme est la plupart du temps favorisée par les organismes vivants, dans l’ADN ou les acides aminés, par exemple. Diverses pistes existent pour expliquer cette « homochiralité de la vie » mais aucune ne fait consensus. Les conséquences de ce phénomène sont pourtant immenses, en pharmacologie par exemple : les deux images miroir d’une molécule chirale peuvent avoir des effets thérapeutiques très différents.

Dans cette étude, afin de révéler les propriétés subtiles des molécules miroir, les chercheurs ont étudié leur photoionisation, c’est‐à‐dire la manière dont elles perdent leurs électrons quand elles sont soumises à la lumière. La lumière produite par un laser ultrarapide du Centre lasers intenses et applications (CELIA, CNRS/Université de Bordeaux/CEA) à Bordeaux est d’abord polarisée de façon circulaire, puis dirigée vers les molécules de camphre. Ainsi, le champ électromagnétique décrit une spirale régulière dont le sens peut être ajusté à loisir. Lorsque cette lumière en spirale atteint la molécule chirale, elle provoque l’éjection d’un électron qui suivra lui aussi une trajectoire en spirale.

Dans le camphre sous forme gazeuse, les molécules sont orientées au hasard. La lumière du laser ne frappe donc pas toujours le même côté de la molécule chirale, et éjecte les électrons dans différentes directions. Pourtant, pour une image miroir donnée, les électrons sont éjectés davantage vers l’avant ou vers l’arrière de la direction de la lumière, selon son sens de polarisation, de la même façon qu’un écrou se déplace dans un sens ou l’autre selon la direction de la rotation.

Samuel Beaulieu, doctorant en science de l’énergie et des matériaux en cotutelle à l’INRS et à l’Université de Bordeaux, est remonté avec ses collègues aux sources de ce phénomène en mesurant très précisément l’éjection des électrons. Il a ainsi non seulement confirmé qu’un plus grand nombre d’électrons sont émis dans une direction, mais a surtout découvert qu’ils sont émis sept attosecondes plus tôt que dans la direction opposée. Il y a donc une asymétrie dans la réactivité de la molécule de camphre lorsqu’elle est ionisée par la lumière polarisée circulairement.

L’ionisation asymétrique des molécules chirales est une des explications possibles de l’homochiralité de la vie. L’expérience de Samuel Beaulieu a capturé les premières attosecondes d’un processus qui, sur des milliards d’années d’évolution, pourrait avoir mené à une préférence pour certaines molécules gauches ou droites dans la chimie de la vie. Il faudra d’autres découvertes fondamentales comme celle‐ci pour comprendre chaque étape de cette histoire où les événements se produisent à l’échelle de l’attoseconde.

Source : cnrs

La chimie, un secteur en plein rebond en 2017

Une croissance forte pour le premier semestre

L’industrie de la Chimie en France enregistre une croissance de 4 % en volume sur les sept premiers mois de 2017 par rapport à la même période de 2016 d’après l’Union des Industries Chimiques (UIC).

De bons résultats qui permettent de revoir les prévisions à la hausse et d’espérer une croissance d’au moins 3 % en volume en 2017 contre 2 % en 2016 précise Pascal Juéry, président de l’UIC.

Une balance commerciale en progression portée par les exportations

Selon Pascal Juéry, «en cumul à fin avril 2017, les exportations qui s’élèvent à 20 milliards d’euros, sont en hausse de 6,2 % en valeur par rapport à la même période de 2016».

Les prix des produits chimiques enregistrent une progression significative de 3 % en cumul à fin juillet 2017 par rapport à la même période de 2016 d’après l’UIC.

Grâce à ses exportations, le secteur de la chimie prend une place grandissante dans la balance commerciale du pays en affichant un solde positif des échanges cumulé à fin juillet 2017 de 4,9 milliards d’euros (contre 4,5 milliards d’euros en 2016).

A noter que deux secteurs de la chimie profitent d’une progression plus significative : le secteur des produits organiques (matières plastiques de base, caoutchouc synthétique…) et celui des produits chimiques de consommation (savons, parfums, cosmétiques, produits d’entretien…).

L’avenir de l’industrie chimique en France

Le rebond observé s’inscrit dans une dynamique positive qui s’opère depuis ces dernières années en chimie. La filière a, en effet, engendré une croissance de 2,8 % en 2013 et 2014, puis de 1,6 % en 2015 et de 2 % en 2016. Depuis dix ans, le secteur de la chimie est le bon élève de l’industrie française avec un taux moyen de croissance qui atteint 1 % par an.

Avec un chiffre d’affaires de 71 milliards d’euros en 2016, la France se hisse au deuxième rang européen des pays producteurs derrière l’Allemagne.

Cependant, au-delà de cette situation conjecturelle avantageuse, l’activité de l’industrie chimique française est en déclin depuis une dizaine d’année avec des parts de marché passant de 4% à 2% entre 2007 et 2015. La compétitivité de la filière est confrontée à la concurrence des pays d’Asie et du MoyenOrient qui bénéficient de débouchés importants ou de matières premières bon marché.

Selon Pascal Juéry, la chimie doit mettre en place de véritables stratégies pour répondre aux enjeux de ce secteur notamment dans le domaine de l’innovation. Dans cette optique, les représentants de l’UIC, des pôles de compétitivité Axelera, Elastopôle, IAR, Matikem, Plastipolis, Trimatec, Xylofutur et du cluster Novachim ont signé le 19 octobre dernier la convention de partenariat pour la création de CROSSCHIM. Cet inter-réseaux de la filière chimie aura notamment pour mission de renforcer la compétitivité des entreprises françaises via différentes actions visant à promouvoir l’innovation dans les industries de la chimie.

Par Aliye Karasu

L’informatique aux commandes de la biologie

La biologie de synthèse qui allie la biologie et l’ingénierie, a pour but de (re)programmer les cellules pour qu’elles améliorent leur rendement dans une tâche précise ou qu’elles accomplissent efficacement une tâche nouvelle. Un des enjeux de cette discipline est donc de contourner les limitations des systèmes biologiques existants. Il est par exemple difficile d’obtenir la même expression des gènes d’une cellule à l’autre même si celles-ci sont cultivées dans un même milieu. Grâce à ces technologies de pointe, les chercheurs parviendraient à contrôler de façon très homogène un processus cellulaire sur une longue période.

Les chercheurs de l’Institut Pasteur et d’Inria, du CNRS et de l’université Paris-Diderot, et de l’IST Austria ont mis au point deux plate-formes connectant un microscope à un ordinateur. Les cellules sont placées dans un dispositif de microfluidique permettant de leur imposer des variations dans leur environnement chimique ou des stimulations lumineuses. Le programme informatique décide des modifications à apporter à l’environnement chimique ou lumineux de la cellule en fonction de son comportement courant et de l’objectif désiré. L’ordinateur gère également l’acquisition d’images par le microscope et leur analyse pour connaitre en temps réel les réponses cellulaires.

Dans le premier article, des chercheurs de l’unité InBio – Méthodes expérimentales et computationnelles pour la modélisation des processus cellulaires (Institut Pasteur / Inria)¹ , et des groupes Biologie des systèmes et de synthèse des réseaux génétiques, dirigé par Călin C. Guet, et Biophysique et neuroscience, dirigé par Gašper Tkačik, de l’IST Austria, ont utilisé l’optogénétique pour activer l’expression d’un gène grâce à une exposition à la lumière. L’utilisation d’une protéine fluorescente permet de mesurer la quantité de protéine produite. Un contrôleur utilisant un modèle du système permet alors de choisir en temps réel les perturbations dynamiques à appliquer en tenant compte du comportement futur des cellules.

Grâce au programme informatique créé par les chercheurs, ceux-ci ont la possibilité de contrôler chaque cellule individuellement de différentes façons, ou de créer des communications entre plusieurs cellules qui font circuler des messages dans un ordre aisément reconfigurable. « Nous sommes parvenus à créer une plate-forme expérimentale nous permettant de concevoir des circuits qui sont partiellement biologiques et partiellement virtuels. Les parties virtuelles de ces circuits peuvent être modifiées arbitrairement pour explorer rapidement des comportements cellulaires divers,allant même au-delà de ce qui était jusque-là biologiquement possible » commente Jakob Ruess, co-premier auteur du premier article.

Dans le deuxième article, Grégory Batt, responsable de l’unité InBio et co-dernier auteur avec Pascal Hersen (CNRS)2 du Laboratoire Matière et systèmes complexes (CNRS/Université Paris Diderot), explique comment ils sont parvenus à amener un système cellulaire dans une configuration instable : « Nous avons conçu un programme informatique qui vise à forcer les cellules à prendre des décisions binaires de manière aléatoire. Pour ce faire, les cellules sont entraînées dans une région d’instabilité – comme des alpinistes sur une ligne de crête – puis on les laisse évoluer librement vers l’une des deux configurations stables possibles. De manière inattendue, nous avons constaté qu’une même stimulation, si elle était bien choisie, était capable d’entraîner et de maintenir des groupes de cellules différentes dans la région d’instabilité. » Ces résultats peuvent aider à mieux comprendre comment des populations de cellules prennent collectivement des décisions robustes sans coordination individuelle.

Les avancées scientifiques décrites dans ces articles ont été rendues possible par l’alliance entre deux disciplines aujourd’hui complémentaires : la biologie et les sciences du numérique. L’étroite collaboration entre l’Institut Pasteur et Inria, formalisée par la structure commune de recherche InBio dont l’objectif est de développer un cadre méthodologique permettant une compréhension quantitative du fonctionnement des processus cellulaires, illustre donc parfaitement l’utilité d’une recherche interdisciplinaire où se mêlent approches expérimentales et développements méthodologiques.

De son côté, l’équipe de Pascal Hersen au Laboratoire Matière et systèmes complexes (CNRS/Université Paris Diderot) combine les outils et les concepts de physique, d’ingénierie, de théorie du contrôle et de biologie synthétique pour établir les fondements de la cybergénétique² .

¹ L’unité InBio fait partie du Centre de bioinformatique, biostatistique et biologie intégrative (Institut Pasteur / CNRS)

² Projet SmartCells, voir http://www.cnrs.fr/insis/international-europe/erc/consolidator/pascal-hersen.htm

Source : cnrs

Quand l’énergie solaire produit du pétrole

Centrale solaire de 850 MW

La compagnie GlassPoint Solar sera chargée de construire cette centrale solaire à concentration de 850 MW, capable de fournir assez de vapeur d’eau pour extraire 12 millions de barils par an, soit environ 40% de la capacité de production du gisement situé à Bakersfield, en Californie. Découvert en 1911, c’est l’un des plus vieux sites pétroliers des Etats-Unis. Après une période de déclin, l’amélioration des techniques de récupération (enhanced oil recovery) lui a redonné une nouvelle jeunesse. Or, ces procédés nécessitent beaucoup de vapeur d’eau pour fluidifier le pétrole lourd qu’abrite le réservoir. Jusqu’à maintenant, elle était produite par une centrale à gaz. L’opérateur Aera Energy, détenu par Shell et ExxonMobil, estime qu’il réduira ses émissions de CO2 de 376 000 tonnes, grâce à la centrale solaire dont la mise en service est annoncée pour 2020. Une ferme photovoltaïque de 26,5 MW sera également construite pour répondre à une partie des besoins électriques du site.

Projet Miraah

Selon John O’Donnel de GlassPoint, la préoccupation environnementale n’est pas la seule qui motive les pétroliers américains, même s’ils sont soumis à un système cap & trade de leurs émissions de CO2. La chute des coûts des énergies renouvelables est également un facteur déterminant, tout comme la sécurité d’approvisionnement. Il prend ainsi  l’exemple d’Oman, où l’entreprise américaine a déjà construit une centrale solaire à concentration de 1 000 MW pour le projet Miraah. «À Oman, il y a un véritable problème d’approvisionnement en gaz, l’énergie solaire joue donc un rôle indispensable dans le pays», explique-t-il. Inutile de préciser que dans cette région, les conditions sont extrêmement favorables aux technologies solaires. Le norvégien Statoil étudie lui aussi la possibilité d’utiliser l’énergie solaire pour des projets au Brésil.

Si les écologistes sont plutôt réservés, c’est que le bilan carbone de ces initiatives consistant à utiliser les énergies renouvelables pour produire, et donc consommer, des énergies fossiles reste globalement négatif. Sauf à considérer que ces énergies carbonées auraient de toute manière été exploitées, d’une manière ou d’une autre. Un débat que Techniques de l’Ingénieur laisse ouvert à ses lecteurs.

Romain Chicheportiche

Une nouvelle méthode de synthèse des matériaux joue au billard avec les ions

Baptisée PDII, pour « proton-driven ion introduction », cette méthode utilise un phénomène similaire à l’éjection des boules de billards par d’autres boules. Le principe de la PDII est d’appliquer un courant à haute tension (plusieurs kV) à une anode en forme d’aiguille placée dans une chambre à hydrogène. La tension génère alors des protons par dissociation de l’hydrogène. Les protons migrent le long du champ électrique et sont dirigés vers un premier matériau, source des ions que l’on souhaite introduire. Les ions (positifs) de la source sont alors eux-mêmes éjectés de la source vers le matériau hôte placé dessous où ils s’intercalent dans des espaces nanométriques entre les feuillets d’un cristal.

D’intéressants premiers essais

Dans cette étude, parue dans le Journal of American Chemical Society, l’équipe de chercheurs a réussi à introduire de manière homogène des ions lithium, sodium, potassium, cuivre et argent dans un matériau 2D, le bisulfure de tantale, tout en maintenant ses caractéristiques cristallines. L’équipe a aussi réussi à substituer des atomes de sodium à des atomes de potassium dans un Nasicon (Na-Super Ionic Conductor) de type Na3V2(PO4)3, créant ainsi un nouveau matériau thermodynamiquement stable que l’on ne peut pas obtenir par des méthodes de synthèse conventionnelle. Les chercheurs espèrent pouvoir utiliser d’autres ions dans des matériaux hôtes plus divers, ouvrant ainsi la voie pour la synthèse de très nombreux nouveaux matériaux. Reste maintenant à travailler sur une méthode similaire qui permettrait de manipuler des ions négatifs ou multivalents, notamment pour le développement de matériaux fonctionnels pour les batteries ou l’électronique.

pdii illustration 1
Copyright : Fujioka M. et al., Journal of the American Chemical Society, November 16, 2017 Les protons, générés par dissociation électrique de l’hydrogène (en bleu), viennent prendre la place d’autres ions positifs (en rouge) dans le matériau source. Ces derniers sont alors expulsés vers le cristal hôte, dans lequel ils s’insèrent entre les feuillets (symbolisés par des rangées de triangles).

Avantages par rapport à d’autres méthodes

Bien souvent, l’insertion ou la substitution d’ions sont menées dans des solutions ioniques. Outre l’aspect parfois peu pratique, ces réactions présentent plusieurs inconvénients majeurs : il est difficile de rendre l’insertion homogène et certaines molécules du solvant peuvent aussi s’insérer en plus des ions, dégradant la qualité du cristal, sans compter tous les matériaux qui ne supportent pas d’être placés dans un liquide ! Dans des méthodes à l’état solide comme le dépôt chimique en phase vapeur (CVD) parfois utilisé pour l’insertion d’ions, certaines contraintes de mise en œuvre limite les possibilités : limitation de la taille des échantillons, besoin de très hautes températures. La PDII développée ici pourrait permet de se passer de ces contraintes : pas de limitations de taille, températures moins élevées (100-350°C pour le transfert d’ions cuivre, argent ou de métaux alcalins).

pdii illustration 2
Copyright : Fujioka M. et al., Journal of the American Chemical Society, November 16, 2017) Schéma de fonctionnement avec expulsion en cascades d’ions

 

Copyright : Fujioka M. et al., Journal of the American Chemical Society, November 16, 2017) Photo de l'échantillon où s'est fait la substitution
Copyright : Fujioka M. et al., Journal of the American Chemical Society, November 16, 2017)
Photo de l’échantillon où s’est fait la substitution

Par Sophie Hoguin

Unplugged Afrique

Disparités électriques

La conférence organisée mi-novembre par Business France et GreenUnivers à Paris a permis de dresser un tableau actualisé de la situation africaine. Le continent est le moins électrifié du monde avec un taux moyen de 42%. Ce chiffre cache néanmoins de fortes disparités entre les pays et les régions (voir carte). Les pays sub-sahariens présentent des taux extrêmement faibles (4,5% pour le Soudan du sud, 8% au Tchad) tandis que les pays du Maghreb sont tous au-dessus de 90%, tout comme l’Egypte et l’Afrique du sud. Au sein même des pays, le clivage ville/campagne est lui aussi très important. Les quelque 620 millions d’africains vivant sans électricité se trouvant majoritairement en zones rurales. Tirer des lignes électriques pour étendre le réseau haute-tension existant coûte cher et ne s’avère généralement pas rentable.

Electrification Afrique Banque mondiale 2014

Les besoins d’énergie sont particulièrement importants en Afrique de l’Ouest en raison d’un phénomène de rattrapage (+10/15% par an de la consommation) suite à une dizaine d’années de crise économique et/ou politique. Dans la région, la Côte d’Ivoire fait office de hub énergétique. La diversification de son économie l’a relativement préservé des crises et le pays exporte de l’énergie à ses voisins. Dans le cadre de la COP21, la Côte d’Ivoire s’est engagé sur la voie des énergies renouvelables (Enr) en promettant d’hybrider 51 centrales existantes et en mettant en place un début de cadre réglementaire pour les Enr. Le potentiel éolien étant relativement faible dans cette région, le solaire devrait prendre une part significative des nouvelles installations.

En Afrique de l’Est, les pays tels que le Kenya, Tanzanie, Ouganda, Rwanda ou Ethiopie sont des marchés scrutés de près par les acteurs de l’énergie. Les économies sont plus diversifiées qu’à l’Est et affichent des croissances significatives depuis les 10 dernières années (4,9%/an en moyenne). Selon Xavier Chatte-Ruols, directeur du bureau Afrique de l’Est à Business France, l’Ethiopie notamment devrait devenir « un monstre économique dans 10-15 ans » dont les besoins en énergie, déjà largement couvert par l’hydroélectricité, devraient l’être par le triptyque : eau-vent-soleil. Les entreprises chinoises, bien implantées dans le BTP, sont encore peu présentes dans le secteur énergétique ce qui laisse encore des marges de manœuvres aux acteurs français. Un projet d’union douanière couvrant ces 5 pays prévoit de réduire les barrières douanières pour favoriser le développement économique de la région.

Le potentiel de l’off-grid

Malgré quelques grands projets renouvelables, l’Afrique peine à développer ces grandes infrastructures qui nécessitent des réseaux solides et étendus et de lourds financements. C’est pourquoi de nombreuses entreprises ont préféré miser sur les solutions hors-réseau. C’est le cas d’upOwa, société franco-camerounaise qui propose des kits solaires pour les villages ruraux. Ils sont composés de panneaux photovoltaïques de 5 à 30 Watts, d’une batterie, de lampes torches, d’une radio et d’un téléphone. Ce dernier est indispensable car c’est lui qui permet de réaliser les paiements. « C’est le concept pay-as-you go. Les familles ou petits commerces contractent un crédit sur 1 à 3 ans pour rembourser le kit. En cas de non paiement, le kit arrête de fonctionner », explique Caroline Frontigny, cofondatrice d’upOwa. Un système inspiré du leader africain du secteur, M-Kopa, qui a écoulé ainsi plus de 500 000 kits solaires sur le continent !

Très adaptés à son public, les kits solaires nécessitent en revanche la mise en œuvre d’un important réseau de distribution. « C’est un véritable défi car dans certains de ces villages, il n’y a que Coca Cola qui est présent », remarque Caroline Frontigny.

Par ailleurs, un service financier de type micro-crédit est indispensable pour convaincre des utilisateurs aux revenus très faibles. Mais grâce à l’arrivée des nouveaux acteurs de l’off-grid, le prix des kits a déjà été réduit de 50%. Et leur utilisation devrait aller plus loin que la seule télévision avec une multiplication des usages de l’énergie, tel que des kits avec pompe à eau. L’accès à l’eau est en effet une autre problématique centrale en Afrique.

Par Romain Chicheportiche

Les mâts d’éoliennes en béton imprimés en 3D

Impression 3D

Grâce à cette subvention, RCAM Technologies va pouvoir lancer la fabrication de la partie inférieure de deux mâts d’éoliennes d’une hauteur comprise entre 140 et 170 mètres. Les sections prototypes seront fabriquées à l’aide d’un bras robotisé contrôlé par l’imprimante 3D, et testées à l’Université de Californie à Irvine. «Lorsque vous construisez un parc éolien, vous voulez construire les éoliennes les plus hautes possible pour capturer le vent en altitude », constate Jason Cotrell. «Cependant, lorsque vous construisez des éoliennes de grande taille, le diamètre des tours devient si important qu’elles sont difficiles à transporter sur les routes. Avec cette technologie, nous sommes en mesure de fabriquer ces mâts sur site en utilisant un processus automatisé de fabrication qui nous permet de contourner les contraintes de transport et de logistique», explique-t-il. De plus, le rendement moyen de ces grandes éoliennes serait augmenté de 20%, selon les calculs de l’Américain.

Acier ou béton ?

Les grands leaders du secteur proposent à leurs clients des plateformes avec des mâts en acier ou béton. Ces derniers comporte aussi un segment en acier par-dessus. La tour en béton est construite à l’aide de différents anneaux qui sont assemblés sur le chantier. La partie en acier est placé par-dessus à l’aide de la grue. Le mât entièrement en acier se compose lui de 4 segments qui s’empilent. Pour l’éolien en mer, l’utilisation d’un béton fibré à ultrahaute performance (BFUP) est étudiée par les porteurs de projets. A noter enfin que le développeur de parcs éoliens Innovent a installé la toute première turbine française équipée d’un mât en bois, à Argentan, dans l’Orne. Plus économique et écologique, il ne mesure néanmoins que 60 mètres.

Reste la question du coût. Selon Aaron Barr, consultant senior chez Make Consulting, «Les tours de béton sont rapidement apparues comme une alternative économique aux tours tubulaires en acier pour les hauteurs moyenne de plus de 120 mètres». La plupart des tours en béton ont utilisé des sections préfabriquées ailleurs et expédiées en plusieurs segments. Le procédé de RCAM Technologies éviterait ces contraintes logistiques en coulant du béton directement sur le site. La start-up californienne n’est pas la seule à travailler sur le sujet et serait en conversation avec un industriel dont le nom est resté confidentiel. « Nous sommes en contact avec ce fabricant et espérons collaborer avec lui à l’avenir », confie l’heureux lauréat.

Romain Chicheportiche

Comment les prix des énergies renouvelables ont-ils pu tomber si bas ?

Mexique : terre bénie

Avec un prix minimum de 20,57 $/MWh, le gouvernement mexicain peut se frotter les mains. Il a reçu des offres pour la construction de centrales solaires et éoliennes avec des prix défiant toute concurrence, même d’énergies fossiles polluantes. Ce nouvel appel d’offres va se traduire par la construction de quinze centrales cumulant 2 562 MW. Le pays bénéficie de conditions climatiques idéales, d’une consommation en hausse et a récemment libéralisé son secteur de l’énergie pour attirer les investisseurs. C’est donc assez logiquement que les appels d’offres organisés par le Mexique – c’est le 3e en seulement 18 mois – se soient traduits par des prix très bas (42$ et 31$/MWh). Mais la chute continue des coûts des énergies renouvelables (Enr) laisse désormais perplexes certains observateurs du secteur.

Mexico a bénéficié à plein de la guerre des prix qui fait actuellement rage dans le secteur de l’énergie. En élaborant des appels d’offres internationaux et surtout « technologiquement neutres », le gouvernement mexicain abandonne une vieille tradition consistant à déterminer son mix électrique selon des considérations politiques pour ne faire jouer que le principe de concurrence entre énergies. Le Mexique n’est pas le seul à avoir choisi cette voie dans la région à l’image du Chili, de l’Argentine ou plus proche de nous, l’Espagne. Tous ces pays ont tiré profit de la baisse des coûts des Enr tout en surfant sur la concurrence acharnée que se livrent les grands groupes pour capter ces parts de marché.

Guerre des prix

Une stratégie symbolisée par le cas Enel Green Power, grand vainqueur du dernier appel d’offres mexicain comme des précédents d’ailleurs, et poids lourd du secteur. Cette fois-ci, le groupe italien a remporté 593 MW éoliens à lui seul, notamment sur trois parcs dénommés Amistad (2-3 et 4). Ils sont des extensions d’un parc existant, Amistad 1, déjà remporté lors d’un autre appel d’offres, ce qui permet de réduire une partie des coûts (notamment liés au raccordement réseau). Enel a également mis en place une stratégie financière agressive visant à revendre très rapidement les projets remportés pour ne pas faire face au mur d’investissements qu’ils représentent. Dans l’éolien, l’investissement est d’environ 1 millions d’euros par Mégawatt installé. C’est ainsi qu’en octobre dernier, le groupe italien a revendu pour plus d’un milliard d’euros ses projets Enr mexicains à la Caisse de dépôt et placement du Québec (CDPQ) et le fonds de pension CKD Infraestructura México, à travers une structure nommée Holdco.

Une stratégie qui a placé l’Enel comme le 1er opérateur Enr du pays avec 728 MW installés et plus de 1 800 MW en projet ou construction. A noter également le projet photovoltaïque de 377 MW remporté par le développeur français Neoen et les quatre centrales gagnées par Engie cumulant 688 MW.

Par Romain Chicheportiche

Une nouvelle voie peu énergivore pour mélanger huile et eau

Aujourd’hui on fabrique des émulsions d’huile dans l’eau (ou d’eau dans l’huile) en secouant énergiquement les deux corps soit mécaniquement soit en utilisant des ondes sonores -ultrasons (qui provoquent d’intenses vibrations dans le liquide). Plus on recherche une émulsion fine, c’est-à-dire où les bulles sont petites, et le plus stable possible (sans phénomène de coalescence ou de séparation), plus il faut dépenser de l’énergie pour fabriquer l’émulsion. Pour stabiliser ces émulsions on utilise en plus des tensioactifs en plus ou moins grande quantité. Les chercheurs du MIT propose un système qui permet d’obtenir des émulsions nanométriques stables avec une dépense d’énergie minimale.

S’appuyer sur la condensation

Le principe de ce nouveau process est simple : une cuve contenant de l’huile (ici du dodécane) et une petite quantité de tensioactif -en l’occurrence du monooléate de sorbitane, un tensioactif non ionique très courant – est placée dans une pièce contenant de l’air très humide (75-80% d’humidité) à 20°C. La cuve est refroidie (via un module Peltier dont on diminue le thermostat de 2°C). L’humidité de l’air environnant condense alors à la surface de l’huile. Les expériences effectuées, relatées dans Nature Communications montrent que les gouttelettes d’eau qui se forment à la surface sont particulièrement uniformes et finissent par couler dans l’huile. La quantité de tensioactif permet en outre de contrôler la taille de ces gouttelettes. Les chercheurs du MIT ont ainsi réussi à obtenir des émulsions nanométriques stables pendant plusieurs mois. Les recherches menées à l’occasion de ces différentes expériences ont permis de mieux comprendre les phénomènes d’interaction entre tensioactif/eau/huile dans ces conditions. Les chimistes du MIT assurent que le process est facilement transférable à l’échelle industrielle en raison de sa simplicité et de son faible coût et qu’il est reproductible avec de nombreux autres tensioactifs, corps gras ou liquides à base aqueuse.

Des applications industrielles possibles

Trois secteurs principaux utilisent régulièrement des émulsions : la pharmaceutique, les cosmétiques et l’agroalimentaire et pourraient donc être intéressés par cette nouvelle voie de fabrication des émulsions. Rappelons en effet que les dates de péremption de nombreux produits cosmétiques ou pharmaceutiques sont liés à l’instabilité des émulsions qui les composent. Les chercheurs pensent même que le procédé pourrait trouver des applications dans l’industrie du gaz et du pétrole où les fluides utilisés pour l’évacuation des boues sont aussi basés sur des émulsions.

Sophie Hoguin

TOP 5 : les articles les plus lus #novembre2017

La COP23 lance une année clé pour le climat

La COP23 a lancé le dialogue Talanoa visant à revoir l’ambition de réduction des émissions de gaz à effet de serre mondiales d’ici 2020. Les négociations prendront fin à la COP24 en Pologne en 2018. De quoi faire de l’année prochaine une année clé pour le climat.

bonn-cop23-1140x336

 

La surveillance permanente des internautes

Tout le monde sait que les sites, en particulier ceux du e-commerce, s’appuient sur des mouchards pour enregistrer nos comportements pour nous proposer des offres personnalisées. Mais certaines entreprises, ainsi que Google (avec Android), poussent cette analyse encore plus loin…

donnees-personnelles-1140x366

 

Astrophysique: une théorie se passe de la matière noire

Un article paru dans The Astrophysical Journal propose un nouveau modèle théorique de l’Univers basé sur l’invariance d’échelle du vide. Il se passe de l’existence de la matière et de l’énergie noire pour expliquer l’accélération de l’expansion de l’univers et sa «masse manquante».

matiere-noire-1140x336

 

Piratage : transformer un robot en tueur

En 2000, « Mon voisin, le tueur » sort au cinéma. Dans ce film, Bruce Willis joue le rôle d’un exécuteur sous les traits d’un paisible voisin. Demain, nous aurons peut-être droit à l’équivalent pour les robots. Méfions-nous des apparences…

robot-tueur-1140

 

Une nouvelle filière de recyclage pour les petits aluminiums

Déjà 9 millions de Français peuvent trier et recycler leurs petits emballages métalliques grâce au Projet Métal. À l’occasion du 100e Congrès des Maires et des présidents d’intercommunalité, le projet est relancé. Objectif : couvrir 30 millions d’habitants en 2022.

nespresso-capsules-1140x336

Par I. B

Coup de projecteur sur nos nouveautés !

 

couv_SE

MENACES ET VULNÉRABILITÉS : PROTECTION DES SITES INDUSTRIELS

Les attaques du 11 septembre 2001 contre les tours jumelles du World Trade Center ont marqué un tournant dans la prise en compte des menaces dans les pays occidentaux. Dans le domaine de la sécurité industrielle, la France a développé une approche intégrée en matière de prévention des pollutions et des risques et de délivrance unique des autorisations administratives. Avec la croissance des cas de malveillance industrielle, un nouvel enjeu de « sûreté industrielle » est apparu. >> À retrouver dans l’offre Sécurité et gestion des risques

 

couv_int

LES GRANDS ÉVÉNEMENTS DE L’ANNÉE [actualisation]

 L’année 2017 a été marquée par trois événements majeurs : les catastrophes naturelles – cyclones, typhons et orages violents ; la polémique autour du désherbant à base de glyphosate ; et la décision politique concernant les 11 vaccins obligatoires. Dans le cadre de l’actualisation de cette rubrique, découvrez une sélection d’articles de fond de notre collection pour analyser, approfondir et prendre du recul face à ces événements. >> À retrouver dans l’offre Innovations technologiques

 

couv_epub 

INNOVATIONS MARQUANTES – TIC & ELECTRONIQUE  [epub]

Technologie LiFi, Monnaies cryptographiques et blockchains, Big Data… Cette sélection d’articles vous propose de faire le tour de quelques-unes des grandes technologies numériques qui ouvrent la voie à une nouvelle révolution industrielle. Le format epub permet de lire et d’interagir avec le contenu sur tous les supports PC, tablettes ou smartphones. >>À retrouver dans l’offre Innovations technologiques

 

Télécharger la lettre des éditeurs au format PDF

Propriété intellectuelle et brevets d’invention

 

Qu’est-ce que la propriété intellectuelle ?

Le domaine d’application de la propriété intellectuelle est à la fois vaste et hétérogène : la propriété intellectuelle intéresse des réalisations aussi diverses que les inventions, les logiciels, les créations littéraires ou artistiques, les bases de données, les semi-conducteurs, les obtentions végétales, les marques, les dessins et modèles…, dont les régimes juridiques diffèrent fortement, qu’il s’agisse de la nature, de la durée ou de l’efficacité de la protection, ou des conditions à remplir et formalités à accomplir pour en bénéficier. Sans prétendre devenir un spécialiste de la propriété intellectuelle, il est important de pouvoir se repérer dans ce maquis de droits afin de préserver ou d’optimiser la protection de ses innovations et actifs intellectuels.

Les idées novatrices sont-elles protégeables par le droit de la propriété intellectuelle ?

En droit de la propriété intellectuelle, selon une expression jurisprudentielle, les idées sont libres de parcours. En d’autres termes, les idées, novatrices ou non, ne sont pas protégées ni protégeables par le droit de la propriété intellectuelle, même par le droit d’auteur qui est pourtant le plus souple. Il n’existe d’ailleurs aucun registre des idées. Tel est également le cas des concepts, savoir-faire industriels ou techniques non brevetables, savoir-faire commerciaux, méthodes de toute nature (économique, financière, commerciale ou d’enseignement), quels que soient leur valeur ou leur intérêt économique. En effet, les idées ne sont pas considérées comme des biens intellectuels, dans la mesure où l’idée n’est pas toujours le résultat d’une activité créative ou inventive, parce qu’elle peut être fortuite et est, par définition, insuffisamment formalisée.Toutefois, l’absence de protection en tant que telle d’une idée novatrice, par le droit de la propriété intellectuelle, ne lui fait pas perdre son intérêt économique et stratégique. Les idées novatrices sont souvent les prémices d’une activité créative ou inventive. Dès lors, son secret doit être conservé et protégé, afin de conserver tout avantage concurrentiel sur l’œuvre, la marque, le brevet ou encore le dessin et le modèle à venir.

Comment protéger et valoriser son savoir-faire ?

Le secret est l’un des premiers modes de protection du savoir-faire. Il est d’ailleurs au cœur de sa définition. C’est lui seul qui confère son avantage concurrentiel. Juridiquement, la protection du savoir-faire par le secret nécessite la conclusion de contrats ou de clauses de confidentialité imposant à leurs signataires une obligation de non-divulgation et de non-utilisation, à des fins autres que celles prévues dans l’accord, des informations confidentielles auxquelles ils pourront accéder. Ces obligations de confidentialité sont essentielles et doivent être imposées à toute personne susceptible d’avoir accès au savoir-faire. Techniquement, la protection du savoir-faire par le secret impose des mesures pratiques et organisationnelles garantissant, directement et indirectement, la confidentialité. Il s’agit par exemple de mettre en place un système de sécurité d’entreprise efficace et notamment des mesures physiques de sécurité. Il est également souhaitable d’instaurer un système d’identification et de classement des éléments constitutifs du savoir-faire, selon leur valeur et leur sensibilité. Les nouveaux éléments secrets doivent être identifiés et classés, et les éléments ayant perdu, pour diverses raisons, leur valeur économique doivent être déclassifiés.

>> Découvrez Propriété intellectuelle et brevets d’invention dans l’offre Management et ingénierie de l’innovation

 

Télécharger la lettre des éditeurs au format PDF

Des experts mis à l’honneur en 2017

 

pierre_monsan

Pierre Monsan a reçu le prix Enzyme Engineering 2017 au nom d’ECI (Engineering Conferences International) et de Genencor, lors de la 24e session de l’« Enzyme Engineering Conference ». Ce prix récompense une réussite exceptionnelle dans le domaine de l’ingénierie enzymatique, tant d’un point de vue académique qu’industriel. Conseiller éditorial pour Techniques de l’Ingénieur sur l’offre Bioprocédés depuis sa création, Pierre Monsan est Directeur de Toulouse White Biotechnology (TWB), Professeur émérite à l’INSA (Institut national des sciences appliquées) – Université de Toulouse, membre de l’Académie des technologies, de l’Académie de l’agriculture de France et du College of fellows de l’AIMBE (American Institute for Medical and Biological Engineering).

 

marie-odile simmonot2

Marie-Odile Simonnot vient de recevoir la médaille d’or de l’Académie d’agriculture pour l’ensemble de ses travaux sur le transport réactif dans les sols, la valorisation des métaux contenus dans les plantes et la requalification des sites dégradés. Professeur en génie des procédés à l’université de Lorraine (Nancy), Marie-Odile Simonnot dirige depuis 2017 le pôle scientifique EMPP (Énergie, Mécanique, Procédés, Produits). Elle est conseillère éditoriale pour Techniques de l’Ingénieur sur la rubrique Génie des procédés et protection de l’environnement depuis 2012.

 

Télécharger la lettre des éditeurs au format PDF

30e prix Roberval : « Stockage de l’énergie » parmi les finalistes !

 

À quoi sert le stockage de l’énergie ?

L’énergie éolienne ainsi que l’énergie solaire sont intermittentes et non modulables en fonction de la demande. Pour assurer leur développement futur, il faut pouvoir stocker de l’énergie et en restituer pour équilibrer offre et demande. Par ailleurs, se pose la question épineuse de l’utilisation de ces « énergies de flux » pour le transport automobile (véhicules particuliers et utilitaires), dans le contexte d’un développement rapide des véhicules électriques (stockage embarqué). Il faut noter aussi la multiplication des applications portables (ordinateurs, smartphones, etc.), qui nécessitent un stockage d’énergie.

Quelles sont les différents types de stockage ?

Il existe de nombreux types de stockage, qui correspondent à des applications différentes, stationnaires ou mobiles. Pour de grandes capacités de stockage, on utilise généralement les systèmes gravitaires dans des lacs d’altitude, qui  nécessitent des sites appropriés, souvent éloignés des zones d’utilisation. Les batteries, qui stockent l’électricité sous forme électrochimique, trouvent des applications à la fois stationnaires et mobiles. Des progrès importants ont accompagné récemment la commercialisation de véhicules électriques. La densité d’énergie stockée a pu ainsi être multipliée par un facteur de 4 à 5 pour les batteries Li-ion par rapport aux batteries au plomb. Enfin, il faut noter l’intérêt des grands acteurs de l’énergie pour l’hydrogène, comme vecteur de stockage et de transport de l’énergie. Les systèmes power-to-gas, consistant à produire du méthane de synthèse (SNG) en utilisant de l’énergie électrique, permettent de faire appel aux infrastructures existantes de transport et de stockage du gaz naturel.

Quel est l’avenir du stockage de l’énergie ?

Le stockage d’énergie est déjà indispensable pour de nombreuses applications. Il devrait donc connaître des développements importants dans l’avenir, notamment dans le domaine des applications mobiles ou portables. L’évolution est plus lente dans le domaine des applications stationnaires de grande capacité, qui nécessitent des investissements très importants. Dans ce secteur, le stockage gravitaire reste l’option prédominante. Les options de stockage décentralisé, notamment par batteries, devraient prendre une place croissante.

Quelle est la place de la France dans ce secteur ?

La France se place en relative bonne position, notamment en R&D, avec les travaux menés au CEA et à l’IFPEN. Elle dispose également de fabricants de batteries à haute valeur ajoutée (SAFT, Blue Solutions, ARTS Energy). Enfin, dans le domaine automobile, les constructeurs, notamment Renault, ainsi que des industriels tels que Bolloré, avec son réseau d’auto-partage Autolib’, sont très actifs. Il reste à faire valoir tous ces atouts dans la rude compétition qui s’annonce à l’échelle internationale, face notamment aux acteurs asiatiques.

>> Accéder à l’offre Ressources énergétiques et stockage

 

alexandre-rojey

Alexandre Rojey anime le think tank IDées au sein de la Fondation Tuck, dans le domaine de l’énergie et du développement durable. Il intervient dans l’enseignement à IFP School et mène par ailleurs différentes activités de conseil. Il a été précédemment directeur du Développement durable à l’IFPEN où il a coordonné l’ensemble des activités de R&D liées à la préservation de l’environnement et à la prévention du réchauffement climatique. Il a été également président de CEDIGAZ, association internationale qui intervient dans le domaine du gaz naturel ainsi que président d’ECRIN Énergie. Il est l’auteur de différents ouvrages, portant notamment sur la transition énergétique, et est conseiller éditorial pour Techniques de l’Ingénieur depuis juin 2015.

 

Télécharger la lettre des éditeurs au format PDF

Quelle place pour la French Health Tech ?

La France dispose traditionnellement d’une bonne dynamique en matière de recherche médicale. Les nouvelles technologies ont naturellement intégré cette dynamique créant un important vivier d’entreprises positionnées sur le secteur de la Health Tech : l’étude BBC en inventorie plus de 600 dont une vingtaine sont en train de développer des produits innovants destinés à plus de 11 millions de patients français (et 250 millions dans le monde).

Quels enjeux autour de la Health Tech ?

La Health Tech recouvre à la fois les innovations issues des biotechnologies, des nouvelles technologies médicales (Medtechs) – touchant par exemple aux dispositifs médicaux – que des technologies digitales (gestion des données, prise en charge des patients, suivi etc.). Aussi, souligne l’étude, l’essor des entreprises de la Health Tech constitue un enjeu pour l’ensemble de l’innovation, car «par sa vitalité, la Health Tech renforcera tout le tissu de recherche hexagonal, public et privé, en sciences de la vie, mathématiques ou sciences de l’ingénieur.»

Outre des avantages en terme de santé, les enjeux économiques sont aussi majeurs. Selon l’analyse menée par BCC, se fondant notamment sur une analogie avec l’environnement de la région de Boston en 2009 et son évolution aujourd’hui, la France possède de solides bases pour construire un secteur de la Health Tech pouvant générer un chiffre d’affaires annuel de 40Md d’euros par an et 130000 emplois supplémentaires d’ici 2030.

Des atouts indéniables

La France possède des atouts pour se positionner comme un centre incontournable de la Health Tech au niveau européen et mondial dans les années qui viennent. En effet, elle possède une tradition d’excellence en matière de recherche scientifique en la matière via un fort soutien à la recherche publique (Inserm et AP-HP par exemple) et son système sanitaire reste l’un des mieux structuré du monde. En outre, la recherche publique, via les CHU, dispose d’un maillage national qui permet à la fois de mener des recherches cliniques d’envergure et d’accéder tout de suite à un large marché. Parallèlement de nombreux efforts ont été faits par les pouvoirs publics pour aider à l’amorçage des start-up dont le secteur de la Health Tech bénéficie déjà largement.

Encore des freins à lever

Les freins identifiés par l’étude de BCC sont les mêmes que ceux déjà soulignés dans d’autres études concernant l’avènement d’une réelle économie stable autour des nouvelles technologies : insuffisance des financements au-delà de la phase d’amorçage, pénurie d’expertise pour les aspects non scientifiques et techniques, transfert de technologie public-privé encore trop peu souple et structuré. Enfin, un point souvent évoqué reste celui de la réglementation française qui est considérée comme une réelle bride pour l’émergence de solutions innovantes thérapeutiques en raison de procédures trop longues et lourdes tant pour les essais cliniques que pour l’accès au marché.

Quinze propositions

France Biotech dans cette étude propose 15 mesures pour que «la France devienne un leader mondial de la Health Tech et en récolte tous les bénéfices médicaux, sociaux et économiques». Elles doivent permettre, par exemple en matière de financements, de prendre en compte la durée de développement des produits, plus longue dans les Health Tech que dans les Digital Tech, en augmentant la durée des aides ou de statut particuliers des jeunes entreprises. Ces propositions souhaitent que soit initiée une véritable montée en puissance de l’expertise par des systèmes d’encouragement à la venue d’experts étrangers, par un échange facilité entre personnels publics et privés et par un rapprochement des acteurs de la Health Tech dans les cursus universitaires de sciences de la vie et de médecine. Cinq points concernent directement la réglementation et proposent de revoir l’ensemble des procédures pour accélérer l’accès aux essais et au marché et mettre en place un système d’évaluation des bénéfices socio-économiques que peuvent apporter les nouvelles solutions proposées.

Sophie Hoguin

Une panne générale d’Internet : fantasme ou réelle menace ?

Une panne mondiale semble peu probable, mais la toile a déjà été victime de coupures qui ont paralysé des activités durant quelques heures ou semé la pagaille pendant une journée. C’est ce qu’explique l’AFNIC dans un dossier très clair et concis sur cette problématique.

Créée en 1997 par l’INRIA, l’AFNIC (Association Française pour le Nommage Internet en Coopération) gère en 2017 plus de 3 millions de domaines en .fr (dont l’ouverture aux particuliers remonte à 2006). Cet organisme maîtrise donc très bien les différents rouages du réseau mondial.

Ses compétences se retrouvent de façon vulgarisée dans un court dossier titré «Peut-on casser l’Internet ?» (PDF). Ce document de 8 pages est en effet destiné à un large public n’ayant pas de connaissances techniques du fonctionnement des réseaux IP.

Câbles et routeurs

Pour comprendre les menaces qui pèsent sur la toile mondiale, l’AFNIC commence par expliquer qu’il ne faut pas la résumer aux seuls sites que l’on consulte plus ou moins régulièrement. L’Internet, c’est d’abord du matériel: des centaines de millions de kilomètres de câbles qui relient les ordinateurs entre eux, en passant par les centaines de milliers de routeurs. Ces équipements actifs sont des maillons essentiels, car ils aiguillent les emails et nos requêtes vers la bonne direction.

L’AFNIC signale donc le premier point faible d’Internet: le petit nombre de constructeurs de routeurs (comme Huawei, Cisco ou Juniper). Autant de «boites noires» propriétaires : que cachent-elles réellement ? Sont-elles vraiment sécurisées ? Imaginons que des pirates prennent le contrôle de certains de ces éléments-clés et c’est le web qui, au mieux «tousse» avec quelques bugs. Dans le pire des cas, le web peut avoir une grosse fièvre avec un impact majeur sur l’activité des entreprises et la vie des particuliers. À la place de se connecter à un site en particulier, on pourrait être redirigé vers un clone malveillant !

Le second maillon faible relevé par cette association s’appelle le DNS (Domain Name System). Lorsqu’un internaute se connecte à un site, le serveur DNS vérifie dans son «cache» l’existence de cette adresse. C’est donc une infrastructure indispensable, car toute l’infrastructure réseau passe par le DNS : sites, messagerie, imprimante, gestion des badges d’accès… «Pas de DNS, c’est quasiment pas d’Internet», prévient l’AFNIC.

Localement vulnérable et globalement robuste !

Les DNS ont déjà subi des pannes : celle de Bouygues en avril 2015 et d’Orange en octobre 2016. Celle-ci avait classé Wikipédia et Google dans la liste noire. Il s’agissait d’une erreur.

En mai 2017, c’est une attaque informatique qui a impacté un hébergeur de DNS. Cedexis a été victime d’une attaque par déni de service (Ddos) qui a duré environ deux heures et demie. En clair, des millions de requêtes ont été envoyées simultanément sur le serveur de cette entreprise afin qu’ils se mettent en alerte et «disjonctent». Résultat de nombreux médias français étaient peu accessibles ce jour-là.

Ce n’est pas la première fois que ce type d’attaque se produit. Ces dernières années, Evernote, Deezer, Xbox Live ont vu leurs services bloqués pendant plusieurs minutes, voire plusieurs heures, à cause d’une attaque DoS. Face à de telles menaces, les solutions classiques reposant notamment sur les pare-feux ne sont pas adaptées.

Ces quelques exemples confirment qu’Internet est «localement vulnérable et globalement robuste». Il est très facile «de provoquer des défaillances limitées dans l’espace et dans le temps, et bien plus difficile de le faire à l’échelle de l’Internet pendant une longue période», constate Pierre Col, un expert en réseaux.

Il est donc indispensable d’améliorer la résistance de l’Internet et de favoriser la diversité des fabricants de routeurs.

Un protocole dépassé

Il y a urgence, car «Internet est bâti sur un marécage», affirme Louis Pouzin. Pionnier français des réseaux, le président d’honneur de la Société française de l’Internet Louis Pouzin explique que le «protocole de communication utilisé aujourd’hui n’apporte aucune protection. C’est un prototype qui aurait dû être refait il y a longtemps. À l’origine, il fallait aller vite pour inonder la planète avec ce qui était disponible.»

En étant «rafistolé sans cesse, ce protocole de communication est de plus en plus compliqué et instable», indique-t-il. Il faut penser à un Internet du futur. Il pourrait s’appuyer sur les travaux menés dans le cadre du projet Rina (Recursive InterNetwork Architecture) LIEN : ) lancé en 2008 en Europe.

Par Philippe Richard

La réalité virtuelle cimentera le bâtiment du futur, fondé sur la maquette numérique

Dans la promotion immobilière, la réalité augmentée (RA) et la réalité virtuelle (RV) se systématisent. «Dès qu’un nouveau programme immobilier est décidé, les grandes entreprises pour lesquels nous travaillons (Bouygues, Icade, Nexity…) demandent de plus en plus fréquemment de réaliser une application mobile dédiée et sur mesure qui sert à visualiser le projet en 3D» confie Xavier Gallée, responsable commercial pour l’industrie chez Artefacto, une agence spécialisée dans la RA, la RV et la modélisation 3D. La maquette 3D du bâtiment s’affiche automatiquement sur le smartphone ou la tablette à partir d’un plan 2D, identifié au préalable par l’application logicielle. Ou mieux encore : lors d’une visite sur le site, une fois la tablette pointée dans la bonne direction, le bâtiment virtuel se construit à l’endroit précis où il sera érigé plus tard, alors que la première pierre n’a même pas été posée. «C’est un outil d’aide à la décision ou à la conception pour l’architecte, qui visualise le projet architectural, ses variantes, l’intégration dans l’environnement réel, poursuit Xavier Gallée. C’est également utile lors des réunions sur place avec les élus locaux ou le futur acquéreur, qui a possibilité de voir le futur bâtiment en situation.» Chez Bouygues Constructions, la finalité de l’application Ramby Outdoor est comparable.

Réalité Augmentée site artefacto - école ingénieur ensibs lorient
Application de réalité augmentée pour le chantier de l’école d’ingénieur Ensibs, à Lorient.

L’agence Artefacto maîtrise le procédé depuis cinq à six ans désormais. Le prochain défi consiste à déployer une solution plus autonome. «Aujourd’hui, l’agence récupère le fichier SketchUp ou Revit/BIM (Building Information Modeling) de l’architecte et conçoit l’application à partir des ces données, explique Xavier Gallée. L’objectif serait de fournir une plateforme en «back office» pour que le promoteur puisse lui-même charger les données BIM et obtenir l’application de RA appropriée sur site. L’attente est également forte de la part des constructeurs. L’idée serait que le maçon et l’électricien, en réunion sur le chantier, puissent visualiser en RA l’un les murs porteurs, l’autre le câblage électrique. Superposer la maquette BIM et l’image réelle serait intéressant pour suivre le chantier en cours, améliorer la communication entre les corps de métier, contrôler la qualité de mise en œuvre, connaître l’état d’avancement et le planning… Or, un fichier BIM, qui s’apparente à la carte Vitale du bâtiment, contient de multiples calques et se révèle lourd et exigeant. La difficulté, c’est de le transposer d’une station de travail du bureau d’études à un outil mobile comme une tablette, à la puissance et la capacité mémoire bien inférieures. Notre projet de recherche, qui vise à conserver l’intelligence et la souplesse du fichier BIM sur une tablette, est cependant finalisé et ne tardera pas à être commercialisé.» Autre problématique : la filière du BTP, réputée peu encline aux transformations numériques, se convertit très doucement au BIM. Le grands acteurs du bâtiment ont toutefois signé une charte en septembre dernier et s’engagent à généraliser le BIM dans le neuf d’ici à 2022.

Améliorer la perception d’un projet

Par analogie avec d’autres industries, la RV est un autre prolongement potentiel de la maquette numérique. La visite d’un bâtiment virtuel mis à l’échelle et l’immersion 3D dans les volumes intérieurs favorisent la perception de l’architecture et de l’aménagement, la compréhension d’un projet et la prise de décision. Le postulat est valable tant pour le particulier qui prospecte un bien immobilier avant l’achèvement, que pour le client professionnel qui inspecte ses futurs locaux. Le spécialiste de l’immobilier d’entreprise JLL, par exemple, a mis au point une application de réalité virtuelle et augmentée, grâce à laquelle le preneur visite virtuellement ses futurs bureaux et choisit les finitions, à l’aide d’un casque de réalité virtuelle ou mixte. C’est aussi un casque de réalité virtuelle, en l’occurrence le HTC Vive, dont fait usage le groupe Legendre. Pendant la phase de conception, le client – maître d’ouvrage, promoteur… – a l’occasion de parcourir le clone virtuel du futur ouvrage, de valider le projet en l’état ou de demander des modifications. Il a la possibilité de faire varier l’heure de la journée pour vérifier comment évoluent les conditions de luminosité et les ombres portées. L’outil, différenciant, est à la disposition des forces commerciales du constructeur et valorise leur argumentaire auprès des décideurs. Il est également au service de la formation professionnelle, notamment sur les problématiques de sécurité sur les chantiers. Bouygues Construction et HTC ont récemment entrepris une démarche similaire concernant la prévention des risques sur les sites de construction.

Le groupe Legendre utilise des casques de réalité virtuelle pour ses clients, ses commerciaux et ses compagnons.

Ces techniques d’immersion et de virtualisation vont au-delà des murs d’un simple bâtiment. Illustration avec le réaménagement du quartier Bastide Niel à Bordeaux, qui s’étend sur 35 hectares, et qui l’objet d’un projet de recherche RA/RV par la société Immersion. «L’objectif est de réaliser la maquette numérique de cette zone d’aménagement concertée puis, au fur et à mesure des constructions, de la mettre à disposition des corps d’Etat, des agents de la ville, des promoteurs et des citoyens, explique Christophe Chartier, PDG d’Immersion. Avec des outils de réalité virtuelle et de réalité mixte, tout le monde pourra s’approprier au plus tôt l’évolution du quartier. C’est de la co-construction. Le citoyen pourra se téléporter dans un appartement, le situer par rapport à l’école ou à la crèche et vérifier les points de vue de chaque fenêtre. Nous avons mis au point un prototype, basé sur les lunettes HoloLens, qui permet de superposer la maquette physique et des informations, telles que les prévisions de flux des transports.» La maison hébergeant ce projet sera bâtie au premier semestre 2018.

Dans la plupart de ces cas d’usage et hors chantier, les casques grand public s’imposent du fait de leur prix de plus en plus abordable. En revanche, le principe du Cave (ou salle immersive 3D, NDLR), déjà ancien dans la conception automobile ou aéronautique, est récent dans le BTP. L’organisation du travail et les besoins diffèrent. Par exemple, un bâtiment, contrairement à un avion ou une voiture, est unique et n’est jamais précédé par un prototype. En France, la première salle immersive et stéréoscopique dédiée a été installée fin 2014, au siège de Bouygues Construction à Guyancourt, et assiste les ingénieurs pendant la conception, entre autres fonctions. Dans la foulée de la généralisation du BIM et de la baisse constante des prix, les grands du BTP ne manqueront probablement pas d’adopter cet outil complémentaire. Il est aussi question de concurrence et d’image de marque.

Frédéric Monflier

La réalité virtuelle atteint sa vitesse de croisière, la réalité augmentée décolle

La réalité augmentée (RA) et l’aéronautique ont une longue histoire en commun, qui a débuté dans les années 50. «L’affichage tête haute utilisé par les pilotes de chasse dans les situations de combat, et aujourd’hui les pilotes d’avions de ligne et d’hélicoptère, est une technique de réalité augmentée» rappelle Alexandre Godin, responsable des activités de réalité augmentée et de réalité virtuelle chez Airbus. La réalité virtuelle (RV) fait irruption plus tard au bénéfice de missions d’entraînement. Avant de s’envoler fin 1993 pour réparer le télescope spatial Hubble, frappé de myopie, les astronautes de la NASA se sont préparés sur Terre en se plongeant dans des images de synthèse.

Les industries de l’aérospatiale et de l’aéronautique sont peu à peu conquises. «Airbus a pris le virage de la réalité virtuelle dans les années 90 avec l’installation des premiers Caves (ou cube immersif avec stéréoscopie 3D, NDLR) et «powerwalls» (mur d’images 3D, NDLR) sur plusieurs sites, poursuit Alexandre Godin. L’ingénierie, le design et la formation ont été les premiers métiers à en profiter. Très vite, des applications orientées client, telles que le rendu de cabine, ont vu le jour. Par la suite, ces installations, casques de réalité virtuelle y compris, ont également été mises à contribution par nos équipes de recherche. Celles-ci étudient les interactions homme-machine dans le cockpit ou mesurent l’impact d’une modification de la cabine – hauteur du plafond, écartement des sièges… – sur le comportement de pilotes volontaires ou d’employés qui jouent le rôle des passagers. Les données extraites accélèrent les prises de décision concernant les aménagements intérieurs.»

Vérifier l’accessibilité des équipements

Les opérations de finalisation sont désormais réalisées sur le jumeau numérique du futur avion. «Chaque rivet, chaque boulon de l’A350 a été au préalable numérisé et les études d’accessibilité, parmi d’autres, ont été menées sur la base de ces modèles 3D, avant même que les premières pièces ne soient produites, explique Alexandre Godin. Ainsi a-t-on pu s’assurer que les techniciens pouvaient se mouvoir à travers une trappe puis travailler dans de bonnes conditions.» Airbus possède maintenant plus d’une dizaine de Caves. «Le coût d’une installation, autrefois entre 2 et 3 millions d’euros, a été divisé par dix, estime Alexandre Godin. Un Cave est par exemple situé au sein même de notre usine de fabrication de l’A350, à Toulouse, et sert de support aux processus de fabrication. Un autre exemplaire haut de gamme, situé à Hambourg, est réservé aux présentations pour les clients, car la définition de l’image reproduit de manière optimale les finitions intérieures. Nous employons aussi des casques grand public, comme le HTC Vive et l’Oculus Rift. Mais leur champ de vision horizontal est limité à 110° et leur définition insuffisante pour que le porteur du casque puisse lire un écran virtuel situé à un mètre de distance. C’est la raison pour laquelle nous n’abandonnons pas les casques professionnels pour des cas d’usage liés au pilotage et au cockpit

Les phases d’inspection du fuselage, voire son assemblage, font appel à la réalité augmentée. Le principe a été exploré relativement tôt chez Airbus. «Notre solution MIRA (Mixed Reality Application), reposant sur une tablette et une caméra, a été déployée industriellement à partir de 2011 pour vérifier le positionnement des supports sur le fuselage du A380, précise Alexandre Godin. Nous testons également sur les lunettes HoloLens une cinquantaine d’applications, relatives au marketing, au contrôle qualité, etc. L’assistance à la pose de câbles sur la structure de l’avion est l’un des concepts les plus avancés. La tâche est accomplie de 20 à 30% plus vite.»

aero1

Dans d’autres situations, la robotique pourrait venir à la rescousse pour accélérer les processus et supprimer les mauvaises postures affectant les techniciens. Actemium, le réseau d’intégration industrielle de Vinci Energies, développe ainsi un projet depuis deux ans pour automatiser l’inspection du montage d’un moteur d’avion. «Le robot dispose du modèle numérique de référence et le compare au montage effectué, à l’aide de deux dispositifs de «tracking» 2D et d’un système 3D pour le contrôle, précise Thomas Leseigneur, responsable de l’innovation chez Actemium. Ce robot lui-même repose sur un AGV (véhicule à guidage automatique, NDLR) qui se déplace suivant des trajectoires programmées. L’ensemble est donc autonome

La RA accélère l’assemblage des satellites

Au CNES (Centre national d’études spatiales), la RA a été expérimentée l’an dernier dans le but de vérifier la conformité de l’assemblage des charges utiles du satellite scientifique Taranis, dont le lancement est prévu en 2019. Ce projet-pilote a été mis au point par Sogeti High Tech, un intégrateur industriel filiale de Cap Gemini, et Diota, qui émane du CEA (Commissariat à l’énergie atomique). «L’enjeu est d’établir un lien entre le bureau d’études, donc le modèle numérique, et la salle blanche où est assemblé le satellite, explique Alexandre Embry, en charge de l’offre RA/RV chez Sogeti High Tech. L’idée est d’effectuer la comparaison entre le «as built» et le «as designed». Le logiciel identifie et localise les éléments constituant le satellite et déroule la procédure d’inspection. Grâce à la technologie de Diota, les images numériques sont calées avec précision dans les images filmées sans préparation et instrumentation de la zone de travail, à condition qu’une maquette numérique de l’ensemble soit disponible.» D’ordinaire, l’ingénieur réalise cette comparaison en prenant comme référence un plan papier, mais la méthode est laborieuse. Désormais, il regarde une tablette qui lui signale automatiquement les anomalies. Ce procédé a semble-t-il convaincu puisque le CNES «envisage son industrialisation», selon Sogeti High Tech.

L’intégrateur s’est également rapproché d’un fabricant de satellites, Thales Alenia Space, pour fournir une solution d’assistance aux opérations de montage cette fois. La technologie est toujours d’origine Diota, sauf que les éléments virtuels ne sont plus incrustés dans l’image filmée par la tablette, mais projetés sur le satellite. «Il s’agit de faciliter le montage d’une multitude de composants, comme des fixations, sur les antennes ou les modules de communication, enchaîne Alexandre Embry. Ces petites pièces sont pénibles à repérer. Habituellement, ces opérations imposent des techniques de métrologie, l’impression et le découpage de calques… et signifient deux jours de préparation. Avec la RA, quelques minutes suffisent et le positionnement des pièces est millimétrique. Cette solution suscite de l’intérêt chez le fabricant et une forte adhésion de la part des techniciens.» Ce n’est qu’en démontrant sa valeur économique et en réduisant les contraintes sur le poste de travail que la RA réussira elle-aussi sa mise en orbite.

 

  • La réalité augmentée au service du contrôle de l’assemblage d’un satellite scientifique, au CNES :

  • Dans le CHILL de Lockeed Martin, mis au point avec le concours de TechViz, les avatars des ingénieurs se déplacent au cœur de la maquette numérique des engins spatiaux :

Par Frédéric Monflier

Réalité virtuelle et augmentée, moteurs du réalisme et de l’efficacité

La réalité virtuelle (RV) et la maquette numérique bénéficient d’un tel éclairage aujourd’hui qu’elles sont parfois considérées comme faisant partie des «nouvelles» technologies. Elles sont pourtant employées de longue date dans la grande industrie disposant des ressources financières adéquates, dont l’industrie navale. «Nous utilisons la réalité virtuelle depuis la fin des années 90, un premier «Cave» (ou cube immersif 3D, NDLR) ayant été mis en place sur notre site de Lorient, confirme Yves Dubreuil-Chambardel, de la direction de l’innovation et de la maîtrise technique au sein de Naval Group, anciennement DCNS (Direction des constructions navales). Ces salles de RV ont accompagné la généralisation de la maquette numérique, apparue pendant la conception des frégates Sawari 2. Dans un premier temps, elles ont aidé nos équipes d’ingénierie à aménager les locaux à l’intérieur des navires. Progressivement, elles deviennent aussi des outils de dialogue avec les clients, qui ont la possibilité de vérifier l’aménagement de la passerelle, la disposition des consoles… La phase d’industrialisation, en aval de la conception, en tire également parti : dans un environnement simulé, les préparateurs rédigent plus facilement les dossiers consacrés aux opérations de montage, destinés aux équipes de terrain.»

Le Cave s’est de même introduit au cœur de la chaîne de conception dans la filière automobile. En particulier chez Renault, l’un des précurseurs en matière de réalité augmentée (RA) et de RV, dont le fleuron se nomme Iris. Installé début 2013 au Technocentre de Guyancourt, Iris a coûté la bagatelle de trois millions d’euros et produit une image de 70 millions de pixels. «C’est un Cave à cinq faces équipés de projecteurs 4K Christie, décrit Andreas Kemeny, expert leader chez Renault. Trois Caves ont suivi, toujours à Guyancourt, et un autre a été monté en Roumanie. Ils répondent à une quinzaine de cas d’usage : design, architecture du véhicule, éclairage intérieur ou extérieur, ergonomie, etc. Dans un projet haut de gamme comme celui de la nouvelle Alpine, produite à quelques milliers d’exemplaires, les designers ont travaillé davantage dans les Caves que sur des prototypes physiques, pour des raisons de coût. Grâce à une image précise, à une colorimétrie optimale et à l’échelle 1:1, ils ont un aperçu fidèle de la qualité des finitions intérieures, de la texture des matériaux et de l’ergonomie du tableau de bord.» Andras Kemeny et ses équipes continuent leurs recherches sur l’aspect collaboratif et sur les techniques haptiques, faisant appel par exemple à un robot collaboratif (système LobbyBot).

Les casques RA/RV se démocratisent

Le Cave a accompli en quelque sorte un retour en grâce chez le constructeur automobile. «Le premier exemplaire au début des années 2000 n’offrait qu’une définition d’un million de pixels par face, insuffisante pour des applications avancées relative à la perception du design et à l’ergonomie, poursuit Andras Kemeny. Nous nous sommes alors tournés vers des casques, équipés de caméras, qui permettaient de comparer des données CAO d’un véhicule en cours d’étude avec l’architecture d’un véhicule existant, de marque Renault ou concurrente. C’était déjà de la réalité augmentée ou mixte. Cet outil, nommé MOER, a été déployé de 2004 à 2014, et s’est inséré dans les processus de développement des véhicules. Nous avions opté pour les casques SEOS 120 et nVisor SX111, qui coûtaient de 50 000 à 60 000 euros l’unité, ce qui restait moins cher qu’un Cave.» L’ordre de grandeur n’est plus du tout le même aujourd’hui : le casque de réalité mixte HoloLens de Microsoft, assorti d’une visière semi-transparente et capable de superposer des hologrammes 3D et le champ de vision réel, est commercialisé autour de 5000 euros pour la version pro. Grâce à l’impulsion des géants du numérique tels que Facebook, Google ou Microsoft, les casques et les lunettes de RV et de RA se démocratisent et percent dans les milieux professionnels et dans l’industrie, qui ne sont pas toujours leur destination prioritaire. A l’exception des lunettes HoloLens, lesquelles demandent à convaincre dans un cadre opérationnel. «Le potentiel est là, les limitations aussi, admet Andras Kemeny. Le champ de vision actuel de HoloLens, par exemple, n’est que de 20/30° et l’on souhaite davantage. Ce dispositif a l’avantage d’être autonome mais n’affiche en contrepartie qu’une centaine de milliers de polygones.»

En attendant qu’une deuxième version plus performante voie le jour, Renault expérimente HoloLens premier du nom dans un projet de formation pour le personnel travaillant sur les lignes d’assemblage. «La réalité augmentée peut faciliter l’implantation d’un robot ou d’un cobot puis l’apprentissage de son fonctionnement, avec comme objectif un gain de temps et d’efficacité», précise Andras Kemeny. Les lunettes HoloLens ont également fait l’objet d’une preuve de concept chez Naval Group. «Nous sommes assez convaincus que la RA a du sens pour l’assistance cognitive aux opérateurs qui interviennent sur site, dans la construction neuve ou dans l’entretien, confie Yves Dubreuil-Chambardel. Les tâches de montage sont effet très complexes, en particulier dans les navires militaires dont la densité d’équipements est énorme. La RA, en combinant des informations virtuelles et la vision réelle, peut aider l’opérateur à monter les pièces dans le bon ordre et à anticiper les possibles interférences avec d’autres équipements qui n’ont pas encore été installées dans la zone. L’enjeu est de réduire les erreurs, qui impliquent des reprises, des délais et donc des coûts supplémentaires. Etant donné que la vue filmée par la caméra peut être partagée avec un ingénieur distant, l’aspect collaboratif est également intéressant, dans la perspective de fournir un service de téléassistance à nos clients, c’est-à-dire les équipages à bord.» Quoi qu’il en soit, la technologie HoloLens n’a pas été jugée «totalement mature pour un environnement industriel.» Naval Group a engagé le projet-pilote d’un autre dispositif de RA, mise au point avec la société Diota (issue du CEA), reposant cette fois sur l’usage d’une tablette. «Cette solution est prévue pour accompagner les contrôleurs, qui vérifient que tous les équipements sont bien montés et au bon endroit, détaille Yves Dubreuil-Chambardel. La RA permet de constater les écarts entre la théorie et la réalité. Une tablette est suffisante car les contrôleurs n’ont pas besoin d’avoir les mains libres. Le test est réalisé en grandeur nature, à Lorient, sur une frégate en construction. Le déploiement opérationnel pourrait avoir lieu dès l’été prochain.»

Des données métier dans le champ de vision

La situation est comparable chez Alstom, où la RV fait presque partie des meubles, tandis que la RA tente de démontrer sa pertinence. «Leur système de RV interactive, sur un grand écran de 6 mètres de base, contribue depuis des années au prototypage, à la revue technique et de design et à l’exploration de nouvelles pistes en innovation» rappelle Christophe Chartier, PDG d’immersion, intégrateur spécialisé dans la RA et la RV. Cette PME bordelaise a également développé pour le constructeur de trains et de tramways un projet-pilote de réalité mixte, basé sur les HoloLens. Au programme : la configuration immersive, pour modifier instantanément les couleurs et les matières des sièges, et l’aide à la maintenance, grâce à laquelle l’opérateur découvre, en surimpression virtuelle dans son champ de vision, les chemins de câbles dans les wagons. Immersion a mis le même matériel en œuvre chez Renault Trucks, à des fins de contrôle qualité des moteurs. Les tests débuteront en janvier prochain, dans l’usine de Lyon. «L’enjeu est de superposer les données métier en 3D et l’image réelle du moteur pour que l’opérateur accomplissent sa tâche dans les règles de l’art, commente Christophe Chartier. Le processus gagne en agilité et en qualité. Les instructions ne sont plus listées sur une notice en papier mais s’inscrivent dans le champ visuel. En outre, l’opérateur va s’auto-former. La charge cognitive est supposée diminuer mais cet aspect demande à être éprouvé dans un contexte intensif, pour que l’on soit assuré qu’il est bien accepté par le porteur des lunettes.» Pour Christophe Chartier, il n’y a pas de doute : la réalité mixte est un pas supplémentaire vers l’usine du futur.

  • Salle 3D immersive chez Alstom