De nouvelles nanofibres à la force exceptionnelle

Le nouveau procédé, décrit dans un article du Journal of Materials Science à paraître dans l’édition papier de février 2018 s’appuie sur une méthode d’électrofilage d’un gel (gel electrospinning). Les nanofibres de polyéthylène obtenues ont la particularité de présenter à la fois une forte rigidité, une forte ténacité et une forte résistance. Or, il est souvent difficile de trouver des matériaux dont l’extrême performance d’une de ses qualités n’affaiblit pas une autre. Ainsi, une trop forte rigidité, diminue souvent la ténacité et mène à des fractures du matériau. Mais dans ce cas, les propriétés des fibres obtenues équivalent voire surpassent celles que l’on peut trouver dans des matériaux comme le Kevlar ou le Dyneema utilisés pour les gilets pare-balles.

Une découverte fortuite

Les recherches portaient à l’origine sur la fabrication de fibres de différentes tailles en dessous du micron et sur leur caractérisation. « Il n’y a pas beaucoup de nouveautés en matière de nanofibres de hautes performances depuis des années car ce qui existe déjà est très performant », explique Gregory C. Rutledge, superviseur de ces recherches, dans un article publié par le MIT. « Cependant, ces nouvelles fibres, comparées aux fibres de carbones ou aux fibres céramiques utilisées actuellement sont aussi résistantes mais plus tenaces à la fracture et ce dans une mesure très notable », poursuit-il.

Le principe du procédé

Le procédé mis au point est très similaire au filage de gel (gel spinning) utilisé de manière courante, mais il se réalise en une seule étape et utilise des forces électriques à la place de forces mécaniques pour créer les fibres. Concrètement, le gel de polymère est extrudé via une seringue chauffée dans une chambre où est appliqué un champ électrique. Cela permet de produire des fibres de quelques centaines de nanomètres au lieu de fibres de l’ordre de 15 micromètres. Les chercheurs ont testé de multiples compositions pour le gel (différents solvants et concentration) et examiné les différentes fibres ainsi créées. Il semblerait que plus les fibres sont fines plus leurs performances augmentent. Cette corrélation est pour le moment attribuée à un taux important de cristallinité, à l’orientation des cristallites (monocristaux isolés) combinés à des chaînes de polymères présentant peu de défauts et pouvant glisser facilement entre elles. Mais le fonctionnement exact n’est pas encore percé. Ce procédé présente l’avantage d’être facilement transposable à une échelle industrielle et ouvre des perspectives intéressantes pour la création de nouveaux matériaux composites.

Par Sophie Hoguin

Un nanosatellite français pour percer les mystères de Beta Pictoris

Beta Pictoris n’est qu’à 63,4 années-lumière de nous et très brillante, ce qui la rend facile à étudier. Cela tombe bien : c’est une étoile extrêmement jeune, seulement 23 millions d’années, qui passionne les chercheurs depuis la découverte d’un grand disque de poussières, de gaz et de débris rocheux autour d’elle, au début des années 1980. Ce disque, vestige du nuage primitif qui a donné naissance à l’étoile, est un cas d’étude rare pour les astronomes du monde entier, qui le scrutent régulièrement depuis : mieux connaître Beta Pictoris, c’est mieux comprendre la formation des planètes géantes et des systèmes planétaires en général. En 2009, une équipe française dirigée par Anne-Marie Lagrange y a découvert une planète gazeuse géante : Beta Pictoris b, sept fois plus massive que Jupiter, qui tourne autour de son étoile à 1,5 milliard de kilomètres de distance, comme Saturne autour du Soleil.

Or, vue de la Terre, la planète Beta Pictoris b pourrait passer devant son étoile d’ici l’été 2018. Observer ce transit, qui se reproduit tous les 18 ans, permettrait de déduire la taille exacte de l’exoplanète, l’étendue et la composition de son atmosphère, et sa composition chimique. Mais un transit de la planète ne durera que quelques heures. Réussir à observer ce phénomène, dont on ne connait pas le moment exact, impose donc une surveillance continue du système planétaire : c’est possible seulement depuis l’espace, notamment pour échapper au cycle jour-nuit et au passage des nuages.

Pour tenter d’observer ce transit, seul un satellite très léger, un nanosatellite, pouvait être développé en un délai très court. PicSat a été conçu puis construit en trois ans seulement, grâce à l’utilisation de modules de base cubiques “CubeSat”, un format conçu aux Etats-Unis, à visée pédagogique, pour des projets étudiants. Pour le CNRS et l’Observatoire de Paris, c’est le tout premier satellite entièrement conçu et intégré dans leurs murs. PicSat est né d’une idée de Sylvestre Lacour, astrophysicien au CNRS, en collaboration avec Alain Lecavelier des Etangs, de l’Institut d’Astrophysique de Paris (CNRS/Sorbonne Université), qui travaille sur le système Beta Pictoris depuis de nombreuses années. Sylvestre Lacour a concrétisé ensuite le projet au sein de son laboratoire, le Lesia (Observatoire de Paris – PSL/CNRS/Sorbonne Université/Université Paris-Diderot) avec une petite équipe de chercheurs et ingénieurs.  C’est ainisi une nouvelle approche instrumentale qui s’amorce pour la recherche spatiale française. Les développements technologiques se sont opérés dans le cadre du campus spatial CERES de l’Université PSL, sur le site de l’Observatoire de Paris, à Meudon. Le projet PicSat s’est concrétisé principalement grâce à un financement de l’European Research Council (ERC). Il a reçu également le soutien du CNES, du Labex Esep et de la FONDATION MERAC dans le cadre de son programme d’aide aux jeunes chercheurs en astrophysique.

C’est le 12 janvier 2018 à 4h58 (heure française) que décollera le lanceur indien PSLV pour placer PicSat sur une orbite polaire à 505 km d’altitude, en même temps que trente autres satellites. PicSat sera ensuite exploité à partir du Lesia, à Meudon. Cependant, la station du laboratoire ne pourra observer le satellite qu’environ 30 minutes par jour. Or, PicSat transmet sur les fréquences radioamateurs, grâce à l’aide du Réseau des émetteurs français (REF). Toute personne disposant d’un minimum d’équipement de réception radio pourra écouter ses transmissions. L’équipe PicSat invite donc les radioamateurs à collaborer pour suivre le satellite, recevoir ses données et les transmettre à la base accessible sur internet. Sur PicSat.obspm.fr, toute personne intéressée peut s’inscrire, suivre les mises à jour et, si elle le souhaite, faire partie du réseau radio.

PicSat est prévu pour fonctionner pendant un an. Dès qu’il observera le début du transit de la planète ou tout autre phénomène, le télescope de 3,6 mètres de diamètre de l’ESO, à la Silla au Chili, sera immédiatement activé pour observer le phénomène à son tour à l’aide de l’instrument Harps. Associées à celles de PicSat, ses données permettront d’affiner les mesures.

image_web_13
© LESIA / Observatoire de Paris-PSL PicSat, avec ses antennes déployées, dans la salle blanche du laboratoire

Source : cnrs

La Libye remonte la pente grâce aux exportations pétrolières

Près d’un million de barils jour

Selon l’Organisation des pays exportateurs de pétrole (OPEP), la Libye a produit 973 000 barils de brut par jour en novembre 2017 contre 390 000 b/j en 2016. Cette hausse sensible reste néanmoins à relativiser au regard de la production d’avant la chute du régime de Mouammar Kadhafi en 2011, à savoir 1,6 M b/j. Le bond des revenus pétroliers du pays s’explique par la combinaison des deux facteurs : prix et volume. En effet, le prix du baril de brut (Brent) s’est élevé de près de 25% en un an.

Grâce à la rente pétrolière, le déficit public a diminué de 48 % pour s’établir à 10,6 milliards de dinars en 2017 (environ 7,7 mds$) indique la Banque centrale. Et de rappeler « la nécessité de soutenir la Compagnie pétrolière nationale NOC et de maintenir la production et les exportations de pétrole, seule source de financement du budget général ».

Or, le pays se caractérise par une organisation tribale basée sur des alliances qui rend plus compliqué la gouvernance politique et par conséquences la répartition de la rente pétrolière. La mise en place d’un gouvernement d’union nationale en 2015 a permis une relative stabilité politique et le représentant de la mission des Nations-Unis en Libye (UNSMIL), Ghassan Salamé, a estimé que des élections pourraient être organisées d’ici la fin de l’année 2018. Sur le terrain, deux hommes forts semblent émerger : le maréchal Khalifa Haftar (chef de la région Est) et Fayez al-Sarraj qui dirige le gouvernement d’union nationale (GUN). Le premier ne reconnaissant pas l’autorité du GUN, le chemin vers la stabilité politique risque d’être encore long.

Romain Chicheportiche

Usine 4.0 : 4+1 articles à lire, 10000 à découvrir !

4éme révolution industrielle et usine du futur sont synonymes de nouvelles technologies à assimiler et de judicieux investissements à effectuer.

L’usine 4.0, c’est également des concepts nouveaux à appréhender et des ingénieurs et techniciens supérieurs à former pour répondre aux besoins cruciaux de l’industrie.

Fort de son réseau d’experts et d’auteurs, Techniques de l’Ingénieur accompagne les entreprises dans ce changement.

 

A titre d’exemple, voici quelques articles à découvrir :

Fabrication additive : niches applicatives porteuses

https://www.techniques-ingenieur.fr/base-documentaire/mecanique-th7/fabrication-additive-impression-3d-42633210/impression-3d-niches-applicatives-porteuses-bm7970/#presentation

Innover : les groupes, un des dispositifs clés

https://www.techniques-ingenieur.fr/base-documentaire/innovation-th10/ingenierie-de-l-innovation-42833210/les-groupes-un-des-dispositifs-cles-de-l-innovation-ag272/

 

Robotique :

Système de vision industrielle

https://www.techniques-ingenieur.fr/base-documentaire/automatique-robotique-th16/perception-planification-et-interface-en-robotique-42622210/systeme-de-vision-industrielle-s7799/

Commande des robots humanoïdes

https://www.techniques-ingenieur.fr/base-documentaire/automatique-robotique-th16/conception-modelisation-et-commande-en-robotique-42398210/commande-des-robots-humanoides-s7754/#presentation

Systèmes  d’informations et TIC pour la traçabilité : Middleware, RFID, traçabilité et objets connectés

https://www.techniques-ingenieur.fr/base-documentaire/genie-industriel-th6/systemes-d-informations-et-tic-pour-la-tracabilite-42117210/middleware-rfid-tracabilite-et-objets-connectes-tr520/#presentation

 

Bonne lecture, bonne année !

 

Faille Intel : le pire est à venir

Intel publie au compte-goutte les d’informations sur les vulnérabilités touchant le kernel (noyau) de ses processeurs produits ces… 10 dernières années.

Ces failles appelées « side channel analysis exploit » permettent à une personne malveillante (ou à un État…) d’observer le contenu de la mémoire protégée en contournant justement des protections au niveau du CPU. Elles permettent d’organiser deux types d’attaques :

  • L’attaque Meltdown casse en effet l’isolation entre une application utilisateur et le système d’exploitation. Ce qui permet à un attaquant de lire en mémoire des données appartenant à l’OS ou à d’autres processus.
  • La faille Spectre, décrite en détail dans ce document technique casse l’isolation entre les processus et permet à un processus de lire les données des autres.

Remède pire que le mal

Le fondeur de Santa Clara a déclaré qu’il publierait ses propres mises à jour de microcode pour résoudre le problème, et au fil du temps, certains de ces correctifs seront intégrés dans le matériel.

En attendant, c’est le web mondial qui est pris de panique. Le week-end pourrait être très tendu. En obligeant, les datacenters du monde entier à rebooter pour valider les correctifs, le Cloud pourrait tanguer dans les prochaines heures…

La solution consisterait donc à appliquer un correctif de sécurité. Des patchs sont déjà disponibles pour certains systèmes d’exploitation, notamment sous Linux. Microsoft, Apple, Google et d’autres éditeurs devraient réagir rapidement.

Mais le remède risque de dégrader l’état de santé du malade ! Les utilisateurs de PC pourraient s’attendre à un ralentissement approximatif de 5 à 30 %, selon la tâche et le modèle du processeur. Cependant Google aurait trouvé une méthode pour réduire l’impact de performances du correctif. Autre problème : certains antivirus sous Windows bloqueraient l’installation de la mise à jour…

Il y a quelques jours, Apple a été pointé du doigt pour les ralentissements des iPhone 6 à cause de l’application d’un correctif visant à compenser les baisses de performances de ses batteries. Avec l’affaire Intel, on atteint une autre dimension. Car les puces de cette marque (mais aussi celle des concurrents AMD et ARM qui sont concernés par la faille Spectre) sont partout. Pire, l’attaque Spectre pourrait être exploitée directement depuis un navigateur Web, via un site contenant du code conçu à cet effet.

Alerte générale

L’affaire amène trois constats principaux. Premièrement, ce sont plus les professionnels et les entreprises qui sont concernés que les particuliers. « La majorité des appareils informatiques dans le monde est concernée par ces failles de sécurité, mais la gravité de la situation peut se nuancer. Pour exploiter ces deux failles, un cybercriminel doit en effet être capable d’exécuter leur code directement sur le terminal visé. Dans ces conditions, le consommateur lambda a plus de « chance » d’être touché par une attaque de phishing que par une attaque exploitant Meltdown ou Spectre. Cependant, ces deux vulnérabilités mettant largement en péril les systèmes fondamentaux de protection des données, les fournisseurs cloud doivent agir rapidement pour éviter que des accès frauduleux, souvent difficiles à détecter, ne se produisent », explique Ryan Kalember, Senior Vice-Président Cybersécurité Stratégie, spécialiste Proofpoint, une société spécialisée dans la sécurité informatique.

Deuxièmement, la réalité est-elle aussi claire qu’on le dit ? Google précise avoir informé les trois entreprises (Intel, AMD et ARM) dès juin 2017. L’absence de transparence pose un réel problème de sécurité. « Je pense que quelqu’un chez Intel devrait regarder très longuement leurs CPU et admettre qu’ils ont des problèmes au lieu d’écrire des communiqués en langue de bois qui affirment que tout fonctionne comme prévu », constate Linus Torvalds. Le créateur du noyau Linux ajoute : « Est-ce que Intel est en train de nous dire qu’ils s’engagent à nous vendre de la merde pour toujours et qu’ils ne répareront jamais rien ? »

Troisième constat, la trop forte dépendance vis-à-vis de quelques solutions technologiques. « Cette affaire illustre que nous allons payer très vite notre hyper dépendance aux produits américains : leur hégémonie a interdit toute variété, toute concurrence et donc toute solution de secours. Après le Wi-Fi, les processeurs INTEL et cela ne fait que commencer. D’autres séismes vont venir cette année sur des technologies critiques que nous utilisons tous les jours », avertit un expert français que nous avons interviewé.

Philippe Richard

Des bulles géantes à la surface d’une géante rouge

Distante de quelque 530 années-lumière de la Terre et située dans la constellation de la Grueπ1 Gruis est une géante rouge de température peu élevée. Sa masse est semblable à celle de notre Soleil, son diamètre est 350 fois plus grand, et sa brillance des milliers de fois supérieure [1]. Dans quelque 5 milliards d’années, notre Soleil gonflera au point de devenir une semblable géante rouge.

Une équipe internationale d’astronomes pilotée par Claudia Paladini (ESO) a utilisé l’instrument PIONIER installé sur le Very Large Telescope de l’ESO pour observer π1 Gruis à un niveau de détail encore inégalé. Il est ainsi apparu que la surface de cette géante rouge était couverte d’un nombre restreint de cellules convectives, ou granules, qui s’étendent sur quelque 120 millions de kilomètres – ce qui représente le quart du diamètre stellaire [2]. Un seul de ces granules couvrirait la surface comprise entre le Soleil et l’orbite de la planète Vénus. Les surfaces – baptisées photosphères – de nombreuses géantes rouges sont obscurcies par la poussière, ce qui brouille les observations. Dans le cas de π1 Gruis toutefois, la présence de poussière dans l’environnement stellaire n’a pas d’effet significatif sur les nouvelles observations infrarouges [3].

Lorsque l’hydrogène vint à manquer au cœur de π1 Gruis, le premier stade de fusion nucléaire prit fin. Le volume de l’étoile diminua à mesure qu’elle perdit de l’énergie, et sa température interne augmenta progressivement jusqu’à dépasser les 100 millions de degrés. S’ensuivit l’enclenchement de la seconde étape de fusion nucléaire, qui transforme l’hélium en atomes plus lourds de carbone et d’oxygène. Puis, le noyau intensément chaud expulsa les enveloppes externes de l’étoile, ce qui se traduisit par l’augmentation de sa taille de plusieurs centaines de fois. L’étoile que nous observons à présent est une géante rouge variable. La surface d’une étoile de ce type n’avait encore jamais été imagée de façon si détaillée.

À titre comparatif, la photosphère du Soleil se compose de quelque deux millions de cellules convectives dont les diamètres avoisinent les 1500 kilomètres. L’énorme différence de taille des cellules convectives couvrant les surfaces de l’une et l’autre étoile s’explique en partie par la variabilité de leurs gravités surfaciques. La masse de π1 Gruis équivaut à 1,5 masse solaire, mais ses dimensions sont largement supérieures, ce qui se traduit par une gravité de surface nettement moindre et la présence d’un nombre plus faible de granules de grande dimension.

Les étoiles de masse supérieure à huit masses solaires achèvent leurs existences en explosant en supernova. A l’inverse, les étoiles moins massives telle π1 Gruis expulsent progressivement leurs enveloppes externes, donnant lieu à la formation de splendides nébuleuses planétaires. Les études antérieures de π1 Gruis ont mis en évidence l’existence d’une enveloppe de matière à 0,9 année-lumière de l’étoile centrale, dont l’éjection remonterait à 20 000 ans. Cette période relativement courte à l’échelle de vie d’une étoile – de plusieurs milliards d’années – s’étend sur quelques dizaines de milliers d’années seulement. Ces observations offrent une nouvelle méthode de détection de cette courte phase de géante rouge.

Notes

[1] L’appellation de π1 Gruis s’inscrit dans le cadre de l’adoption du système de désignation de Bayer. En 1603, l’astronome allemand Johann Bayer classifia 1564 étoiles, attribuant à chacune d’elles une lettre grecque suivie du nom de leur constellation hôte. Généralement, l’attribution des lettres grecques s’effectue dans l’ordre de leur brillance apparente, la plus lumineuse d’entre elles se nommant alpha (α). L’étoile la plus brillante de la constellation de la Grue a donc été baptisée Alpha Gruis.

π1 Gruis appartient à un système binaire d’étoiles aux couleurs contrastées, situées à proximité l’une de l’autre, son compagnon portant naturellement la désignation π2 Gruis. L’une et l’autre étoile sont suffisamment brillantes pour pouvoir être observées au travers de jumelles. En 1830, Thomas Brisbane comprit que π1 Gruis consistait également en un système binaire encore plus proche. Annie Jump Cannon, célèbre pour la création de la classification de Harvard, fut la première à rendre compte du spectre inhabituel de  π1 Gruis en 1895.

[2] Les granules sont caractéristiques des courants de convection qui animent le plasma d’une étoile. A mesure que le plasma s’échauffe au cœur de l’étoile, il s’étend et chemine vers la surface, puis se refroidit en périphérie, s’assombrissant et gagnant en densité, et enfin plonge vers le centre de l’étoile. Ce phénomène se poursuit des milliards d’années durant et joue un rôle essentiel dans de nombreux processus astrophysiques tels le transport d’énergie, la pulsation, le vent stellaire et les nuages de poussière sur les naines brunes.

[3]  π1 Gruis est l’un des membres les plus brillants de la rare classe S d’étoiles définie pour la première fois par l’astronome américain Paul W. Merrill et qui rassemble les étoiles dotées de spectres inhabituels. π1 Gruis, R Andromedae et R Cygni sont caractéristiques de ce type d’étoiles. Leur spectre inhabituel résulte de la survenue du processus-s – un lent processus de capture de neutron – responsable de la création de la moitié des éléments plus lourds que le fer.

 Source : eso

DEEE : 4500 fois la Tour Eiffel !

On achète de plus en plus d’appareils électriques et électroniques et on ne jette rien ou presque. Telle est la conclusion, alarmante pour l’environnement et notre santé, de ce rapport.

Les DEEE (ou Déchets d’Équipements électriques et électroniques) regroupent à la fois les piles et batteries, mais également des cuisines professionnelles, des climatiseurs, des distributeurs automatiques, etc.

Résultat, ce volume a augmenté de 8 % en 2016, par rapport à 2014, à 44,7 millions de tonnes. Malheureusement, 80 % de cette montagne de déchets est incinérés ou mis dans des décharges informelles. D’autres restent en l’état. Ils sont stockés chez les consommateurs. Quant aux entreprises, elles ont encore beaucoup du mal à maîtriser leur gestion.

Publié il y a quelques jours par l’association Alliance Green IT, le baromètre 2017 des pratiques numériques écoresponsables indique que moins d’un quart des entreprises interrogées ont intégré le Green IT dans leur stratégie. Deux tiers (76 %) ne font pas appel à des fournisseurs issus de l’économie sociale et solidaire et 22 % disent ne pas savoir.

Métaux rares et chers  

Le rapport de l’UNU estime que chaque personne sur la planète génère désormais 6,1 kilos de déchets électroniques (+5 % comparés à 2014). Il y a les « bons « élèves » ou ceux qui produisent peu de DEEE comme l’Afrique (1,9 kilo) et l’Asie (4,2 kilos). Les mauvais élèves sont l’Océanie (Australie et Nouvelle-Zélande principalement) avec 17,3 kilos, l’Europe (Russie incluse) avec 16,6 kilos et la zone américaine et ses 11,6 kilos.

Le recyclage des DEEE est pourtant essentiel. Il permet en effet de séparer et de valoriser des matériaux qui peuvent être réutilisés (métaux, plastiques, verre…). Cela permet aussi d’en retirer de l’argent, de l’or, du cuivre, du plomb et de nombreux métaux rares et chers.

À partir de 50 000 téléphones portables, on peut récupérer environ 1 kg d’or et 10 kg d’argent. Toutefois, une infime partie de ces appareils est recyclée en Europe.

Trafic international

Mais ces DEEE contiennent surtout des matières dangereuses pour la santé et l’environnement : métaux lourds qui polluent les sols et les eaux, PCB dont la combustion est cancérigène, gaz contenus dans les réfrigérateurs attaquant la couche d’ozone…

Malgré leur dangerosité, ces déchets alimentent un trafic international. L’Organisation mondiale des douanes estime que 10 % du trafic par conteneurs dans le monde concerne des biens dangereux ou illégaux, incluant les déchets électriques et électroniques. Or, la Convention de Bâle, un traité international interdisant l’exportation de déchets toxiques, dont les déchets électriques et électroniques, a été signée en mars 1989 par 190 pays.

Philippe Richard

L’épargne des Français finance toujours les énergies fossiles

La Caisse des dépôts et consignations (CDC) est une institution financière publique française. Elle gère notamment, en plus de ses fonds propres, une part importante de l’épargne des Français et des cotisations retraites. « Elle se positionne comme acteur à la pointe de la finance verte », rappelle Clémence Dubois, chargée de campagne pour 350.org qui demande de mettre fin immédiatement aux subventions consacrées aux énergies fossiles. Mais l’association dénonce notamment un manque de transparence sur ses placements, à l’exception du Fonds de réserve pour les retraites. Elle a donc décidé d’enquêter.

Depuis la COP21, « le fonds de réserve pour les retraites n’a pas diminué son exposition au secteur des énergies fossiles », dénonce Clémence Dubois. Ainsi, deux milliards d’euros en actions et en obligations seraient encore consacrés au pétrole, au charbon et au gaz. « On ne peut pas attendre du secteur financier qu’il s’autorégule, regrette la jeune militante. Il faut que l’État puisse définir des critères d’exclusion, notamment pour l’industrie fossile ».

Des milliards d’euros pour les énergies fossiles

350.org a identifié les investissements dans les entreprises directement impliquées dans les énergies fossiles. Notamment, la CDC et ses filiales possèdent 25 % des actions de GRTgaz. La CDC place également l’épargne du livret A et du livret de développement durable et solidaire sur les marchés financiers via son « fonds épargne ». Mais ce fonds possède notamment une participation significative dans l’entreprise Vallourec, présent dans plusieurs projets d’extraction de gaz de schistes. D’autres participations sont à ajouter dans des entreprises dont le charbon représente jusqu’à un quart de leur chiffre d’affaires. Sans oublier la BPIfrance, filiale à 50% de la CDC et à 50% de l’État, qui soutient des projets fossiles.

La CDC, ses filiales et les divers fonds qu’elle héberge sont notamment impliqués dans 12 nouveaux projets d’énergies fossiles. Que cela soit sous forme d’actions ou d’obligations dans les entreprises en charge de ces projets. Ce sont notamment des centrales au charbon en Chine, en Afrique du sud ou au Maroc, une mine de charbon à ciel ouvert d’Hambach en Allemagne. Côté pétrole, c’est la plateforme Goliat en Arctique, le Dakota Access Pipeline aux États-Unis, le Trans Adriatic Pipeline et des oléoducs pour transporter les sables bitumineux canadiens. Ce sont aussi les projets de pétrole offshore le long de la côte brésilienne. À cela, rajoutons le gaz de schiste algérien et des projets de gazoducs visant à l’exporter en Europe. Et l’exploitation de puits sous-marins au Mozambique dont le gaz sera converti en gaz naturel liquéfié pour l’exportation.

« Tous ces investissements sont contraires à l’esprit de la loi sur la transition énergétique, s’indigne Clémence Dubois. Ils sont contraires aux recommandations de la résolution pour accéder à une société bas-carbone, adoptée par l’Assemblée nationale au moment de la COP21 et qui encourageait les investisseurs institutionnels à cesser d’investir dans l’industrie fossile. » Le 12 décembre se tient à Paris le « One Planet Summit », placé sous le signe de « la finance publique et privée au service de l’action climat ». De quoi prendre des engagements forts ?

Par Matthieu Combe, journaliste scientifique

TOP 5 : les articles les plus lus #décembre2017

One Planet Summit: quels nouveaux engagements ?

Deux après l’Accord de Paris, le One Planet Summit s’est tenu à Paris le 12 décembre. L’occasion pour les pays les plus ambitieux d’annoncer les premières mesures visant à assurer la transition de leur économie.

One-planet-summit-macron

 

Les vidéos scientifiques les plus étonnantes de 2017

Revivez les moments forts de l’année à travers une cinquantaine de vidéos scientifiques insolites : une piste d’atterrissage circulaire, un taxi volant, une vidéo stockée dans de l’ADN, des plantes lumineuses, une ampoule en graphène…

revue-du-web-2017

 

Ces robots visiteront l’intérieur des pyramides

Deux robots, conçus par l’Inria, pourraient pénétrer puis observer les cavités découvertes il y a peu dans la Pyramide de Khéops. L’enjeu est de laisser un minimum de traces.

camera-pyramide-1140x336

 

Quand l’énergie solaire produit du pétrole

Belridge, l’un des plus vieux gisement de pétrole aux Etats-Unis, va se doter d’une gigantesque centrale thermo-solaire pour lui fournir de la vapeur d’eau. Aera Energy, l’opérateur du champ, explique vouloir ainsi réduire son empreinte carbone. Du solaire pour extraire du pétrole, un apparent paradoxe qui commence à séduire les pétroliers.

Aera-big

 

L’autoconsommation devient presque rentable en France

Les résultats de l’appel d’offres « autoconsommation » ont été rendus publics la semaine dernière. Il se caractérise par une baisse significative (-70%) des subventions accordées aux producteurs d’énergie grâce à la baisse des coûts du photovoltaïque. Produire sa propre électricité n’a jamais été aussi économique en France.

autoconsommation-photovoltaique-1140x336

Par I. B

Nouvelles formes d’emploi : enjeux et vécu des cadres

En France, le CDI reste la norme : 87 % des salariés du secteur concurrentiel occupent un contrat à durée indéterminée, une part relativement stable depuis les années 2000.

Après une forte régression au cours des années 1980-90, la part de l’emploi non salarié est en progression depuis 2008. Aussi, de nombreux articles de presse annoncent la fi n prochaine du salariat classique au profit des nouvelles formes d’emploi.

La création du régime d’autoentrepreneur (indépendant sans salarié) en 2008 a en effet entraîné une appétence nouvelle pour l’entrepreneuriat. La part dans l’emploi du travail indépendant était estimée à 12 % en 2016. Depuis 10 ans, l’emploi non salarié progresse plus vite que l’emploi total, en particulier dans le secteur tertiaire. Par ailleurs, les modalités d’exercice de l’emploi salarié sont bousculées avec une progression du temps partiel, des horaires décalés ou variables. Le développement de la pluriactivité, estimée à plus de 2 millions d’actifs, bouleverse également les relations à
l’emploi tout comme l’apparition des groupements d’employeurs et des entreprises de travail à temps partagé qui visent à faciliter le partage de main d’œuvre et la sécurisation des actifs.

Les formes d’emploi atypiques se révèlent nombreuses en nature mais relativement marginales en volume. Ainsi, 30 000 personnes seraient concernées par le portage salarial, 30 000 par les groupements d’employeurs et quelques centaines par le temps partagé. Toutefois, selon le CNIS, malgré la dynamique actuelle de ces formes d’emploi, le seuil des 100 000 emplois ne serait pas dépassé.

Selon l’enquête quantitative « Situation professionnelle et rémunération des cadres », les cadres connaissent plus ou moins bien ces nouvelles modalités d’exercice du travail. Pour autant, très peu les ont expérimentées. Le microentrepreneuriat est de loin le mode qui bénéficie de la plus forte notoriété chez les cadres en poste (87 % d’entre eux le connaissent) mais seulement 7 % déclarent avoir exercé une activité sous ce régime.

fig1apec

Globalement, ces nouvelles formes d’emploi suscitent un intérêt certain chez 7 cadres en poste sur 10. L’appréhension de ces nouvelles formes d’emploi évolue cependant au gré des caractéristiques des cadres, de leur poste ou encore de leur entreprise. Ainsi, le portage salarial est plus souvent connu par les cadres de 50 ans et plus, ceux ayant récemment changé d’employeurs ou encore ceux occupant un poste dans la fonction informatique.

Ces nouvelles formes d’emploi trouvent, en toute logique, un écho particulier chez les cadres sans emploi. Ces derniers sont plus nombreux, en proportion, à les connaître et à les avoir expérimentées.

En complément de ces éléments quantitatifs, les enseignements présentés ci-après s’appuient sur une étude qualitative conduite par l’Apec afin d’appréhender les motifs d’accès et de recours aux nouvelles formes d’emploi des cadres et leur vécu.

UNE MISE À DISTANCE DU SALARIAT OU UNE APPÉTENCE PARTICULIÈRE ?

L’accès aux nouvelles formes d’emploi relève avant tout d’une conjonction de facteurs de différents ordres. C’est en effet généralement un contexte particulier qui favorise la bascule vers une nouvelle forme d’emploi.

La volonté de (re)devenir acteur de ses temps professionnels et personnels

La majorité de l’échantillon interrogé s’est tournée vers une nouvelle forme d’emploi, notamment sous une forme entrepreneuriale, à la recherche d’un mode de production alternatif au salariat. Le premier motif d’accès ou de motivation était le souhait de recouvrer une certaine autonomie dans ses arbitrages professionnels ainsi qu’une meilleure conciliation avec la vie privée. Il s’agit dans la plupart des cas de restaurer de la flexibilité, d’avoir la possibilité de s’organiser différemment, même si, par ailleurs, la charge de travail peut être plus importante et plus chronophage dans le nouvel emploi que dans un emploi salarié classique. Ces aspirations sont partagées par l’ensemble des cadres interrogés : toutes classes d’âges confondues, des cadres les plus contraints (avec une charge de famille) aux cadres en fin d’activité professionnelle et largement par les plus jeunes. Toutefois, cette aspiration à un mode productif alternatif, plus souple mais également plus responsabilisant, n’est pas suffisante pour envisager de basculer sur une nouvelle forme d’emploi.

La maturité professionnelle et un désir d’autonomie

Dans un contexte professionnel estimé insatisfaisant, la maturité des compétences professionnelles et la confiance dans leur expertise métier sont, pour les cadres, des facteurs qui vont les encourager à poursuivre leur carrière sous une nouvelle forme d’emploi. Le sentiment de ne plus progresser dans leurs fonctions ou attributions, de ne pas avoir de perspectives d’évolution métiers au sein de l’entreprise (acquisition de nouvelles compétences ou de savoir-faire) et ne plus partager la vision ou l’orientation stratégique de l’entreprise portée par la hiérarchie ou l’encadrement constituent des motifs de bascule vers une nouvelle forme d’emploi. L’entrepreneuriat peut, en effet, permettre de valoriser des compétences, de les faire évoluer dans un rapport au travail renouvelé, notamment par une relation client plus engagée en offrant une offre de service plus personnalisée. Pour les cadres à l’expertise sectorielle plus limitée ou au parcours professionnel plus erratique, la recherche d’un environnement davantage centré sur des valeurs ou des conditions de travail plus en phase avec leurs aspirations les conduit à s’orienter vers une nouvelle forme d’emploi.

Un environnement sécurisé prégnant

Pour les cadres, bénéficier d’un environnement sécurisé, permettant le développement de leur projet, constitue également un facteur déterminant. En effet, l’ensemble des cadres interrogés ont pu concrétiser leur projet parce qu’ils se trouvaient dans un environnement favorable, susceptible d’amortir la prise de risque inhérente au choix d’une nouvelle forme d’emploi… Le soutien parental, en nature (hébergement, aide administrative…) ou financier pour les plus jeunes, est essentiel. La présence d’un conjoint actif, salarié est aussi l’assurance de bénéficier de protection en matière de risque maladie (accès à la mutuelle) et de revenus (sécurité d’un salaire). Le fait de ne pas avoir de charge familiale peut également être appréhendé comme un facteur de sécurisation voire de bascule vers une nouvelle forme d’emploi. Pris indépendamment, ces facteurs vont inciter et participer au fait que les cadres choisissent de s’engager dans une nouvelle forme d’emploi. Toutefois, c’est très souvent la conjonction de plusieurs de ces facteurs qui va favoriser le passage à l’acte.

UN DÉTACHEMENT CONTRAINT DU SALARIAT

Pour un tiers des cadres interrogés, l’accès à ces nouvelles formes d’emploi et plus précisément l’entrée en entrepreneuriat, même sous statut salarié, n’est pas un choix de première intention. Plusieurs situations peuvent conduire les cadres à envisager une nouvelle forme d’emploi.

Une rupture professionnelle subie

Pour certaines des personnes interrogées, l’orientation vers une nouvelle forme d’emploi intervient après un licenciement. Face aux difficultés rencontrées dans leur recherche d’un poste salarié, la plupart envisage assez rapidement une autre forme d’emploi orientée vers l’indépendance. Pour autant, ces cadres ne songeaient pas particulièrement à développer une activité en indépendance. Ils ne se projetaient pas dans la création d’activité et dans la posture d’entrepreneur nécessitant certaines compétences : vision stratégique, capacité commerciale, connaissances administratives et financières… L’activité en indépendance, au-delà du bouleversement de posture, suscite en outre des inquiétudes quant à la nature et au niveau de protection associée (santé, indemnisation chômage, retraite).

Une insertion professionnelle difficile pour les jeunes actifs

Dans un contexte d’insertion difficile pour les jeunes actifs sur le marché de l’emploi, l’accès aux nouvelles formes d’emploi, ou le passage par une de ces formes, s’inscrit pour eux (tout particulièrement pour ceux disposant d’une faible expérience professionnelle et / ou ceux souhaitant travailler dans des secteurs peu recruteurs) dans une logique d’adaptabilité. Les nouvelles formes d’emploi sont alors davantage perçues comme la matérialisation d’une précarisation générale des statuts et formes d’emploi qui fait écho aux difficultés d’insertion sur le marché de l’emploi.

UN IMPORTANT BESOIN D’INFORMATIONS ET DE CONSEILS PERSONNALISÉS

Par réflexe mais aussi par défaut, Internet constitue une première source d’information nécessaire mais non suffisante. Parmi les cadres interrogés, les plus experts dans leur recherche ont exploité l’ensemble des sites gouvernementaux, institutionnels et « communautaires » (forum d’autoentrepreneurs ou propres au secteur numérique) et tentent en complément de prendre contact, le plus souvent par téléphone, avec le RSI ou les services fiscaux. La plupart ont recours à leur cercle de proches, familles et amis, voire leurs connaissances, pour obtenir des précisions en matière comptable essentiellement (déclaration du chiffre d’activité, suivi de la comptabilité). Le caractère complémentaire de l’activité entrepreneuriale joue sans aucun doute sur le temps consacré à cette recherche et la nature des informations mobilisées. Hors autoentrepreneuriat, les autres formes d’emploi (portage, CAE, groupement d’employeurs) sont peu connues et ne font pas véritablement l’objet d’une recherche approfondie d’information. Les cadres en portage ont le plus souvent opté pour la société de portage suite à la recommandation d’un collègue ou d’un ami. Les cadres en coopérative d’activité, quant à eux, ont été le plus souvent orientés par les services de l’emploi dans le cadre d’un accompagnement au retour à l’emploi. Le manque d’opérationnalité et de personnalisation de l’information est souligné par les personnes interrogées. Plus qu’une recherche d’information au sens strict, les cadres sont en attente d’une information « orientée », « d’un accompagnement de l’information » et très rapidement d’un accompagnement personnalisé qui puissent faire cheminer leur projet.

Source : Apec

Les diatomées : une capacité sous-estimée à stocker le carbone dans l’océan profond

Depuis des millions d’années, les diatomées sont à la base des chaînes alimentaires les plus productives de l’océan et participent activement au transfert de carbone de la surface jusqu’aux couches profondes de l’océan. Lorsque les diatomées meurent et chutent dans les profondeurs de l’océan, il est actuellement admis que le carbone organique qu’elles ont synthétisé est facilement dégradé au cours de la chute et qu’il est presque entièrement régénéré sous forme de gaz carbonique avant d’atteindre 1 000 mètres de profondeur.

Pourtant, à partir de données recueillies dans l’océan actuel et provenant du paléo-océan, les chercheurs montrent que les diatomées peuvent transporter massivement et épisodiquement du carbone organique jusqu’aux couches les plus profondes de l’océan où il est stocké pour des temps supérieurs à un siècle. Toutes les diatomées n’ont pas le même potentiel de transfert : celui-ci varie selon la taille des diatomées, la forme de leurs cellules, leur degré de silicification (le rapport silicium/carbone de leurs coquilles), mais aussi l’environnement biogéochimique dans lequel elles évoluent.

Actuellement, les diatomées sont présentes à l’échelle planétaire et dominent les autres espèces phytoplanctoniques marines dans les eaux froides et turbulentes. Dans l’océan du futur, chaud et stratifié, les modèles prédisent un déclin global de ces micro-algues siliceuses, excepté dans l’océan Austral. Cependant, des adaptations de ces espèces au changement climatique et à l’acidification des océans pourraient contredire ces prédictions.

Cette étude internationale met en lumière l’intérêt de développer des stratégies pluridisciplinaires combinant des approches physiques, biogéochimiques et biologiques, de l’échelle globale à l’échelle locale, afin de comprendre le fonctionnement de la pompe biologique de carbone dans l’océan présent et futur.

fig1

fig2

Source : cnrs

Un nouveau procédé sans colle pour lier métal et composite

Baptisé PowderbondTM, ce nouveau process est l’héritier du projet de recherche européen Powderbond qui s’est déroulé entre 2013 et 2015 et qui visait à trouver une méthode de liaison entre matériaux différents à plus basse température afin de limiter la dépense énergétique [voir vidéo]. Mais finalement, Powdertech a mis au point une méthode qui se passe de l’adhésif.

Propre, simple et rapide

Le principe est très simple puisque le process se fait en une seule étape : enrober/couvrir la pièce métallique avec la poudre PowderbondTM et ensuite mouler le composite et le métal ensemble en suivant le cycle de durcissement habituel du composite, voire en utilisant un cycle plus court et à plus basse température.
L’utilisation du PowderbondTM ne nécessite ni la préparation de la surface du polymère, ni de période d’activation. Le process est donc extrêmement propre et rapide. En outre, le lien fabriqué s’est révélé même trois fois plus fort que ceux obtenus par des méthodes basées sur des adhésifs couramment utilisés.

Test grandeur nature réussi

Pour tester son process dans un environnement industriel, Powdertech a travaillé avec Ariel Motor, une entreprise britannique qui fabrique des voitures et motos de sports haut de gamme. Ariel Motor a testé le process pour le châssis d’une nouvelle voiture de sport électrique à la conception bas carbone, l’Hipercar dont la production est prévue en 2020.
Dans cet essai, le nouveau procédé a été testé pour lier des pièces d’aluminium à un composite polypropylène/fibre de verre. Les résultats ont dépassé toutes les espérances du fabricant : « Le process est propre et rapide et le lien ainsi fabriqué surpasse même de loin, les méthodes à base d’adhésif couramment utilisées », explique Simon Saunders, le fondateur d’Ariel Motor Company dans un communiqué de presse. En outre, alors que le châssis de ce genre de voiture est fabriqué de plusieurs centaines de pièces soudées et rivetées entre elles, avec ce nouveau type de lien, le nombre de pièces a été réduit de 75% par un moulage direct entre l’aluminium et les pièces en plastique.

Plus de productivité et de créativité

En évitant tout un travail de soudure, d’encollage ou de rivetage via une seule étape, ce nouveau process permet de gagner en productivité, en dépense énergétique et en quantité de travail. Tout en gardant les mêmes performances voire en les améliorant, puisque Powdertech annonce que la liaison entre les deux matériaux est trois fois plus forte que celle obtenue avec des adhésifs. Par ailleurs, cette liaison directe lors de la phase de moulage du composite ouvre de nouvelles possibilités en matière de design et de choix des matériaux : des formes compliquées peuvent être créées tout en incorporant des propriétés de résistance du métal et cela ouvre, pour les fabricants, une plus large gamme de matériaux légers utilisables.

Par Sophie Hoguin

L’Arctique devient une priorité pour la Russie

La vitrine Yamal

«Nous avons développé un programme de développement de l’Arctique. Ce qui est important, c’est la mise en valeur industrielle de l’Arctique, notamment l’extraction des matières premières», a déclaré Vladimir Poutine. La contrée glacée recèlerait quelque 100 milliards de barils de pétrole et 40 000 milliards de mètres cube de gaz techniquement récupérables, ainsi que de nombreux gisements de métaux et terres rares. La hausse des températures aux pôles et la réduction de la calotte glacière laissent entrevoir d’importantes opportunités pour les compagnies pétrolières et gazière russes qui voient leurs anciens gisements s’appauvrir.

Plateforme arctique Gazprom

Pour exploiter ces ressources en conditions extrêmes, il faut une technologie de pointe, détenue notamment par des Majors étrangères telles que Total. Le groupe français mène aux côtés de son partenaire russe Novatek, du chinois CNPC et de Silk Road Fund (9,9 %) le projet géant de Yamal dans le grand Nord. C’est une vitrine de la politique russe de développement de l’Arctique, en faisant jaillir en quelques années de nulle part un port, un aéroport, une installation de traitement de gaz et de liquéfaction avec trois trains d’une capacité de 5,5 millions de tonnes par an chacun, ainsi que des réservoirs de stockage. En décembre, Total a annoncé que la première cargaison de gaz naturel liquéfié (GNL) avait quitté le port de Sabetta. «Ensemble, dans des conditions extrêmes, nous avons fait sortir de terre un projet GNL de taille mondiale qui permet de valoriser les immenses ressources gazières de la péninsule de Yamal. Ce projet géant n’aurait pas été possible sans la force de notre partenariat avec Novatek et témoigne de l’engagement de Total envers la Russie», a déclaré Patrick Pouyanné, le pdg Total.

Contrôler les routes maritimes

Au-delà de l’exploitation des ressources naturelles, la Russie s’intéresse à la région pour des raisons de transport maritime. La fonte plus importante de la banquise en raison du changement climatique, créé des routes bien plus courtes en l’Asie et l’Europe notamment et pourraient devenir des trajets saisonniers utiles pour désengorger des points de passages comme le canal de Suez. Le ministère russe de la Défense a annoncé en novembre avoir découvert onze nouvelles îles et six détroits dans l’Arctique ces cinq dernières années, renforçant les prétentions de la Russie dans cette région disputée où elle a revendiqué en 2015 devant les Nations unies la souveraineté sur 1,2 million de km2. «D’après le scénario de base, le fret de la route maritime du Nord atteindra 70 millions de tonnes, et selon certains scientifiques elle pourrait s’élever jusqu’à 105 millions de tonnes d’ici à 2030», estime Evgeny Zagorodniy, le vice-président de la United Shipbuilding Corporation.

Sécuriser la route du Nord nécessitera une flotte conséquente de navires brise-glace. Dans ce domaine, la Russie détient une avance certaine avec des bâtiments à propulsion nucléaire gérés par Atomflot. Plus récemment, une méthanier brise-glace portant le nom de Christophe de Margerie (ancien PDG de Total décédé dans un accident d’avion en 2014), a été inauguré par Vladimir Poutine et a commencé à emprunter la fameuse route du Nord. Tout un symbole.

Romain Chicheportiche

Circuits électroniques sur tissu : maintenant à bas coût et lavables

Pour que l’électronique portable sur des textiles puisse être utilisée de manière courante, il faut encore passer plusieurs obstacles dont le lavage, l’utilisation d’encres non toxiques et le coût. Des chercheurs d’une équipe internationale menée par le centre de recherche sur le graphène de Cambridge et soutenu par le projet européen Graphene Flagship ont publié un article dans Nature Communications où ils expliquent comment ils ont réussi à relever ces trois défis. Leur technique a, en outre, permis d’imprimer des circuits intégrés complets sur des tissus polyester alors que jusqu’à maintenant on se contentait de créer des transistors uniques. Cette fois, des cellules de mémoire reprogrammables, des inverseurs ou des portes logiques ont pu être imprimés.

Ecologiques et économiques

Le travail des chercheurs a notamment porté sur la conception d’encres non toxiques avec un point d’ébullition bas permettant la création de circuits intégrés fonctionnant à température et pression ambiantes et facilement imprimable sur des tissus. Les encres créées par les auteurs de ces recherches sont à base de deux matériaux 2D : le graphène et le nitrure de bore hexagonal (h-BN). Ces encres de nécessitent pas de solvants toxiques et peuvent être portés sur le corps tout en étant bon marché, sûres et écologiques.

L’équipe a constaté que la rugosité des textiles diminuait les propriétés des composants électroniques imprimés. Aussi, pour minimiser cette interférence, ils ont utilisé une « couche de planarisation » en polyuréthane ; Elle lisse la surface du textile et permet d’améliorer les performances des dispositifs imprimés. Concernant les électrodes, les chercheurs ont choisi de remplacer les habituelles électrodes en argent par des électrodes PEDOT:PSS* qui sont plus adaptables pour un support flexible.

Une technique polyvalente

Cette technique ouvre la voie vers de véritables textiles intelligents dans lesquels l’électronique devient invisible. Elle permet de profiter du confort d’un vrai tissu (souplesse, aération) que n’offre pas les solutions actuelles qui consistent essentiellement à imprimer des composants assez rigides sur des matériaux portables (textiles, plastique ou caoutchouc) et qui résistent mal au lavage. Les circuits en matériaux 2D utilisés cette fois ont supporté jusqu’à 20 cycles de lavage dans une machine standard après avoir été recouverts par une couche de protection de polyuréthane appliquée par pression à chaud (120°C pendant 5s) sur le dessus et le dessous du dispositif. Par ailleurs, il semblerait que cela soit plus les torsions subies au lavage que l’eau et les agents lavants qui diminuent les performances du circuit au cours du temps.

Les applications devraient être multiples : des dispositifs médicaux portables à toute la sphère de l’internet des objets (IoT).

*poly(3,4-éthylènedioxythiophène) (PEDOT) et polystyrène sulfonate de sodium (PSS)

Par Sophie Hoguin

Revue de presse anglophone #12

Les meilleurs jeux pour apprendre votre enfant à coder !

Il n’est jamais trop tôt pour éveiller votre progéniture au codage.

Source : New York Times

Qui mange qui dans les grands fonds ?

Une caméra placée dans les grands fonds marins permet d’observer la prédation dans les grands fonds, en live.

Source : New York Times

Le Bitcoin ne constitue pas une menace pour la stabilité de l’économie

C’est en tout cas la conclusion d’un collège d’experts européens de la finance.

Source : The Guardian

Facebook reconnaît que l’utilisation de son site pourrait influer sur la santé mentale de ses usagers…

… et conseille pour remédier à ce problème d’encore plus utiliser son site !

Source : The Guardian

Les Etats-Unis accusent la Corée du Nord d’être à l’origine de « WannaCry »

 

WannaCry est un virus informatique qui a causé des bugs sur des millions d’ordinateurs à travers le monde ils y a quelques jours.

Source : Wall Street Journal

 

L’autoconsommation devient presque rentable en France

Le solaire brille

Le mécanisme d’appel d’offres «autoconsommation» a été mis en place en 2016 par le ministère de l’Ecologie, du Développement durable et de l’Energie pour développer les installations de puissance intermédiaire (entre 100 et 500 kW) en autoconsommation. Quelque 50 MW étaient en jeu et aucune technologie n’était privilégiée. Pour autant, le  solaire photovoltaïque a remporté absolument tous les projets. Les candidats ont demandé en moyenne une aide financière de 7,90 €/MWh, soit bien moins que lors du précédant appel d’offres (40,80 €/MWh). La chute des prix des modules PV, due à la situation actuelle de surproduction mondiale, explique en grande partie la domination totale du photovoltaïque sur les autres technologies renouvelables.

Selon le cabinet Finergreen, qui a analysé les résultats, les supermarchés sont largement présents, et remportent sur cette tranche près de la moitié des projets (71). Parmi les enseignes de grandes surfaces, le groupe Carrefour en gagne 31 et plus de 15MWc, soit environ 30% du volume total de l’AO. A noter également que le taux d’autoconsommation moyen des lauréats est évalué à 98%, ce qui signifie que la production d’électricité verte couvrira presque entièrement les besoins locaux des porteurs de projets.

Annonces en pagaille

Cet appel d’offres s’inscrit dans un plan gouvernemental plus large qui prévoit 9 sessions identique sur 3 ans pour un total de production autoconsommée de 450 MW.

Nicolas Hulot, ministre de la Transition écologique et solidaire, a également annoncé d’autres appels d’offres pluriannuels portant sur des volumes de 1,45 GW par an sur une durée de 3 ans. Par ailleurs, un autre concours dit bi-technologique (éolien et solaire), est prévu pour septembre 2018 et portera sur des projets d’une capacité comprise entre 5 à 18 MW.

Ces annonces ont vocation à élever les capacités électriques renouvelables de la France qui est «en retard sur ce sujet», comme l’a rappelé Emmanuel Macron dimanche dernier, notamment en raison des longueurs des procédures et des recours administratifs, à l’instar de l’éolien. Selon la dernière étude de RTE, le gestionnaire de réseau, le taux de couverture moyen de la consommation par les énergies renouvelables (hydroélectricité comprise) a été de 17,9 %, soit en-deçà de l’objectif de 23% que s’est fixé la France pour 2020.

Romain Chicheportiche

Laurence Tubiana analyse les avancées du combat climatique

Pour Laurence Tubiana, le temps est à l’action et la transition est engagée. Elle retient un élément particulièrement marquant de la COP23 : l’engagement des acteurs non gouvernementaux et les coalitions se structurent. Avant l’Accord de Paris, seuls les pays étaient invités à agir. «On va maintenant vers des choses très organisées autour du charbon, de la neutralité carbone, de la décarbonation des transports […] avec des coalitions où les gouvernements immédiatement appellent des villes, des régions, des entreprises à participer par rapport à un objectif», analyse-t-elle. Ces coalitions sont des coopérations renforcées pour aller plus vite que la démarche consensuelle des COP.

Le charbon a aussi été au coeur des discussions à la COP23. Des entreprises allemandes ont appelé Angela Markel à sortir du charbon, une campagne citoyenne a été lancée pour sortir du charbon en Europe. Et une alliance emmenée par le Canada et le Royaume-Uni invite à définir une date précise d’élimination du charbon dans le mix énergétique. Ce focus a continué à l’occasion du One Planet Summit où de nombreux acteurs ont appelé le secteur financier à se désinvestir du charbon et des autres énergies fossiles. Mais les résultats restent encore largement insuffisants.

Une dynamique qui reste à amplifier

Le dialogue de Talanoa doit se dérouler en 2018 pour revoir les contributions nationales à la hausse d’ici 2020. «On a les bases d’une COP24 réussie», estime Laurence Tubiana, mais les négociations seront intensives en 2018. La fondatrice et ancienne présidente de l’Institut du développement durable et des relations internationales (Iddri) estime que la condition essentielle pour relever ces contributions est que les pays définissent avant 2020 leurs trajectoires bas carbone pour 2050. «S’ils n’ont pas de trajectoire de long-terme, les choix seront mal faits», projette-t-elle.«Certains pays ont décidé dès 2050 d’aller vers la neutralité carbone : il faudrait que tous pays du G20 le fassent», prévient-elle. Ce travail concerne les gouvernements des pays, mais aussi les bailleurs de fonds et les industriels.

Certes, il y a eu des avancées. Mais «il y a encore beaucoup de secteurs où il ne se passe pas grand chose: l’aviation, le secteur maritime et de grands secteurs industriels», note Laurence Tubiana. Parmi ces derniers, il s’agit notamment des industries très émettrices : le ciment, l’acier et la chimie. Comment faire pour qu’ils soient compatibles avec l’Accord de Paris ? «Si l’on doit être dans une décarbonation nette zéro dans la deuxième partie du siècle, ce n’est pas encore clair», prévient-elle. Certains secteurs sont encore à la traîne, le secteur financier a commencé à bouger mais reste encore assez fragmenté. «Il n’ y a pas la boule de neige qui emporte tout», regrette-t-elle. L’agriculture était un sujet tabou, mais est le grand sujet politique majeur qui s’ouvre. «Après, ce sera sûrement le commerce international», projette l’experte des négociations climatiques.

Les avancées du One Planet Summit

Le One Planet Summit a été l’occasion de mettre la pression sur le secteur maritime et les industriels les plus émetteurs. Ainsi, 34 pays ont appelé à des avancées ambitieuses, au sein de l’Organisation Maritime Internationale, sur la régulation des émissions de CO2 liées aux transports maritimes. Celles-ci représentent aujourd’hui 3 % des émissions mondiales de CO2 mais pourraient augmenter, en l’absence d’actions ciblées, de 250 % d’ici 2050.

Par ailleurs, 225 grands investisseurs institutionnels pesant plus de 26.300 milliards de dollars ont lancé la coalition « Climate Action 100+ ». Avec pour objectif d’accompagner les 100 entreprises cotées les plus émettrices de gaz à effet de serre à présenter une stratégie de réduction de leurs émissions conformes aux objectifs fixés par l’Accord de Paris.

Par Matthieu Combe, journaliste scientifique

Solaire: les appels d’offres annuels passent à 2,45 GW !

Fin septembre 2017, le parc solaire atteignait une capacité installée de 7,2 gigawatts (GW). C’est 71 % des objectifs fixés à la filière pour 2018 (10,2 GW). Cet objectif ne sera clairement pas atteint. En effet, sur les 12 derniers mois, le parc n’a progressé que de 574 mégawatts. Pour 2023, les objectifs sont encore plus éloignés. Publiée en 2016, la Programmation pluriannuelle de l’énergie (PPE) veut atteindre une capacité solaire installée entre 18,2 et 20,2 GW pour fin 2023. Dans six ans, Il faudra donc avoir installé entre 11 et 13 GW de nouvelles capacités. Soit autour de 2 GW par an, ce qui signifie qu’il faut changer d’échelle.

Accélérer le développement solaire

Plusieurs appels d’offres ont été lancés fin 2016 pour développer les installations solaires au sol comme sur bâtiments. Ces appels d’offres pluriannuels portent sur des volumes de 1,45 GW par an sur une durée de trois ans. Déjà 1,3 GW ont été attribués. Mais cela reste insuffisant pour rattraper le retard. Nicolas Hulot a donc décidé de porter le volume des futurs appels d’offres à 2,45 GW par an. Avec 1,7 GW réservés aux installations au sol et 0,75 GW pour le solaire sur bâtiments.

«L’augmentation des volumes prendra effet progressivement, dès les prochaines périodes des appels d’offres, qui auront lieu en mars pour les installations sur bâtiment et en juin pour les centrales au sol», précise le ministère de la transition écologique et solidaire. Des mesures ont notamment été prises pour réduire les délais de réalisation des installations. Mais aussi pour augmenter les taux de réalisation des projets lauréats. Car tous les projets n’aboutissent pas. Par ailleurs, un plan pour accélérer le développement des énergies renouvelable devrait être annoncé en 2018.

Des énergies renouvelables compétitives

Mais ce n’est pas la seule nouveauté. Nicolas Hulot lance aussi un appel d’offres bi-technologique expérimental jusqu’en septembre 2018. Il mettra en concurrence la compétitivité des filières photovoltaïque et éolien terrestre pour un volume total de 200 MW. La puissance individuelle des projets doit être comprise entre 5 et 18 MW. «Le soutien aux projets prendra la forme d’un complément de rémunération et la sélection se fera uniquement sur la base d’un critère de compétitivité économique», avance le Ministère.

Les prix demandés par les lauréats des appels d’offres solaires continuent de chuter. Les derniers projets au sol vendent leur électricité à 63,9 euros par mégawattheure (€/MWh). Soit 9 % de moins que lors du dernier appel d’offres, quatre mois plus tôt. Pour les plus gros projets au sol (entre 5 et 17 MWc), le prix tombait même à 55,5 €/MWh. Une baisse similaire est observée sur les projets sur bâtiments. Les derniers lauréats proposaient un prix moyen de 93,4 €/MWh. Il atteignait 88 €/MWh pour les projets sur grands bâtiments. Une baisse de 10 %.

Par Matthieu Combe, journaliste scientifique

One Planet Summit: quels nouveaux engagements ?

En ouverture du One Planet Summit, Jean-Yves Le Drian, ministre de l’Europe et des Affaires étrangères a invité le monde à proposer des «solutions concrètes et efficaces». Objectif : «opérer sur le terrain le changement d’échelle indispensable». Car António Guterres, le secrétaire général de l’Assemblée générale des Nations unies, l’affirme : «la finance peut et doit être le facteur décisif». L’objectif annuel de 100 milliards de dollars consacrés à l’atténuation et à l’adaptation au changement climatique dans les pays en développement en provenant de financements privés et publics d’ici 2020 sera certainement atteint. Mais pour verdir l’ensemble du système financier international, cela restera plus difficile.

Les annonces réalisées dans le cadre de ce sommet sont assez disparates et restent une goutte d’eau face au défi qui attend le secteur financier. Car si les projets concrets sont en nombre croissant, leur enveloppe et le nombre d’acteurs restent encore largement insuffisants. Comme le rappelle le Premier Ministre des Fidji et Président de la COP23 Frank Bainimarama, «tous les nouveaux investissements devraient être regardés à l’aune de l’Accord de Paris». Il invite les acteurs privés et publics à « travailler main dans la main pour exploiter les capitaux et surmonter les défis » Mais les 12 engagements pris lors de ce sommet montrent qu’il reste encore beaucoup de travail à faire.

Arrêter de financer le charbon ?

Peu de banques commerciales et de développement se sont engagées à se détourner des investissements à destination des énergies fossiles. La seule banque à avoir pris des engagements sérieux est la Banque Mondiale. Elle arrêtera le financement des projets pétroliers et gaziers dès 2019. Mais le charbon ne sortira pas de son portefeuille d’investissements. Le Président de la Banque Mondiale a aussi précisé que des rapports sur les émissions de carbone seraient désormais publiés pour tous les projets financés. « C’est bien ce que fait la banque mondiale, mais toutes les banques doivent faire de même pour que tous les financements aux combustibles fossiles cessent », insiste toutefois Juha Sipilä, Premier ministre de la Finlande.

Notons tout de même la déclaration de la banque néerlandaise ING qui ne financera plus de nouveaux clients dont le business du charbon représente plus de 10% de son activité. Et dès 2025, cette part sera abaissée à 5 %. En revanche, rien n’a été annoncé pour les investissements existants. Par ailleurs, AXA, le géant français de l’assurance, s’éloigne progressivement des énergies fossiles. L’assureur met fin à l’assurance et aux investissements dans les sociétés de sables bitumineux et les pipelines. Il se désengage aussi des nouveaux projets de construction liés au charbon. En parallèle, il quadruple ses investissements dans les énergies renouvelables et les bâtiments pour atteindre 12 milliards d’euros en 2020.

Vers des marchés carbone suffisants ?

Les choses évoluent du côté du marché du carbone. Actuellement, seulement 15 % des émissions mondiales sont couvertes par des taxes carbones, dont les trois quarts sont à moins de 10 dollars la tonne. Mais la Carbon pricing leadership coalition, une coalition de plus de 40 entreprises, appelle à un prix du carbone aligné avec les objectifs de l’Accord de Paris. C’est-à-dire à la mise en place d’un prix autour de 40 euros la tonne en 2020.

Leur appel est entendu par plusieurs Etats et régions qui se sont prononcés en faveur de la mise en place d’un tel marché. C’est notamment le cas d’une coalition de pays européens dont la France et l’Allemagne. Par ailleurs, un marché commun devrait être mis en place dans les Amériques : Canada, Colombie, Chili, Mexique, Etats de Californie, Washington, Alberta, Colombie, Britannique, Nouvelle Ecosse, Ontario et Québec. Enfin, la Chine vient de lancer son marché du carbone, le plus grand de ce type au monde. « Par le biais de la construction d’un marché du carbone, nous allons mobiliser les entreprises, renforcer la finance verte et les assurances vertes et encourager les investissements vers les domaines bas carbone », détaille Ma Kai, vice-Premier ministre de la Chine. Reste à savoir quel sera le prix affiché par ces différents marchés.

Des annonces disparates !

Sous la pression d’Emmanuel Macron, tout le monde est venu avec sa petite annonce. Ce qui a parfois donné l’impression d’une succession d’annonces sans rapport les unes avec les autres. Parmi celles-ci, notons que, d’ici 2020, l’Union Européenne facilitera 9 milliards d’euros d’investissements en Afrique et dans ses pays voisins pour les  villes durables, l’énergie durable, l’agriculture durable, les entrepreneurs ruraux et l’agroalimentaire. La Commission européenne publiera aussi en mars 2018 un plan pour encourager la finance verte. Il devrait inviter les banques et les investisseurs à prendre en compte la durabilité dans leurs décisions, mais surtout clarifier ce qui peut être considéré comme une finance durable.

Un autre fonds vise à lutter contre la détérioration des terres et la désertification : c’est le « Land degradation Neutrality fund ». Il vise la restauration de 12 millions d’hectares dégradés chaque année sur un total de 2 milliards d’hectares concernés. Le fonds sera lancé en 2018 avec 300 millions de dollars. De son côté, le «Tropical Landscape Financing Facility» vise à mobiliser d’ici 2025 10 milliards de dollars de fonds privés pour financer des projets ayant un impact environnemental et social significatif dans les pays les plus vulnérables.

Si les banques rechignent à se détourner du charbon, l’alliance « Powering past coal » lancée à la COP23 le mois dernier comprend désormais 58 membres dont 26 pays, 8 gouvernements locaux et 24 entreprises dans le monde. Contre 25 membres lors de son lancement. Ils s’engagent à bannir le charbon de leur approvisionnement électrique d’ici 2030. À l’opposé, l’Alliance Solaire internationale souhaite mobiliser 1.000 milliards de dollars d’ici à 2030, auprès d’investisseurs publics et privés, pour développer le solaire. Enfin, 32 villes, 15 pays et plusieurs entreprises se sont engagés à atteindre la neutralité carbone d’ici 2050. Pour se préparer rapidement, ils publieront leurs stratégies avant 2020.

Par Matthieu Combe, journaliste scientifique

Le cri d’appel des petits Etats insulaires !

Les 39 petits États insulaires du monde sont situés sur la ligne de front du changement climatique. Et ils sont donc les premiers à devoir s’adapter au changement climatique. Ils en appellent à la solidarité internationale pour y parvenir. Notamment, ils demandent à généraliser le principe d’échanges « dette contre résilience ». Celui-ci consiste à transformer des dettes commerciales coûteuses en investissements dans la résilience face au changement climatique.

« Il suffit d’un stylo pour changer la classification de nos dettes et donner accès aux financements à bas taux d’intérêts aux petits états insulaires », rappelle le Premier Ministre de Sainte-Lucie, Allen Michael Chastanet. Richard Branson, fondateur du groupe Virgin, rejoint cet appel : « Les petits états insulaires doivent être reclassifiés pour avoir accès à de l’aide au développement pour reconstruire leurs bâtiments de façon résiliente pour qu’après un nouvel ouragan, tout ne soit pas détruit à nouveau ». Il faut dire que ces pays subissent de loin les plus fortes pertes relatives provoquées par des catastrophes naturelles. Chaque année, c’est entre 1 et 9 % de leur PIB qui part ainsi en fumée, selon la Banque mondiale.

Avoir droits aux financements

Le Premier ministre de la République de Maurice, Pravind Kumar Junha, le confirme : en tant que pays considéré à revenu intermédiaire, ils n’ont plus le droit aux financements de la Banque mondiale.  « Nous sommes victimes de notre propre succès », regrette-t-il. « Nous devons régler une question fondamentale : avoir accès aux finances et voir comment nous pouvons rendre cet accès plus souple », souligne-t-il.

Outre les financements publics, l’intérêt est d’attirer les capitaux privés. Ainsi, un partenariat public-privé doté de 2,8 milliards de dollars, fera des Caraïbes la première « Climate Smart Zone » dans le cadre d’un plan d’investissement de 8 milliards de dollars. Avec pour objectif de catalyser les investissements bas carbone dans les domaines prioritaires des réseaux énergétiques et des infrastructures.

Haïti au bord du gouffre

Jovenel Moïse, Président d’Haïti souligne la situation particulièrement dure de son pays. De 2004 à 2017, les dégâts liés aux catastrophes auraient représenté la perte de plus de 30 % de PIB. Soit 2,7 milliards de dollars. Par ailleurs, il souligne l’importance de réfléchir en tant qu’association d’états insulaires, notamment sur la problématique des assurances pour aboutir à une assurance couvrant l’ensemble des Caraïbes. « En 2016, sur des dégâts évalués à 2,7 milliards de dollars, la couverture d’assurance n’a donné que 23 millions de dollars », dénonce-t-il.

« Le problème de la bureaucratie est très grave », prévient Jovenel Moïse. Il appelle à ce que l’aide internationale soit donnée au gouvernement. Avant de préciser pour finir : « Nous savons ce que nous avons comme problèmes et connaissons les solutions  ».

Par Matthieu Combe, journaliste scientifique

Les États américains défient l’Amérique de Donald Trump

John Kerry, secrétaire d’État des États-Unis durant la présidence de Barack Obama, dénonce fermement la politique de Donald Trump en matière de lutte contre le changement climatique. Contrairement à ce que tente de faire le nouveau Président américain, John Kerry souligne qu’ «il faut faire adopter une déclaration universelle par toutes les banques pour dire qu’il ne doit plus y avoir un seul investissement dans le charbon». Il appelle à la création d’une électricité décarbonée d’ici 2050. Et rappelle que 38 États ont approuvé la loi en faveur du développement des énergies renouvelables. Ces derniers représentent 80 % de la population américaine. En plus, un grand nombre de gouverneurs et maires voudraient appliquer l’Accord de Paris, même si Trump s’en désintéresse au niveau fédéral.

Continuer l’action climatique à tous les autres niveaux

Suite à l’annonce du retrait de l’Accord par Donald Trump, plusieurs États ont constitué la United States Climate Alliance, s’engageant à respecter sur leurs territoires l’objectif qui avait été pris au niveau fédéral dans l’Accord de Paris. 15 États sont engagés, représentant 36 % de la population américaine. Cela reste largement insuffisant pour compenser une politique ambitieuse au niveau fédéral. Toutefois, il s’agit d’un signal fort adressé à la communauté internationale et à la population américaine.

«Les États-Unis ne sont pas sortis de l’Accord de Paris: les scientifiques, les entreprises et les États sont encore là», veut défendre Arnold Schwarzenegger, ancien gouverneur de Californie venu prêter main forte. Il souligne notamment l’importance des coalitions internationales, comme son ONG R20 qui aide les gouvernements sub-nationaux à agir pour le climat. Il y a aussi la coalition mondiale Under2 des États et Province qui représentent plus de 1,3 milliards de personnes et 40% du PIB mondiale. Pour accélérer l’action sub-nationale et montrer que les États-Unis sont toujours dans la course, un sommet de l’action climatique est organisé à San Francisco du 12 au 14 septembre 2018. Des ONG, États, Provinces et entreprises sont attendus du monde entier.

De nouvelles initiatives pour les États américains

D’autres initiatives se lancent. John Kerry annonce le partenariat entre 8 régions de l’ouest Américain en faveur des véhicules électriques. Il s’agit de l’Arizona, du Colorado, de l’Idaho, du Montana, du Nevada, du Nouveau Mexique, de l’Utah et du Wyoming. Objectif : partager les bonnes pratiques et le développement d’un réseau commun de stations de recharge permettant les déplacements en véhicules électriques d’un État à un autre.

Le Mexique a annoncé une collaboration régionale pour mettre en place un marché du carbone dans les Amériques. Cette coalition comprend plusieurs pays: Canada, Colombie, Chili et Mexique. Mais aussi les États de Californie et Washington. Le lancement de ce marché s’inscrit dans une dynamique de renforcement des instruments de tarification du carbone et d’articulation des marchés carbone régionaux.

En fin de sommet, Michael Bloomberg, millionnaire et ancien maire de New-York, a rappelé que Donald Trump devait payer les 50 milliards de dollars promis avant pouvoir sortir de l’Accord de Paris. «Si le gouvernement ne paye pas, la fondation Bloomberg et ses partenaires s’en chargeront», a-t-il annoncé.

Ban Ki-Moon, secrétaire général des Nations unies jusqu’à fin 2016 soutient toutes ces actions. Il qualifie le retrait de Trump d’«erreur politique» et d’ «action irresponsable» jugeant qu’il se retrouve « du mauvais côté de l’histoire ». Il dit «merci aux villes et États qui continuent à s’engager». En coulisses, tout est fait pour que l’Amérique d’après-Trump puisse revenir dans l’Accord de Paris. «Donald Trump a mis Donald Trump en dehors de l’Accord de Paris, estime Arnold Schwarzenegger. Il est coincé dans le passé pendant que nous marchons vers le futur.»

Par Matthieu Combe, journaliste scientifique

Revue du web #109 spéciale chimie/matériaux : les vidéos étonnantes du mois

Des plantes lumineuses

Une équipe de chercheurs du MIT a mis au point des plantes qui brillent dans le noir. Pour réaliser cette étrange prouesse, ils se sont directement inspirés des lucioles bien sûr !

Les propriétés de la luciférine et de l’enzyme luciférase font des merveilles. Votre future lampe de chevet ?

Un muscle artificiel

Jusqu’à présent, les robots mous étaient très souples mais manquaient cruellement de tonus…

Désormais dotés de muscles artificiels élaborés dans les laboratoires d’Harvard et du MIT, ils pourraient soulever 1000 fois leur masse !

Les gants les plus résistants au monde

Voilà une innovation qui pourrait considérablement améliorer les conditions de vie des ouvriers. Resafe, une entreprise chilienne, a imaginé des gants très résistants.

Coups, écrasement, brûlures, coupures… Le matériau baptisé Mark VIII, mélange de nitrile et de coton recouvert de peau de peau de chevreau, semble résister à tout.

Du verre qui se répare tout seul

Une équipe de chercheurs de l’Université du Japon a créé une substance baptisée « polyéther thiocarbamide » qui a l’apparence du verre tout en présentant une propriété très intéressante : pressez deux morceaux l’un contre l’autre, et après quelques instants, vous n’en aurez plus qu’un !

Un robot archéologue

Deux robots, conçus par l’Inria, pourraient pénétrer puis observer les cavités découvertes il y a peu dans la Pyramide de Khéops. L’enjeu est de laisser un minimum de traces.

Découvrez notre article sur les robots qui visiteront l’intérieur des pyramides.

 

Par I. B

Les Japonais aussi visent la Lune

L’entreprise nippone ispace vient de présenter son projet de « Moon Valley », qui doit débuter par le développement d’un atterrisseur et par l’envoi de deux missions lunaires d’ici 2020 avant de devenir une véritable cité lunaire. La première mission est programmée pour le quatrième trimestre 2019 et la seconde un an plus tard. La première vise à mettre l’atterrisseur en orbite lunaire pour réaliser des observations de la surface, la seconde doit conduire à un atterrissage en douceur et au déploiement de plusieurs rovers d’exploration et de cartographie de la surface. La levée de fonds de cette « série A » (tour de table qui vient après le financement d’amorçage dans la création d’une start-up) est annoncée comme un record pour le Japon et pour le secteur commercial spatial selon ispace.

atterisseur-1000

Objectif : Lune commerciale

L’atterrisseur lunaire d’ispace est conçu pour transporter 30 kg de charge utile : cela inclut deux rovers, conçus également par ispace. Chaque rover pourra lui-même transporter 5kg de charge utile. L’objectif est de développer des véhicules de transports légers et modulaires permettant des missions flexibles, régulières et à bas coût vers la Lune. ispace table sur des équipements de micro-robotique pour réduire le coût des missions et multiplier les occasions de lancements. Avec ces développements, ispace pourrait fournir un service de transport vers la Lune pour tous type de clients : agences nationales, institutions scientifiques, entreprises privées. L’installation d’équipements scientifiques d’observations et d’analyse devraient dans un premier temps fournir des données sur les ressources lunaires et l’environnement topographiques de la surface.

Premiers pas avec Google Lunar Xprize

ispace est aussi l’entreprise qui soutient l’équipe japonaise Hakuto, l’un des cinq finalistes du Google Lunar X Prize (GPLX). Pour rappel, le GPLX est un concours qui récompensera  par un prix de 20M$ la première équipe, financée par des fonds privés, qui fera atterrir un engin sur la Lune et se déplacera sur 500m à la surface en étant capable de transmettre des photos et vidéos à la Terre. La deadline pour le lancement étant fixée au 31 mars 2018. L’équipe Hakuto devait à l’origine décoller le 28 décembre sur un lanceur indien, en compagnie d’une autre équipe finaliste, Team Indus, mais la date de lancement n’a finalement pas été confirmée. Une inconnue de taille surtout après le dernier échec du lanceur indien (PSLV) fin août 2017.

Le rover Hakuto sert en quelque sorte de prototype pour le futur rover ispace : chassis en fibre de carbone renforcé de plastique (CFRP), roues en matériaux supportant des températures extrêmes (de -150°C à +100°C), quatre caméras 360 haute définition permettant à un pilote humain de diriger le rover via des données transmises à la terre sous un format compressé et une caméra munie d’une intelligence artificielle pour stopper en cas de danger non identifié. (Pour en savoir plus sur le rover Hakuto vidéo LIEN =  )

Une véritable cité en vue

Dans la vision d’ispace, ces atterrisseurs ne sont qu’une première étape pour l’établissement d’une véritable colonie lunaire aux alentours de 2040. La cité comprendrait à peu près 1000 personnes vivant sur place et pourrait accueillir quelques 10 000 visiteurs par an (voir cette vidéo digne d’un spot publicitaire issu  d’un film de science fiction vous invitant au voyage spatial). L’infrastructure à la surface serait basée autour des ressources en eau pour permettre de soutenir diverses industries allant de l’extraction de minerais au tourisme.

ispace n’est pas la seule société qui espère établir une liaison Terre-Lune à bas coût. En effet, Moon Express, un autre finaliste du GLXP a construit son projet dans cette optique. Moon Express annonçait ainsi cet été qu’il programmait l’envoi d’un poste de recherche robotisé au pôle sud de la Lune pour prospecter les ressources en eau et minerais en 2019. Un première mission commerciale de retours d’échantillons viendrait ensuite en 2020.

Par Sophie Hoguin

Les centrales à charbon européennes perdent de l’argent !

Décidément, le charbon fait couler beaucoup d’encre. Dans son étude « Lignite of the living dead » parue cette semaine, le think tank financier Carbon Tracker jette le discrédit sur la filière charbon européenne. Le groupe spécialiste de l’analyse du risque climatique pour les marchés financiers a analysé les comptes de 619 centrales à charbon dans 28 Etats membres. Les résultats ne sont pas brillants du tout.

Au bout du compte, 54 % des centrales au charbon perdent de l’argent en Europe. Cette proportion atteindra 97 % en 2030 si rien n’est fait. Selon Carbon Tracker, les pertes accumulées pourraient alors atteindre 22 milliards d’euros. Pourtant, les entreprises ont actuellement prévu de ne fermer que 27% de leurs centrales à charbon d’ici là.

Des renouvelables plus compétitives

Dès 2021, les futures normes de qualité de l’air imposeront à 70 % des centrales à charbon existantes d’installer de nouveaux systèmes de filtration. Des filtres très chers pour nettoyer les gaz qu’elles rejettent. Et les prix du carbone feront grimper leurs coûts d’exploitation du charbon. Finalement, d’ici 2024, construire des éoliennes terrestres coûtera moins cher que d’exploiter les centrales au charbon existantes. D’ici 2027, ce sera également le cas pour le solaire photovoltaïque. Sortir du charbon et développer les énergies renouvelables sera donc bon pour la qualité de l’air, la santé des habitants mais aussi pour le portefeuille des actionnaires.

La palme d’or du nombre de centrales à charbon le moins rentable revient à l’Allemagne. En les fermant, le pays pourrait économiser 12 milliards d’euros. En Pologne, l’épargne pourrait atteindre 2,7 milliards d’euros. La République tchèque, l’Espagne et le Royaume-Uni pourraient quant à eux économiser respectivement 2,2 milliards, 1,8 milliard et 1,7 milliard d’euros. En France, la fermeture des centrales permettra d’éviter 770 millions d’euros de pertes pour EDF et 830 millions pour Engie.

Respecter l’Accord de Paris ?

C’est bien l’application de l’Accord de Paris qui est dans la ligne de mire de cette étude. Car continuer à produire de l’électricité à base de charbon en Europe au niveau actuel est incompatible avec la baisse des émissions promise. Bonne nouvelle : déjà sept pays européens ont défini une date de sortie du charbon, pour 2030 et ou avant. C’est le cas évidemment de la France pour 2022, à travers son Plan Climat. Mais aussi du Danemark, de la Finlande, de l’Italie, des Pays-Bas, du Portugal et du Royaume-Uni. En revanche, la majorité des Etats européens s’y refusent toujours. C’est notamment le cas de la Pologne qui aide ses centrales à hauteur de 400 millions d’euros pour qu’elles s’équipent de filtres.

Le rapport détaille que les centrales à charbon peuvent maintenir leur activité pour plusieurs raisons. Elles peuvent notamment espérer bénéficier du marché de capacité ou d’aides publiques accordées à l’avenir pour accélérer la fermeture des centrales. Certaines espèrent aussi peut-être que les prix de l’électricité repartiront à la hausse suite à la fermeture de leurs usines concurrentes. Enfin, garder des centrales en activité permet de reporter leurs coûts de démantèlement.

Par Matthieu Combe, journaliste scientifique

La Corée s’invite sur la scène nucléaire britannique

Kepco remplace Engie

L’entrée de Kepco dans le projet de Moorside fait suite au retrait d’Engie, en avril dernier, du consortium chargé de la construction de la centrale. Le groupe français a fait jouer une clause de cession de ses participations (40% du projet – 118 M€) à son partenaire Toshiba, suite à la faillite de Westinghouse (filiale américaine du groupe japonais). Kepco était en compétition avec la China General Nuclear (CGN), également intéressée et déjà partenaire d’EDF sur Hinkley Point C.

Pour le groupe coréen, la reprise du projet Moorside est très importante dans sa stratégie de conquête des marchés internationaux. Le programme nucléaire du Royaume-Uni offre en effet une belle vitrine pour des constructeurs désireux de montrer leurs compétences dans la construction et l’efficacité de leurs réacteurs de dernière génération (APR-1400 pour Kepco, EPR pour EDF et le HPR 1000 pour CGN). Jusqu’à présent, Kepco n’avait réussi qu’une seule vente de réacteur nucléaire à l’étranger, en 2009 et plus précisément aux Emirats Arabes Unis. Le groupe coréen avait alors surpris le secteur en enlevant un contrat de 20 milliards de dollars pour quatre réacteurs nucléaire de 1 400 MW, promis sur le papier au consortium français EDF/Areva/GDF Suez/Total, jugé trop cher par Abu Dhabi.

Moorside vue artiste Nugen

La question du prix

Si l’entrée de Kepco est plutôt une bonne nouvelle pour le gouvernement britannique qui doit renouveler rapidement son parc électrique : 20 % des capacités du pays fermeront d’ici 2020. La stratégie d’Albion repose sur le couple nucléaire / énergies renouvelables, notamment l’éolien en mer dont le Royaume est un leader mondial en termes d’installations. Mais depuis le contrat signé avec EDF sur Hinkley Point C, qui garantit au groupe français un prix de vente de 92,50 £/MWh (105 €/MWh), des voix se sont élevées pour dénoncer un prix jugé trop élevé, notamment face à la chute des coûts des énergies renouvelables partout dans le monde.

Si le gouvernement de Teresa May n’a pas remis en cause son ambition nucléaire, son  ministre de l’Energie Richard Harrington a néanmoins indiqué lors d’une récente conférence que la question du prix serait cruciale pour approuver le projet de Moorside. «Ces annonces soulignent toutes les grandes opportunités qui se présentent à l’industrie nucléaire, mais nous savons que le secteur est également confronté à un grand défi, à savoir rester compétitif. L’éolien offshore et l’avancement des technologies telles que le stockage par batteries augmenteront la pression sur les autres technologies, notamment nucléaire. Le gouvernement jouera un rôle clé à cet égard, mais il ne fait aucun doute que l’industrie doit montrer la voie», a-t-il déclaré. Selon la presse anglo-saxonne, le ministre exigerait une baisse des coûts comprise entre 20 et 30%. Une équation compliquée pour une industrie, à qui il est demandé de multiplier les démarches coûteuses de sûreté suite à l’accident de Fukushima en 2011, tout en baissant ses prix.

Romain Chicheportiche

Infographie: Impression 3D et développement durable

L’impression 3D représente un potentiel supplémentaire dans les démarches de développement durable. Elle ne constitue pas à coup sûr une réponse au sujet car cela dépend de sa mise en œuvre et de son développement, notamment par la nature des matières utilisées, la relocalisation des activités, le développement du qualitatif en lieu et place du quantitatif. L’impression 3D peut être un outil, au service d’une population responsabilisée et impliquée dans la préservation environnementale, pour un autre mode de croissance.

IMPRIMANTES3DV3

 

Télécharger la lettre des éditeurs au format PDF

Isolants topologiques : quand la lumière empêche d’y voir clair

Le isolants topologiques sont des matériaux isolants en volume mais dont la surface peut pourtant devenir conductrice. Ces nouveaux matériaux, découverts il y a une dizaine d’années, présentent un grand intérêt tant pour la recherche fondamentale que pour des applications notamment en électronique des spins (spinélectronique) et informatique quantique. Cependant depuis 10 ans les chercheurs ne s’expliquaient pas pourquoi les mesures des bandes d’énergie des électrons à la surface ne concordaient pas selon que l’on utilisait une méthode basée sur le magnétotransport ou sur la photoémission résolue en angle (ARPES) – un type de spectroscopie utilisant de la lumière ultraviolette (UV) pour étudier les propriétés des électrons (énergie, vitesse, bandes de conduction…).

isolant topologique photoémission
Crédit : https://doi.org/10.1103/PhysRevX.7.041041 / American Physical Society Evolution des bandes d’énergie en fonction du temps lors d’une exposition à la lumière UV et schémas des phénomènes explicatifs qui y sont liés.

C’est la lumière qui est fautive !

Dans un article de Physical review X, une équipe internationale (Pays-Bas, France, Suisse, Allemagne) explique comment résoudre cette énigme et comment utiliser les méthodes de mesure par photoémission de manière fiable. En effet, bien que les deux méthodes expérimentales pour déterminer les propriétés des électrons soient précises et habituellement fiables, elles donnent systématiquement des résultats différents pour les isolants topologiques ; la méthode de photoémission tendant à placer les bandes d’énergie à des niveaux plus bas. Certains avançaient que cette dernière était plus sensible aux impuretés de surface dues à des atomes de gaz de l’environnement qui seraient présents mais cette explication semblait fragile face au fait que la photoémission se déroule sous vide et sous des pressions bien plus élevées que la méthode par magnétotransport. Les résultats de ces études montrent que c’est l’exposition à la lumière ultraviolette qui est en réalité responsable d’un changement dans la structure électronique du matériau observé. Il s’avère que dès le premier flash de lumière UV, le point de Dirac descend et que toute la structure des bandes d’énergie se déforme vers des valeurs d’énergie plus basses.

bandstructuur_2
Crédit : https://doi.org/10.1103/PhysRevX.7.041041 / American Physical Society Après 20 secondes d’exposition à la lumière UV émise lors d’une expérience sous photoémission, on peut voir que la structure des bandes d’énergie est très différente de celle après 1 seule seconde. Les cercles colorés indique la position du point de Dirac.

Rien ne se fait au hasard

Les expériences menées ont aussi permis de dévoiler que la déformation des structures de bandes sont prédictibles et dépendent notamment de l’état de pureté de la surface, des caractéristiques du flux de photon et du temps d’exposition. Alors, faut-il jeter à la poubelle toutes les expériences faites en photoémission ? Non ! Les chercheurs ont pu établir des protocoles permettant d’obtenir des données avec la photoémission, qui sont en concordance avec celles obtenues par la méthode de magnétotransport. Ils se sont notamment aperçus que ces valeurs étaient disponibles soient avec des temps d’exposition extrêmement courts soit très longs. Ils ont réussi à expliquer les différents états traversés par les électrons à la surface sous l’influence de la lumière UV (phénomènes de photoionisation, photodissociation, désorption  de surface etc) expliquant l’évolution des bandes d’énergie au cours du temps. Des phénomènes qui pourraient même trouver des applications dans des systèmes basés sur les isolants topologiques où l’on se serviraient de cette déformation des bandes d’énergie.

 Par Sophie Hoguin

Les obligations vertes peuvent-elles verdir la finance ?

D’aucuns penseront qu’un rapport élaboré par un mouvement altermondialiste est biaisé. Néanmoins, cette enquête est riche d’enseignements pour dresser un premier bilan des investissements verts au moment où le monde de la finance se réunit à Paris pour afficher sa transition. Premier enseignement : le marché des obligations est évalué à près de 100.000 milliards de dollars. Quelle y est la part du marché des obligations vertes? Depuis leur création en 2005 et jusqu’en juin 2017, un total de 895 milliards de dollars ont été investis dans ce marché encore de niche. Une goutte d’eau. Pour l’année 2017, les obligations vertes pourraient atteindre 130 milliards de dollars. C’est la conclusion d’un rapport élaboré par HSBC et la Climate Bonds Initiative. Mais selon l’étude, seulement 25 % des obligations vertes seraient certifiées. Pour la plupart, les obligations vertes offrent donc difficilement des garanties sur les projets financés et les résultats sur le terrain.

Dans un autre rapport, l’OCDE estime que le marché des obligations vertes pourrait décoller d’ici 2035. À cet horizon, environ 700 milliards de dollars pourraient être émis annuellement pour environ 5.000 milliards de dollars de titres en circulation. Mais cela reste inférieur aux investissements bas-carbone nécessaires pour respecter l’Accord de Paris. La même organisation estime en effet les besoins à 2.260 milliards de dollars chaque année en 2035.

Des obligations vertes réservées aux projets verts ?

Selon Attac, les projets financés par ces nouvelles obligations ne seraient pas forcément « verts ». Attac dénonce notamment le financement du nouvel aéroport de Mexico par le Mexique dans ce cadre. Mais aussi celui d’un méga-barrage par Engie. L’association rajoute à cette liste l’émission d’obligations vertes souveraines par la Pologne qui lutte pourtant contre les politiques climatiques européennes ambitieuses. Et la compagnie pétrolière Repsol qui a pu financer l’efficacité énergétique de ses raffineries et usines chimiques en Espagne et au Portugal.

Il apparaît que les projets éligibles ne sont pas réglementés. En effet, il n’existe pas de définition claire des projets qui peuvent être financés. Tout au plus, les obligations vertes labellisées répondent à des critères volontaires et non contraignants – Green Bond Principles (GDP) -, les obligations climat aux Climate Bond Standards (CBS). Des pratiques controversées peuvent ainsi être financées. Par ailleurs, il est possible de certifier des obligations, indépendamment des entreprises ou institutions qui les émettent. Aucun grand acteur et aucun secteur n’est épargné de ces financements. Par ailleurs, moins de 50% des obligations vertes clôturées publient un rapport d’évaluation des impacts dans l’année qui suit. Ainsi, « ni le public ni les investisseurs ne peuvent connaître les effets concrets de la mise en œuvre de cette obligation », regrette Attac.

Quelles recommandations pour aller plus loin ?

« Le système financier doit être 100% climat-compatible si l’on veut respecter l’accord de Paris », prévient Maxime Combes, économiste et figure d’Attac France. L’association demande donc l’introduction d’un standard européen qui assure la transparence des projets et des sanctions en cas de manquement. Elle demande aussi la création d’une nouvelle agence de dotation soutenue par les pouvoirs publics qui permette de labelliser ces obligations. Enfin, les obligations vertes étant majoritairement réservées aux grands opérateurs, Attac demande à ce que d’autres canaux de financements tout aussi efficaces soient créés pour les plus petits acteurs.

Une obligation verte fonctionne comme une obligation classique. Un acteur de marché – banque de développement, entreprise, État, collectivité territoriale… – emprunte auprès d’investisseurs sur une durée définie, contre le paiement d’un intérêt. L’émetteur peut toutefois auto-déclarer « verte » ou « climat » son obligation si elle est supposée financer des projets compatibles avec la protection de l’environnement ou du climat. Cela permet notamment de financer des infrastructures qui se caractérisent par des coûts d’investissements initiaux élevés et un retour sur investissement de plusieurs années.

Par Matthieu Combe, journaliste scientifique

 

Manager une équipe projet : mettre en place une stratégie

Caractériser le profil du projet

Le profil du projet se détermine à l’aide de la carte du projet. Cette carte est définie par deux axes : en ordonnée, l’axe de la complexité technique ; en abscisse, l’axe de la complexité humaine.

lacarteduprojet

La carte du projet est divisée en quatre secteurs caractéristiques du profil des projets :

  • Secteur 1 : Le projet est faiblement complexe techniquement et humainement. Projet sans difficulté particulière. C’est un projet de profil 1.
  • Secteur 2 : Le projet est fortement complexe techniquement et peu humainement. C’est un projet un peu plus difficile à gérer qu’un projet de profil 1. C’est un projet de profil 2.
  • Secteur 3 : Le projet est faiblement complexe techniquement mais l’est plutôt humainement. Ce type de projet demande plus de doigté de la part du chef de projet et une stratégie différente des deux premiers profils. C’est un projet de profil 3.
  • Secteur 4 : Le projet est techniquement et humainement complexe. Ce type de projet est très difficile à mener. C’est un projet de profil 4.

Le profil des projets se situe sur une échelle de difficulté de 1 à 4. Cette échelle est plutôt du type exponentiel que linéaire.

Après avoir analysé la complexité technique et observé les acteurs au cours des deux premières étapes, le chef de projet synthétise ces informations sur cette carte. Celle-ci lui permet de caractériser le profil de son projet et de mesurer le degré de difficulté de son projet.

Conseil :
Faire baisser au maximum la difficulté de mise en œuvre de son projet. Pour ce faire, le chef de projet a tout avantage à découper son projet en plusieurs sous-projets de difficulté inférieure, si c’est possible bien entendu. À titre d’exemple, un projet avec un profil 4 est plus facile à mener en le découpant en un sous-projet « technique » de profil 2 et en un sous-projet « hommes » de profil 3.

Choisir la stratégie adaptée

Face aux caractéristiques du profil du projet, deux stratégies s’offrent au chef de projet :

  • la stratégie par les tâches ;
  • la stratégie par les acteurs.

La stratégie par les tâches se concentre essentiellement sur l’organisation précise des tâches. L’aspect humain est relégué au second plan. Seules la quantité et la qualité des personnes sont un sujet de préoccupation. L’enjeu principal est de définir dans le détail : chacune des tâches du projet, la personne qui la réalise et le temps qu’elle a pour l’exécuter.

La stratégie par les acteurs se focalise prioritairement sur les relations humaines. La façon de réaliser les tâches passe après. L’objectif principal se concentre sur les acteurs, qui font ou qui empêchent les tâches de se faire, afin d’en rallier le maximum à notre cause.

À la lecture de cette carte, le chef de projet en déduit la stratégie à adopter. Si le projet est de :
Profil 1 : L’utilisation de la stratégie par les tâches est totalement adaptée.

  • Profil 2 : Là encore la stratégie par les tâches est juste.
  • Profil 3 : Une approche différente des deux premiers profils est conseillée. La manœuvre employée est celle de la stratégie par les acteurs.
  • Profil 4 : La stratégie par les acteurs est à adopter.

La stratégie par les tâches est principalement utilisée pour les projets qui ont un profil 1 ou 2. Pour les profils 3 ou 4, la stratégie par les acteurs est mieux appropriée.

Le fait d’avoir découpé un projet en plusieurs sous-projets permet de faire cohabiter les deux stratégies. L’objectif principal est de mettre en place un plan adapté et efficace.

Après avoir choisi la tactique adaptée au profil du projet, il est bon de la formaliser, dans un document. Le plan d’actions correspondant sert de fil rouge au chef de projet.

Conseils :

  • Il est important de choisir la bonne stratégie en fonction de son projet.
  • Appliquer une stratégie par les acteurs pour des projets de profil 1 ou 2 est une perte d’efficacité. Elle l’alourdit sans amener de contrepartie positive.
  • Appliquer une stratégie par les tâches, sur des projets de profil 3 ou 4, est un risque majeur de déclenchement de conflits. La conséquence est de mettre une majorité d’acteurs dans le camp des « contres ». Le projet est alors dans une situation irréversible d’échec.

Valider la stratégie

Même si nous avons beaucoup parlé du chef de projet sur les actions précédentes, il n’est pas seul à travailler sur ces thèmes. Le commanditaire doit l’accompagner et le soutenir. À ce stade du projet, il est très important que le chef de projet et le commanditaire constituent déjà un binôme solide, il en va de la crédibilité du projet et donc de sa réussite.

Cette action permet de prendre du recul et de passer en revue chacune des tâches déjà étudiées. Le commanditaire et le chef de projet sont-ils en accord ? Y a-t-il des points à préciser ? Quelles sont les marges de manœuvre ? Cette stratégie est-elle cohérente avec la finalité du projet ? Le lien entre les méthodologies de conduite de projet et de management d’équipe projet est-il bien établi ? Les deux méthodologies sont-elles en phase ? Si certaines réponses à ces questions sont floues, il est bon de reprendre le travail et de clarifier les points nécessaires.

En validant la stratégie, le commanditaire et le chef de projet engagent individuellement et collectivement leur responsabilité. C’est un acte fort.

Conseils :

  • Prendre le temps de faire cet exercice permet de créer du lien entre le chef de projet et le commanditaire.
  • C’est l’occasion de mettre en œuvre, à l’échelle de deux personnes, certains concepts (développés un peu plus loin dans cet ouvrage) comme celui du développement d’une équipe performante par exemple.
  • Les points essentiels de cette validation sont la finalité du projet et la stratégie à mettre en œuvre.

Mettre en œuvre la stratégie par les tâches

La phase de préparation, en amont des tâches de réalisation, est prépondérante.

Le chef de projet identifie l’ensemble des tâches de fabrication du produit objet du projet.

Pour se sécuriser, il analyse les risques inhérents à cette production et prend en compte un certain nombre d’actions préventives. Celles-ci correspondent au niveau d’assurance qu’il souhaite prendre. Plus le projet est innovant et plus il apporte un soin particulier à ce travail. Il intègre ces nouvelles tâches à la liste des tâches déjà définies pour la fabrication elle-même.

Le chef de projet détermine ensuite la durée et la charge de chacune des tâches. Il définit l’ordonnancement et les liens entre elles.

Il analyse les compétences nécessaires à l’accomplissement de ces tâches. Il recherche les individus qui possèdent les savoir-faire indispensables à la bonne réalisation de chaque composant du produit.

Parallèlement, il répertorie l’ensemble des ressources matérielles et financières nécessaires à l’accomplissement des tâches.

Le chef de projet individualise alors les objectifs en associant les réalisateurs, les moyens et les tâches élémentaires.

Une fois ce travail de préparation effectué, il lance la phase de fabrication. Pendant toute la durée de réalisation, son travail consiste à s’assurer qu’il n’y a pas de dérive entre ce qu’il a planifié et ce qui se passe réellement. En cas d’écart, le chef de projet réagit immédiatement pour revenir au plan de route prévu.

Comme nous pouvons le constater, le projet se gagne pendant la phase de préparation. Donc, plus la planification prévisionnelle est de qualité, les moyens humains, matériels et financiers à la hauteur des enjeux du projet et moins la phase de réalisation pose de problème. Le chef de projet, en utilisant la stratégie par les tâches pour des projets de profil 1 et 2, se donne un maximum de chance de réussite dans son entreprise.

Conseils :

  • Mettre un maximum d’énergie du chef de projet sur la phase de préparation car c’est à ce moment-là que le projet se gagne.
  • Ne pas lésiner sur les moyens humains, matériels et financiers.
  • S’entourer des meilleurs experts métiers du produit à fabriquer.
  • Ne pas hésiter à faire appel à un spécialiste de la planification si nécessaire.

Mettre en œuvre la stratégie par les acteurs

Pour réussir cette stratégie, le chef de projet garde toujours en tête la finalité ultime du projet. Il se focalise en priorité sur les comportements des acteurs vis-à-vis du projet. Il dépense son énergie à rallier efficacement un maximum d’acteurs à la cause du projet. Le processus, pour réaliser les tâches, passe alors au second plan et les tâches, en elles-mêmes, viennent encore après.

Tout d’abord, le chef de projet identifie son premier noyau d’alliés. Il y fait entrer :

  • Les triangles d’or car, même s’ils sont « pour » le projet, ils ne suivent pas aveuglément le chef de projet. Ils définissent souvent mieux que lui le meilleur chemin à emprunter pour arriver au but en évitant les chausse-trapes. Le chef de projet n’en prend pas ombrage car il donne priorité à la finalité du projet.
  • Les hésitants potentiellement alliés. Ils sont les premiers acteurs à basculer dans le camp des alliés. Ils sont convaincus par les triangles d’or qui ont eu les mêmes doutes, à un moment donné, mais qui ont trouvé leurs propres arguments pour adhérer au projet. Ces arguments sont alors utilisés auprès des hésitants.

Nota bene : Les fidèles n’y entrent pas nécessairement car ils n’ont pas le recul nécessaire par rapport au projet pour voir les embûches potentielles.

Ce premier noyau formé, le chef de projet s’entretient individuellement avec chacun des membres. Il établit une synthèse des points positifs, des critiques et des conditions de ralliement. Il réunit le groupe à qui il présente cette synthèse ainsi qu’un projet remanié qui tient compte de celle-ci, tout en gardant la même finalité. Le projet n’est plus la solution du chef de projet mais devient la solution des membres du premier noyau d’alliés, cocréé à l’unanimité.

Le chef de projet accompagne alors ce premier noyau à s’engager sur ce nouveau chemin. Il donne suffisamment de visibilité à cette action et aux premiers résultats concrets obtenus par ces membres. Cela permet à l’ensemble des acteurs du projet d’en prendre conscience. L’objectif est de montrer que les premiers hésitants se sont ralliés au projet et ainsi encourager de nouveaux hésitants à venir rejoindre le groupe des alliés. Cette action a aussi pour but de faire passer les premiers passifs vers le camp des hésitants et ainsi créer une dynamique.

C’est le principe de la tache d’huile. De nouveaux résultats concrets, obtenus par les premiers alliés, encouragent de nouveaux acteurs à les rejoindre. L’objectif est de créer une dynamique collective suffisamment puissante pour que les passifs suivent le mouvement « naturellement ».

À partir du moment où les passifs se mettent à suivre les alliés, le projet est gagné. En effet, seuls les derniers opposants restent immobiles vis-à-vis du projet. À ce stade, ils n’ont plus d’autre choix que de se rallier ou de se démettre car leur énergie n’est plus suffisante pour contrecarrer le mouvement.

dynamique-strategie-acteurs

Conseils :

  • Mettre l’énergie du chef de projet sur la création de la dynamique de groupe et de sa pérennité.
  • Repérer individuellement les acteurs alliés qui alimentent cette dynamique collective.
  • Voir les acteurs non pas comme une masse statique mais comme un groupe d’individus en mouvement que le chef de projet est capable d’orienter via les alliés.
  • Appliquer la théorie de l’engagement. L’idée est de demander à des opposants au projet de s’engager par petites touches successives sur des actions concrètes sur lesquelles ils se sentent à l’aise. Ils finissent progressivement par adhérer au projet et devenir des alliés.
  • La stratégie par les acteurs est tout sauf une stratégie de consensus mou (partiel). En effet, le premier noyau d’alliés coélabore le meilleur chemin à suivre en coresponsabilité, et donc en pleine unanimité consciente. C’est le gage d’une équipe performante qui tient dans le temps.

Points clés

  • Quatre profils types caractérisent les projets en fonction de la complexité technique et de la complexité des relations humaines.
  • Ces profils types donnent le degré de difficulté de réalisation du projet.
  • Dans le cas d’un projet de grand degré de difficulté, essayer, si possible, de le scinder en plusieurs sous-projets. Le degré de difficulté de chacun d’eux est alors moindre.
  • Caractériser le profil du projet permet de choisir la stratégie adaptée au projet.
  • Les deux stratégies de base sont les suivantes : la stratégie par les tâches et la stratégie par les acteurs.
  • Bien entendu, il est important de savoir positionner le curseur stratégique entre ces deux approches en intelligence de situation.
  • La stratégie par les tâches privilégie la phase de préparation et plus particulièrement la planification détaillée des tâches et les ressources à mettre en œuvre pour les réaliser.
  • Le processus et le contenu sont premiers dans le cas de la mise en œuvre de la stratégie par les tâches.
  • La mise en œuvre de la stratégie par les acteurs se gagne en créant une dynamique collective, à partir d’un petit noyau d’individus choisis méticuleusement. Cette dynamique entraîne toutes les parties prenantes du projet. Le chef de projet laisse le premier noyau d’alliés codéfinir la meilleure route à suivre mais il garde en permanence le contrôle de la finalité ultime du projet.
  • Le sens prime sur le processus dans le cas de la mise en œuvre de la stratégie par les acteurs.

fa8dacca016e20530f4e21acbc456a9e-maep6-1631

Manager une équipe projet – 6e édition  – 8 étapes et 12 livrables pour accompagner son équipe dans la réussite d’un projet
Auteur : Yves SOTIAUX
Éditeur : GERESO ÉDITION
Nombre de pages : 243
Date de parution : 12 octobre 2017