Pourquoi notre sommeil est-il perturbé dans un nouvel environnement ?

Ce phénomène, baptisé « First Night Effect » (FNE), est une perturbation typique du sommeil.

Le FNE ne serait que la manifestation d’un hémisphère plus vigilant qui prendrait la responsabilité de surveiller l’environnement inconnu lors du sommeil.

En utilisant des techniques avancées de neuroimagerie, comme la polysomnographie, des chercheurs de l’université de Brown, aux États-Unis, ont constaté que la perturbation du sommeil implique une asymétrie interhémisphérique durant la phase profonde du sommeil. Ce degré d’asymétrie s’accompagnait d’un temps d’endormissement allongé. Non seulement, le sommeil est plus léger mais, comme nous le constatons nous-mêmes, il est également plus difficile à trouver.

Lors des expériences, une partie de l’hémisphère gauche est restée active pendant le sommeil en répondant à des stimuli externes. C’est ce phénomène qui cause des éveils fréquents au moindre bruit ou mouvement.

Un sommeil léger dans un environnement inconnu et potentiellement dangereux serait donc tout simplement lié à notre instinct de survie.

On retrouve cette particularité chez certains animaux comme les dauphins qui dorment tout en remontant de temps à temps à la surface pour respirer ou certains oiseaux migrateurs qui dorment tout en poursuivant leur voyage.

Du point de vue de l’évolution, ce phénomène s’explique parfaitement : lors d’une première nuit dans un environnement inconnu, les premiers hommes ne baissaient jamais leur garde sous peine de voir leur chances de survie diminuer drastiquement.

Par I. T

Transition énergétique : les compétences recherchées

Parmi ces nouvelles compétences particulièrement recherchées, on peut citer :

  • La connaissance du cadre réglementaire et des différentes normes environnementales ;
  •  Les logiques de l’écoconception, du recyclage et plus globalement de l’analyse du cycle de vie d’un produit ;
  • La connaissance fine de disciplines fortement liées à la problématique de l’énergie (électronique de puissance par exemple) ;
  • La maîtrise des technologies numériques, notamment pour la conception mais aussi dans le fonctionnement même des véhicules, des bâtiments ou des réseaux énergétiques (systèmes embarqués dans l’automobile, capteurs et compteurs intelligents dans le bâtiment, smart grids dans l’énergie…).

Les compétences évoluent aussi sous l’effet de nouveaux modes d’organisation du travail

Au-delà des compétences additionnelles à intégrer dans beaucoup de métiers en lien avec la transition énergétique, les modes de travail entre métiers connaissent également des évolutions. La transition énergétique implique en effet davantage de contacts transversaux entre métiers et un décloisonnement disciplinaire.

Ce constat est particulièrement prégnant dans le bâtiment, où les compétences à faire évoluer sont fortement liées à la capacité des différents métiers à travailler ensemble.

Plus globalement, la nécessité pour les ingénieurs et cadres d’adopter une approche davantage systémique et globale est mentionnée par beaucoup d’acteurs. Il s’agit pour eux de ne pas s’arrêter à des approches trop centrées sur des aspects techniques particuliers mais d’avoir une capacité nouvelle à gérer des interactions multiples et à s’ouvrir à d’autres dimensions : modélisation complexe des effets d’une activité sur son environnement (vision systémique), sensibilisation à l’économie circulaire, etc.

Quelques nouveaux métiers cadres se créent

L’étude réalisée par l’Apec confirme les constats dressés dans les différentes études existantes sur l’impact de la transition énergétique sur l’emploi : jusqu’à présent, la transition énergétique a généré peu de nouveaux métiers. Ainsi, la comparaison des offres d’emploi diffusées par l’Apec entre 2005 et 2014 dans les trois secteurs étudiés ne montre l’émergence de nouveaux métiers que dans quelques niches. Aussi, selon les experts interviewés durant l’étude, un faible nombre de nouveaux métiers sont aujourd’hui connus si l’on se projette à moyen terme. Les nouveaux métiers, qui sont apparus en lien avec la transition énergétique, relèvent surtout de la médiation et de l’accompagnement.

Ainsi, parmi les métiers repérés dans les offres diffusées par l’Apec en 2014 (alors qu’ils n’apparaissaient pas en 2005), on peut citer le chargé de mission énergie. Recruté notamment dans les collectivités territoriales (chambres consulaires ou associations), le chargé de mission énergie accompagne les projets de développement des énergies renouvelables et de maîtrise de l’énergie sur un territoire, que ce soit au niveau des entreprises ou des particuliers.

On peut également citer le métier d’energy manager. Embauché par un bureau d’études ou directement au sein d’une entreprise ou d’une administration, il a pour rôle d’optimiser les consommations énergétiques d’une entreprise, tout en assurant le confort des occupants : détection des surconsommations, gestion des achats d’énergie, études pour optimiser la consommation d’énergie, communication auprès des occupants, etc.

Source : Etude menée par l’Apec « Transition énergétique : Impacts sur les métiers cadres »

La batterie domestique prend son envol

Mettre fin au règne de la batterie domestique au plomb, voici le nouveau rêve d’Elon Musk, PDG de Tesla. Le nom donné à cette batterie lithium-ion de 6,4 kilowattheures (kWh), née en avril 2015 : le Powerwall. Élégante, cette batterie peut-être accrochée au mur et prend moins de place qu’un chauffe-eau électrique (1,3 m de haut, 86 cm de large et 18 cm de profondeur).

tesla-powerwall

Cette batterie a deux missions : stocker le surplus d’électricité produit par vos panneaux solaires la journée et stocker de l’électricité du réseau aux heures creuses. Ainsi, l’électricité produite par vos panneaux ne sera plus injectée dans le réseau mais sera autoconsommée lorsque vous en aurez besoin. Si votre production solaire ne couvre pas l’ensemble de votre consommation, la batterie pourra également se recharger aux heures creuses, pour restituer son électricité durant les heures pleines. Pour les consommateurs les plus gourmands, il est possible d’associer jusqu’à 9 Powerwall, pour atteindre 57,6 kWh. La batterie est prévue pour une utilisation de –20 à 50°C, avec un rendement de 92,5 %.

Pour les entreprises, Tesla propose le Powerpack, une batterie d’environ 3 m3 qui stocke 100 kWh d’électricité.Vendu à 25 000 dollars l’unité, là encore le produit est modulaire : Elon Musk envisage des parcs de plusieurs centaines, voire de plusieurs milliers de Powerpack.

Un produit prometteur, mais pas encore rentable pour tout le monde

A ce jour, le Powerwall est loin d’être rentable partout. Aux Etats-Unis, il est vendue 3.000 dollars. Il faut ajouter le prix de l’installation, la pose d’un onduleur pour convertir le courant continu en courant alternatif. Le prix de l’installation complète peut alors monter jusqu’à 7.000 dollars.

Pour que le Powerwall se démocratise dès aujourd’hui, il faudrait que le coût de l’électricité du système autonome sur l’ensemble de sa durée de vie soit comparable au coût de l’électricité sur le réseau.

Mais l’intérêt de cette batterie ne doit pas être analysé que sous l’angle de la rentabilité immédiate. Car elle permet notamment d’alimenter vos appareils, sans interruption, en cas de coupure du réseau. Elle pourrait également assurer l’autonomie énergétique des sites isolés, sans batterie au plomb et sans cuve au fioul. Par ailleurs, le coût de l’électricité devrait continuer à augmenter et le prix des batteries diminuer grâce à l’augmentation des volumes de production. De quoi rendre ces batteries domestiques de plus en plus compétitives. C’est notamment le défi de l’usine de Tesla Gigafactory dans le Nevada, siège de la production des Powerwall. Enfin pour lancer le marché, ces batteries pourraient bénéficier d’aides à l’achat, comme c’est le cas pour de nombreux produits permettant une meilleure efficacité énergétique ou ayant un intérêt environnemental certain.

Des concurrents s’attaquent à ce marché

Preuve que le marché est prometteur, Schneider Electric et Mercedez-Benz ont récemment annoncé la commercialisation de batteries domestiques lithium-ion pour 2016. Comme chez Tesla, le prix de ces batteries devrait avoisiner les 500 dollars par kWh.

Composée de « lames » d’une capacité de base de 2 kWh, la batterie de l’industriel français, baptisée EcoBlade, est entièrement modulable. Plusieurs lames peuvent ainsi être additionnées pour s’adapater à différentes utilisations : batterie domestique mais également data-centers, immeubles, villages ou campus. Outre les pays développés, Schneider mise sur les pays émergents et en développement. Ces pays commencent à produire des énergies renouvelables, mais le réseau électrique y reste peu fiable. Le développement de batteries domestiques permettra d’y limiter les risques de coupures prolongées et aura des bénéfices environnementaux importants. La « Energy Storage Home » du groupe allemand est également modulaire : les clients pourront assembler jusqu’à huit modules de 2,5 kWh pour atteindre un total de 20 kWh.

Début février, Elon Musk a réagi à ces annonces en promettant une deuxième version du Powerwall pour juillet/août 2016. Pour le moment, on sait simplement qu’elle apportera « un nouveau changement radical en termes de possibilités ». Cette nouvelle version permettra-t-elle d’assurer un véritable retour sur investissement ? La guerre des prix est lancée.

Par Matthieu Combe, journaliste scientifique

Tramways connectés : essai grandeur nature à Bordeaux

Une première mondiale technologique, portée par Keolis Bordeaux Métropole, est en expérimentation jusqu’au 30 avril 2016 sur la ligne C du tramway de Bordeaux Métropole. Grâce au projet Connectram, les voyageurs sont projetés dans un univers en réalité augmentée entre les stations Tauzia et La Belle Rose. Un simple regard sur les vitres de ce tram un peu spécial leur apporte une vision en 3D du futur quartier Euratlantique ainsi que des informations contextuelles, géo-localisées et multimodales intégrées en temps réel sur les écrans (vélos disponibles, accès aux parcs de stationnement, horaires des bus, trams et des trains en correspondance).

Dans le cadre de ce projet, la société Axyz a réalisé la production numérique et l’intégration des éléments architecturaux ainsi que la mise en scène des éléments 3D,  tenant compte de divers paramètres tels que la position du soleil. Elle a également conçu l’application multimodale en assurant l’affichage d’informations de mobilité en temps réel et d’informations événementielles et culturelles.

Pour sa part, l’institut List de CEA Tech, grâce à son expertise en localisation 3D d’objets dans des environnements complexes et en reconstruction temps réel de trajectoires de capteurs en mouvement, a développé une application de réalité augmentée dans le tramway. La technologie a été adaptée aux contraintes du projet Connectram afin d’assurer, en temps réel et avec un haut niveau de précision et de fiabilité, le calcul de la position et de l’orientation du tramway dans la ville. Le système est en expérimentation libre jusqu’au 30 avril 2016.

Source : cea

Les projets fous de la 3D

Tout faire avec le polyuréthane en 3D

L’impression 3D serait-elle aussi une solution de construction d’avenir ? Tandis que les matériaux ne cessent d’évoluer, les techniques, elles, ne restent pas non plus à la traîne. L’impression 3D étonne depuis quelques années. Ce système a déjà fait beaucoup parler de lui, et ce ne pourrait être qu’un début…

Permettant la création d’objets en relief en polyuréthane, connu pour sa résistance et son pouvoir étanche, cette solution vient de franchir un pas supplémentaire avec la conception d’une mini-maison. L’exploit est français et pourrait marquer le début d’une nouvelle ère. En effet, cette réalisation de 9 m² a nécessité seulement 20 min, ouvrant d’ores et déjà des perspectives plus étendues. Pour cela, il a été créé une imprimante spéciale équipée d’un bras polyarticulé, permettant aussi de « construire » dans le vide.

Plusieurs projets à l’étude, partout dans le monde

Cette nouvelle idée de la construction ne devrait pas en rester là. En effet, plusieurs projets à travers le monde sont également à l’étude. L’un des plus importants est celui de Dubaï qui envisage d’accueillir un immeuble de bureaux en 3D entièrement conçu selon cette technique. La structure de 185 m² devrait être créée élément par élément, avant d’être assemblée directement sur site. Bilan des travaux, seulement quelques semaines au lieu de plusieurs mois. Pour y parvenir, c’est un nouveau prototype d’imprimante qui devrait être créé, de près de 6 m de haut, soit l’équivalent d’une maison à étage.

Autre projet montrant la pluralité des utilisations de ce concept, cette fois plus proche de nous : la création d’un pont à Amsterdam, à l’aide d’une imprimante 3D robotique. Le projet, qui devrait être lancé en 2017, aura un temps de réalisation de deux mois. Ces projets originaux pourraient ainsi donner un autre ton à la construction au cours des prochaines années et même décennies…

Source : eti-construction

EPR de Flamanville : La cuve sous surveillance

C’est par un communiqué commun, signe du rapprochement, qu’EDF et Areva ont annoncé le lancement de tests complémentaires sur les deux pièces de fonderie étudiées. Les premières analyses effectuées sur deux pièces analogues à celles de Flamanville 3 ont montré, sur l’une d’entre elles, une extension du phénomène de ségrégation carbone au-delà de la mi-épaisseur.

La présence d’une zone présentant une concentration importante en carbone conduit à des valeurs de résilience mécanique plus faibles qu’attendues et pose des problèmes de sûreté. En effet, la cuve d’un réacteur à eau sous pression est un équipement particulièrement important pour la sûreté. Elle contient le combustible et participe à la seconde barrière de confinement de la radioactivité. C’est pourquoi, l’Autorité de sûreté nucléaire (ASN) avait demandé à Areva en avril 2015 de réaliser une nouvelle campagne d’essais approfondie.

Malgré l’inquiétude que ces résultats font peser sur le projet de Flamanville 3, pour EDF et Areva, « ces premières analyses ont également permis de mieux caractériser la variabilité des principaux paramètres de fabrication entre les différentes pièces ». Et de proposer d’étendre le programme d’essais à une troisième pièce « pour renforcer la robustesse de la démonstration ».

Une démonstration attendue pour la fin de l’année par l’ASN qui aura la lourde tâche de valider ou non la qualité de la cuve (et du couvercle) du réacteur. Une réponse négative du gendarme du nucléaire serait purement catastrophique pour EDF, l’image de l’EPR et de la filière nucléaire dans son ensemble. La question de la poursuite de chantier serait clairement posée car il est déjà achevé à hauteur de 80%, et qu’il faudrait déconstruire pour ensuite tout reconstruire. Une perspective inimaginable pour un chantier dont la facture (10,5 milliards d’euros) et le délai de fabrication ont déjà triplé.

Cuve-du-reacteur-EPR_fullscreen
Cuve du réacteur

Par Romain Chicheportiche

Les intentions de mobilité progressent chez les cadres

Des cadres plus optimistes

Après un point bas atteint fin 2014 (53 %), l’optimisme des cadres quant à leur avenir professionnel connaît un regain (57 %), sans pour autant retrouver le niveau d’il y a quelques années. D’ailleurs, ils sont plus nombreux qu’il y a un an à anticiper des perspectives d’évolution positives : 34 %, soit 6 points de plus.

Des souhaits de mobilité plus fréquents

Pour 2016, rester dans son entreprise actuelle sans changer de poste demeure l’intention la plus fréquemment exprimée par les cadres, même si elle connaît un net recul en un an à 43 %. A l’inverse, l’autre option importante, qui, elle, est en progression, est d’entreprendre une mobilité externe, qui atteint 29 %. 10 % des cadres en poste envisagent une mobilité interne.

Un réseau professionnel à entretenir

Ces souhaits plus fréquents de mobilité transparaissent dans les stratégies professionnelles que les cadres comptent adopter au court de l’année. S’ils souhaitent avant tout prendre du recul et profiter de la vie (50 %), ils sont davantage que l’an dernier à vouloir enrichir leur réseau professionnel (46 %), première étape vers une éventuelle mobilité, qu’elle soit interne ou externe.

Faire le point sur ses compétences

Dans la liste des actions que les cadres jugent utiles au cours des prochains mois, l’intérêt pour la formation continue se renforce. Les formations courtes, qui permettent d’être plus opérationnel dans son emploi, voire de renforcer son employabilité en cas de difficultés, sont toujours en tête des citations, et elles le sont même de plus en plus à 77 %. Mais il est surtout à noter la forte progression du bilan de compétences avec 46 % de citations.

Source : Apec

Montée du niveau des mers : une étude réévalue les risques à la hausse

Cette étude montre que si les émissions de gaz à effet de serre se poursuivent au même rythme qu’actuellement, elles pourraient entraîner un refroidissement de la surface de la partie Ouest de l’océan Antarctique, et un réchauffement des régions tropicales. Ces déséquilibres engendreraient de nombreuses répercussions : augmentation des précipitations, bouleversement des courants marins… des répercussions sur des phénomènes climatiques qui finissent par impacter et augmenter la fonte des glaces antarctique (calotte et glaces flottantes, avec un risque de désintégration totale de ces dernières).

Ces mécanismes expliquent certaines caractéristiques des climats passés, comme le contrôle exercé par la circulation de l’océan Antarctique sur la concentration atmosphérique en dioxyde de carbone, et ainsi sur le climat global et le niveau des mers. Ils sont aussi essentiels pour comprendre les variations climatiques au cours de la dernière période interglaciaire, lorsque le niveau des mers était de 6 à 9 mètres au-dessus du niveau actuel, avec des indications de tempêtes très violentes, alors que la température moyenne à la surface de la Terre était de moins de 1°C plus chaude qu’aujourd’hui. La fonte des glaces, en agissant sur la circulation océanique de l’Océan Atlantique, modifie les gradients de température de l’atmosphère, ce qui agit sur l’intensité des tempêtes.

La poursuite d’émissions de gaz à effet de serre au cours de ce siècle pourrait donc entraîner une augmentation de l’intensité des tempêtes et une accélération de la montée du niveau des mers, qui pourrait atteindre plusieurs mètres en 50 à 150 ans.

Ce résultat complète une autre étude, portant sur la vulnérabilité de la calotte antarctique, montrant qu’il faut revoir fortement à la hausse le risque de montée du niveau des mers au-delà de 2050 dans les scénarios de non diminution des rejets de gaz à effet de serre (Pollard – Conto, Nature, 2016). Cette dernière étude apporte des éléments nouveaux obtenus grâce à l’un des modèles les plus sophistiqués de l’Antarctique et testé pour des périodes passées.

Source : CEA

Expérience#3: «ça ne marche pas»

Pour anticiper le prochain départ à la retraite de 3 cadres supérieurs (Bureau d’études, R&D, Commerce) détenteurs de compétences clés de l’entreprise, la Direction Générale de l’établissement français, composé de 500 salariés, d’une grande entreprise internationale de l’énergie me demande de l’accompagner dans la mise en place d’une démarche favorisant le transfert d’expérience. Pour bénéficier des meilleures conditions de transfert, la DRH demande aux trois experts de nommer les dix principaux salariés (les disciples) avec lesquels initier cette démarche. Sans aucune concertation, chaque expert fournit sa propre liste. Ces listes font apparaître 25 collaborateurs au lieu des 10 personnes clés envisagées au départ. Ébahis, perplexes et embarrassés, le tiers de ces « heureux » élus demande ce qui a bien pu leur valoir cette nomination. Ce qui, aux yeux des experts, était considéré comme une marque de distinction, apparaissait, à cette poignée de disciples déconcertés, comme étant une injuste inculpation à des corvées supplémentaires et inutiles.

Informés de cette situation, les experts soulignent, chacun de leur côté et avec des arguments très rationnels, la légitimité de leur liste et maintiennent leurs prescriptions. Ignorant ma proposition, aucun ne juge utile de lancer une concertation ni même de dialoguer avec les « lauréats d’office ».

Devant cette difficulté, et toujours sans aucune concertation, le DRH impose une quatrième liste préférant, à partir des listes précédentes, les personnes ayant des responsabilités managériales et ajoutant d’autres noms pour constituer une liste finale de 10 personnes. Aucun des 3 experts ne manifeste un quelconque sentiment de réprobation. La logique de la DRH semble acceptée.

Au cours des premières séances de travail, les participants ont élaboré une liste de 30 compétences critiques.

Les 3 critères retenus pour classer ces priorités sont :

  1. VAS: Valeur Ajoutée Stratégique de la compétence
  2. RP: Risque de Perte de la compétence
  3. SA: Spécificité (pas possible d’acquérir ce savoir par une autre formation)

Chacun de ces 3 critères a été  examiné  selon sa criticité (échelle 1 à 4 : 1=Négligeable – 2=Modéré – 3=Important – 4=Considérable)

Les participants ont été invités à échanger entre eux à chaque fois qu’un écart supérieur ou égal à 2 points était constaté sur les évaluations individuelles des criticités. Le niveau de criticité final a été établi en faisant la moyenne des évaluations individuelles. Nous n’avons retenu que les projets ayant une criticité supérieure ou égale à 3 (important).

Au fur et à mesure de la mise en place du programme de transfert des compétences critiques, je remarque deux types de comportements. Les plus jeunes des participants, avides de connaissances, développent une attitude constructive, adoptent volontiers les concepts expérimentés en séances de formation et se les approprient en les adaptant pour favoriser le processus de transfert. Les plus anciens des participants par contre, parmi lesquels les 3 experts porteurs des savoirs à transférer, développent une forte résistance. Critique systématique du programme, de la direction, de la DRH, des contenus, de la durée et de la fréquence des séances de travail, etc. Aucun engagement n’est jamais tenu et les anciens n’assistent que très épisodiquement aux séances de travail collectif même lorsque celles-ci avaient été planifiées longtemps à l’avance. Tentative répétée de prise de contrôle du projet par l’expert bureau d’études. Chaque proposition du consultant est savamment contrée et redéfinie. Confrontation compétition entre l’expert R&D et l’un de ses collaborateurs très lourdement diplômé, au sujet de détails opératoires. Posture de suiveur de l’expert commercial qui relève rarement les objections de ses disciples potentiels laissant ainsi passer de précieuses opportunités de transfert d’expérience.

Aucune des rares les actions planifiées par les membres ne sont menées à terme. Chaque opportunité de transfert est soigneusement évitée.

La DG n’apparaît plus du tout après le lancement du programme et la DRH reste sourde aux compte rendus que je lui transmets régulièrement.

Qu’aurait-il fallu faire pour donner plus de chances de réussite à ce projet ?

  1. Le DG aurait dû obliger les experts à se mettre d’accord sur une liste commune
  2. La DRH aurait dû élargir le périmètre et garder la liste des 25 disciples proposés au départ
  3. Constatant l’absence de volonté de collaboration du management, le consultant aurait dû se désengager de ce projet.

N’hésitez pas à nous donner votre avis via le post d’un commentaire dans la zone prévue à cet effet à la suite de l’article .

Par Dino Ragazzo

12 expériences de management réelles

  1. Expérience #1 : « Je ne vaux plus rien »
  2. Expérience #2 : « Je sais ! Je sais ! Du savoir à la compétence »
  3. Expérience#3: « ça ne marche pas« 
  4. Expérience#4 : Managers attention : le succès rend aveugle !
  5. Expérience#5 : Passe-droits, privilèges et courage
  6. Expérience#6 : Justice pour les collaborateurs, solitude pour les managers
  7. Expérience#7 : Le soi du Gestalt consultant comme outil d’observation des processus
  8. Expérience#8 : Perfectionnisme : une coûteuse erreur de management

Lancement de Tara PACIFIC (2016-2018) : une nouvelle expédition au coeur du corail

tarapacific_webAlors que les récifs coralliens couvrent moins de 0,2% de la superficie des océans, ils réunissent près de 30% de la biodiversité marine connue. Leur santé est donc cruciale pour la diversité des espèces qu’ils abritent mais aussi pour l’humanité. Alors qu’une grande partie des récifs tend à disparaître ces dernières années, étudier cet écosystème fragile et menacé devient une priorité.

D’est en ouest et du sud au nord, Tara parcourra l’océan Pacifique pour découvrir la diversité des récifs coralliens et mieux appréhender leurs capacités d’adaptation aux changements climatiques.Du canal de Panama à l’archipel du Japon (2016-2017), puis de la Nouvelle Zélande jusqu’en Chine (2017-2018), la goélette croisera 11 fuseaux horaires à travers l’océan le plus vaste de la planète, joignant notamment les terres insulaires et les récifs les plus isolés de la planète.

Une approche inédite de la biodiversité des récifs

Le caractère unique de cette expédition consiste tout d’abord en son approche « transversale » d’une zone géographique très étendue, en l’occurrence le Pacifique, où se concentre plus de 40 % des récifs coralliens de la planète. Une telle approche n’avait encore jamais été réalisée jusqu’à présent à cette échelle.

Selon Serge Planes, chercheur CNRS et directeur scientifique de l’expédition, « Tara Pacific tentera de dévoiler la biodiversité d’un récif, à la fois génomique, génétique, virale ou bactérienne, pour la comparer à celle de la masse d’eau qui l’entoure. Le but est de se faire une idée réelle de la diversité globale d’une colonie corallienne. » Elle permettra également d’apporter de nouvelles connaissances sur le rôle encore inconnu joué par les paramètres biologiques, chimiques ou physiques dans la vie des colonies coralliennes et la capacité de ces dernières à s’adapter aux changements environnementaux.

L’expédition Tara Pacific traversera un très large gradient de biodiversité qui atteindra son maximum au « Triangle de corail » en Asie du Sud-Est. Au cours de l’expédition, quarante archipels seront étudiés de façon identique pour appréhender les variations de la biodiversité à travers trois espèces récifales : deux coraux et un petit invertébré de la famille des hydraires.

Par une approche comparative et interdisciplinaire, les scientifiques tenteront de remonter dans le passé récent des colonies coralliennes, d’observer l’évolution contemporaine des récifs et d’en envisager le futur, notamment à travers des modélisations.

Outre l’état de santé du récif et sa biodiversité à différents niveaux, l’équipe scientifique s’intéressera aux capacités de résistance, d’adaptation et de résilience de ces écosystèmes. Un dernier axe d’étude portera sur les éventuelles applications de la biologie corallienne pour la recherche médicale.

Sensibiliser et partager les enjeux environnementaux

« Si la communauté scientifique a besoin de ces nouvelles données, les acteurs locaux et internationaux aussi. Tara contribuera à mieux comprendre les enjeux qui touchent ces berceaux de biodiversité que sont les récifs et qui importent tant pour l’avenir des populations notamment dans les petites îles » indique Etienne Bourgois, président de la Fondation Tara Expéditions.

La Fondation Tara Expéditions profitera de cette expédition pour interpeler les acteurs politiques et le monde économique, sensibiliser la société aux enjeux écologiques les plus urgents ainsi qu’aux problématiques rencontrées par les populations qui dépendent de la bonne santé de l’océan. De nombreuses escales dans le Pacifique et en Asie permettront de partager avec le plus grand nombre, petits et grands, ces enjeux environnementaux.

Etapes majeures – Panama, Malpelo (Colombie), Ile de Pâques, Papeete (Polynésie Française), Iles Cook, Samoa, Wallis et Futuna, Iles Marshall, Micronésie, Mariannes, Japon, Taïwan, Fidji, Nouvelle Zélande, Nouvelle Calédonie, Papouasie Nouvelle Guinée, Philippines, Chine, Hong Kong, Corée du Sud, …

Partenaires majeurs de l’expédition – agnès b., Fondation Prince Albert II de Monaco, Serge Ferrari, Fondation Véolia, BillerudKorsnäs, Lorient Agglomération, Région Bretagne – CNRS, Paris Sciences et Lettres, Centre scientifique de Monaco (CSM), CEA, EMBL, Fonds Français pour l’Environnement, Unesco-Commission Océanographique intergouvernementale

Source : cnrs

Ingénieurs, informaticiens… ça recrute !

Dans un contexte plutôt optimiste (les intentions de recrutements progressent au global de 5,1%), l’industrie présente elle aussi de bonnes perspectives d’emploi : +2,6% de ses intentions d’embauche. Dans la continuité de 2014 et 2015 où la croissance des intentions d’embauche avait respectivement été de +6,% et 4,3%. Mais ce sont les industries agroalimentaires qui en représentent une bonne part : 36% des perspectives d’embauche industrielle, notamment via des contrats saisonniers.

L’industrie propose des emplois stables

De tous les secteurs, c’est l’industrie qui proposent, en proportion, le plus de perspectives d’emplois stables, soit suite à des départs définitifs (35,9% des intentions de recrutements) soit par la création de nouvelles activités (19,9% des intentions).

Ingénieurs très recherchés

Pour la première fois en 2016, les ingénieurs, les métiers de la R&D et de l’informatique font partie des 15 métiers les plus recherchés. Pour cet ensemble les projets de recrutements sont évalués à plus de 31500 emplois (dont seulement 1,7% d’emplois saisonniers). Cela représente une augmentation de plus de 5800 par rapport à 2015.

Pénurie d’ingénieurs

Les difficultés d’embauche pour les ingénieurs et informaticiens sont toujours à un niveau élevé. Pôle Emploi estime ainsi que 62,9% des intentions d’embauche auront du mal à être concrétisées en raison de la pénurie de main d’œuvre qualifiée. Une proportion en augmentation de 4,1% par rapport à 2015, mais qui reste légèrement inférieure à la moyenne sur 3 ans (2012-2015).

La formation pour pallier le problème ?

De manière globale, la formation de salariés en interne ou de candidats est une option de plus en plus envisagée par les employeurs pour faire face à des pénuries. « Dans l’industrie, plus de 8 établissements sur 10 se disent prêts à former leurs candidats ou salariés », précise Pôle Emploi dans son rapport.

L’informatique toujours porteuse

Parallèlement à l’enquête de Pôle Emploi, l’Apec a publié une étude sur le marché de l’emploi cadre dans les activités informatiques, nous vous en avions parlé en février dernier : L’informatique, un secteur toujours en tension

En 2016, les activités informatiques et télécoms seront encore le premier secteur recruteur de cadres. Les prévisions portent un chiffre d’embauche entre 38800 et 41800 alors que déjà en 2015 plus de 37000 embauches ont été réalisées. Et les places sont plutôt faites pour les jeunes : parce qu’il y a pénurie de profils avec beaucoup d’expérience et parce que les jeunes maîtrisent souvent mieux les dernières évolutions technologiques. Ainsi, en 2015, 64% des recrutements de cadres en informatique et télécommunications concernaient des débutants (moins d’un an d’expérience) ou des cadres peu expérimentés (moins de 5 ans d’expérience).

Par Sophie Hoguin

Peabody : Le géant du charbon en faillite

« C’était une décision difficile, mais c’était la bonne pour Peabody. Ce processus nous permettra de renforcer nos liquidités, de réduire notre dette, et de construire, sur nos réussites de ces dernières années, les fondations d’une stabilité et d’une réussite de long terme », a indiqué Glenn Kellow, le directeur exécutif dans un communiqué. Mais avant de retrouver d’éventuels lendemains qui chantent, le groupe américain va devoir faire face à une dette estimée à 50 milliards de dollars.

Echec australien

Les difficultés de Peabody s’expliquent en partie par la baisse continue des cours du charbon depuis deux ans. La tonne s’échange aujourd’hui autour de 40$ contre 60$ auparavant. Une baisse des cours qui s’explique notamment par une consommation asiatique, et notamment chinoise, moins élevée que prévue en raison de la crise économique de 2008, qui continue à faire sentir ses effets et aux mesures de lutte contre la pollution adoptées par Pékin.

Mais la baisse des cours (qui est loin d’être aussi violente que celle du baril du brut) n’est pas la seule responsable. Comme beaucoup d’autres, Peabody n’a pas anticipé la longueur de la crise et l’impact des politiques d’austérité sur l’activité économique mondiale. Pire, Peabody a consenti des investissements très lourds dans cette période incertaine. Ainsi, le groupe américain a acquis l’australien Macarthur en 2011 pour la bagatelle de 5,1 milliards de dollars, à travers un montage juridico-financier (LBO) s’appuyant essentiellement sur une émission de dette. Ces actifs devaient permettre à Peabody de se renforcer sur le marché du charbon de sidérurgie. Mais là encore, le ralentissement économique mondial a rendu cette opération très coûteuse. Sur la seule année dernière, la compagnie a passé pas moins de 700 millions $ de dépréciations sur ses actifs australiens.

L’affaire Peabody fait la Une des quotidiens économiques car l’envergure de cette faillite impressionne. Mais son histoire est finalement la même que ces dizaines de compagnies indépendantes qui ont mis la clé sous la porte. Selon les données de gouvernement américain, c’est 45% de la production de charbon de l’Oncle Sam qui se serait ainsi volatilisée en 2014.

Romain Chicheportiche

Scandale pétrolier en Italie

Tempa_Rossa_Italy_Hydro
Tempa Rossa

L’affaire est partie d’écoutes téléphoniques dans lesquelles Federica Guidi, ministre italienne de l’Industrie, confiait à son concubin, Gianluca Gemelli, qu’un amendement serait voté dans la prochaine loi budgétaire pour favoriser le projet Tempa Rossa mené par la Major française Total dans la région de Basilicata, (sud), et dans lequel ce dernier a des intérêts en tant que sous-traitant. Un contrat de 2,5 millions d’euros aurait été à la clé, selon El Economista. Face au soupçon de conflit d’intérêts, la ministre est poussée à la démission. Ce scandale ne pouvait pas plus mal tomber, alors que les Italiens sont appelés ce dimanche à un référendum sur les concessions pétrolières.

Pour ou contre ?

L’objet du scrutin porte sur une loi qui proroge automatiquement les concessions pétrolières jusqu’à épuisement des gisements. Une anomalie réglementaire au regard des pratiques internationales qui prévoit en général plutôt des concessions d’une quarantaine d’années avec diverses modalités de partage de la production. Le gouvernement misait sur une abstention suffisante (au moins 50%) pour rendre le referendum sans conséquence. Une hypothèse qui perd en crédibilité à mesure que de nouvelles informations sont révélées dans la presse. Ainsi, la compagnie pétrolière nationale, Eni, est soupçonnée d’avoir falsifié des données pour minimiser l’impact de la pollution d’un gisement situé dans la même région. Ces affaires ont mis un coup de projecteur sur le référendum qui pourrait être le début d’un parcours du combattant pour Matteo Renzi.

Reforme constitutionnelle

Ce scandale n’est pas le premier qui ternit l’image du fringant chef d’Etat italien. Fin 2015, le gouvernement a dû affronter une motion de censure suite à des soupçons, une nouvelle fois, de conflit d’intérêts après le sauvetage de quatre banques coopératives. Il s’est avéré que le vice-président de l’une d’entre elles n’était autre que le père de Maria Elena Boschi, la ministre italienne des Réformes… Matteo Renzi a dû monter au front pour sauver sa protégée expliquant : « Il n’y a aucun conflit d’intérêt dans cette affaire, mais la tentative de sauver des millions de comptes courants », s’est-il défendu. Et pour cause, cette dernière tient un rôle décisif dans le gouvernement italien : mener la réforme constitutionnelle prévue cet automne. Elle consiste notamment à réduire les pouvoirs du Sénat en l’orientant vers un modèle de Chambre des régions, et de simplifier le processus législatif. Une mutation du modèle politique italien qui n’est pas sans faire grincer des dents. Le Premier ministre a clairement annoncé qu’il recevrait le résultat de ce référendum comme un plébiscite pour ou contre son gouvernement. Un moyen de mettre la pression sur ce qu’il considère comme le fer de lance de son mandat. Affaire à suivre…

Par Romain Chicheportiche

Ariane 6 dans les starting-blocks

L’agence spatiale et les industries aéronautiques européennes ont lancé le programme Ariane 6 en décembre 2014. Objectif : garantir l’accès à l’espace pour l’Europe à un prix compétitif et sans que le secteur public ne supporte toute la facture. Il faut dire que la concurrence sur les lanceurs est devenue féroce : il faudra notamment pouvoir faire face à des acteurs comme l’américain Space X qui confirme la fiabilité de son lanceur Falcon 9 et voit son projet de lanceur réutilisable prendre forme (l’entreprise a réussit à poser le 8 avril dernier le premier étage sur une barge en mer). C’est pourquoi, c’est désormais les coûts de développement et d’exploitation qui guident les choix technologiques et organisationnels dans les projets de nouveaux lanceurs européens.

Pas de révolution pour les propulseurs

ASL (Airbus Safran Launchers), maître d’oeuvre a dévoilé les options technologiques proposées qui seront fournies à l’ESA à la fin du mois d’avril pour validation définitive en septembre prochain. Ariane 6 est un lanceur qui répond aux attentes du marché des satellites de masse moyenne (jusqu’à 5 tonnes) et de masse lourde (jusqu’à 10,5 tonnes) en orbite géostationnaire. Il complète l’offre proposée par Vega, opérationnelle depuis 2015 et qui est destinée aux petites charges. Ariane aura 3 étages, le premier à propulsion solide modulaire : équipé de 2 ou 4 boosters P120 selon la charge à mettre en orbite. Ces boosters P120 sont communs avec ceux de Vega C, l’évolution de Vega actuellement en conception. Le deuxième étage utilisera une propulsion à ergols cryogéniques (hydrogène et oxygène) sur le moteur Vulcain 2 utilisé par Ariane 5 et un peu amélioré. Le troisième étage sera bâti sur celui d’Ariane 5 ME (Mid-Evolution), une version d’Ariane 5 évoluée qui fait la transition avec Ariane 6. Il utilisera le moteur Vinci à propulsion cryogénique en cours de développement (test prévu courant 2018). Un moteur qui peut redémarrer plusieurs fois, permettant des manœuvres orbitales complexes pour installer deux satellites à des orbites différentes par exemple.

Utiliser des composants du marché

Pour limiter les coûts, l’idée c’est de trouver sur les marchés de pointe comme l’aviation civile, la téléphonie ou l’automobile,  les composants utiles au lanceur sans avoir à les fabriquer spécifiquement. Et si la structure globale d’Ariane 6 est calquée sur Ariane 5 et Vega pour une fabrication en série, un gros travail d’innovation est fourni sur les matériaux et les techniques de fabrication de certaines pièces (bobinage de carbone à la place du métal sur les corps de propulseurs, soudure par friction-malaxage à la place de la soudure TIG / impression 3D etc.).

Le terrain industriel déjà préparé

Toute la recherche et l’industrialisation d’Ariane 6 pilotée par ASL se fait  via une organisation en mode coopératif et ouverte : les ingénieurs des différents partenaires (Cnes, Air Liquide ou encore Sabca ou Ruag) partagent un même plateau de travail aux Mureaux (78) et les modifications apportées par les uns et les autres apparaissent sur une maquette numérique commune. ASL a aussi déjà préparé la production industrielle en regroupant les fabrications de manière stratégique (pièces métalliques en Allemagne avec MT Aerospace, pièces composites en Espagne par Airbus). Le terrain de 20 000m2 où sera édifié le bâtiment d’assemblage est prêt. La première pierre est prévue fin 2016 et la livraison en 2017. Et cette fois, toute la chaîne de fabrication-montage est prévue à l’horizontale – ce qui évitera  le travail en hauteur comme sur Ariane 5. De son côté, le CNES a déjà entamé l’excavation pour le site de lancement et le nouveau pont de lancement est à l’étude afin que tout soit opérationnel en 2019 pour les premiers tests avant le vol inaugural prévu en 2020.

Incertitudes sur l’entité ASL

Si tout le tissu industriel est prêt, il reste encore à passer quelques difficultés administratives : d’une part la coentreprise ASL (qui comptera 8000 salariés) attend encore une réponse des services administratifs concernant certains transferts de capitaux et d’autre part la Commission européenne a ouvert une enquête sur le projet d’ASL d’acquérir 74% du capital d’Arianespace. Opération qui pourrait s’avérer contraire au règlement européen sur les concentrations. Réponse seulement mi-juillet 2016. Deux décisions qui empêche pour l’instant ASL d’aller plus avant dans certaines phases d’Ariane 6.

Sophie Hoguin

Le Venezuela au bord du gouffre électrique

Selon certains ingénieurs vénézuéliens, le pays serait à moins d’un mois d’un black-out généralisé. Le barrage hydroélectrique d’El Guri, du nom du lac éponyme, est la principale source de génération électrique du pays. D’une capacité de 10 235 MW (soit près de 6 EPR), il est la pierre angulaire du système électrique vénézuélien. Or, son niveau est affecté depuis des années par le renforcement du phénomène climatique El Niño, qui se traduit notamment par une baisse des précipitations. Or, l’énergie hydraulique apporte 62% des électrons sur le réseau.

A 3,56 mètres du gouffre

Niveau H2OSelon les dernières données recueillies, le niveau d’eau du barrage d’El Guri serait de 243,56 mètres, soit à peine 3,56 mètres au-dessus du niveau critique. En effet, à partir de 240 mètres, le niveau n’est plus suffisant et les turbines doivent être arrêtées. C’est pourquoi le gouvernement a demandé à la population de réduire drastiquement sa consommation, en vain. Des mesures plus coercitives ont ainsi été prises ces derniers jours comme la fermeture de toutes les administrations publiques le vendredi et le changement d’horaires des centres commerciaux qui, pourtant, disposent généralement de leurs propres groupes électrogènes.

Ce n’est pas la première fois que le pays fait face à des difficultés d’approvisionnement électrique. Les années précédentes avaient également montré la faiblesse du réseau. Un niveau aussi bas n’avait pourtant pas été atteint depuis 2003. A cette époque, le pays traversait également une forte sécheresse, mais aucune mesure de rationnement n’avait été imposée. Il faut dire que depuis, la situation électrique du pays s’est considérablement dégradée.

Parc thermique inutilisable

Contrairement à ce que le président Maduro affirme, le phénomène El Niño n’est pas le seul responsable de la situation. Certes, il y participe, mais les pays de la région le subissent également, sans pour autant tomber dans une telle configuration critique.

« C’est un problème structurel de disponibilité du parc thermoélectrique. Les pluies n’y changeront rien ! », s’indigne le président de la Commission électricité du Collège des ingénieurs du Venezuela (CIV), Winston Cabas. Sur les quelques 19 000 MW installés, seuls 6 000 MW seraient opérationnels, soit à peine le tiers. Cette indisponibilité est due au manque endémique de maintenance des équipements. « Il y a plus de 6 mois que ces opérations de maintenance auraient dû être réalisées », explique Winston Cabas.

Le pouvoir chaviste pâtit depuis des mois de la chute des cours du baril, qui ne lui permet plus de financer les nombreux programmes mis en place par la révolution bolivarienne, à une époque où le brut tournait autour des 100$. Une époque révolue, au moins à court terme.

Par Romain Chicheportiche

Pénibilité : RiskEV, le nouveau logiciel de gestion des risques professionnels

Le décret du 30 décembre 2015 relatif au compte pénibilité prévoit que les six derniers facteurs de pénibilité s’appliquent à partir du 1er juillet 2016 : les manutentions manuelles de charges, les postures pénibles, les vibrations mécaniques, le bruit, les températures extrêmes et les agents chimiques dangereux.

Les entreprises doivent donc évaluer différents facteurs de risques. Mais une fois qu’ils sont répertoriés, comment gérer les risques identifiés ? Que faire des mesures prises ? Comment en assurer un suivi ? Comment les intégrer au Document Unique ?

RiskEV, le nouveau logiciel de Techniques de l’Ingénieur apporte les réponses. Grâce à un seul outil, il est possible de :

  • Évaluer les risques et gérer les 10 facteurs de pénibilité
  • Gérer vos plans d’action
  • Répertorier tous les produits chimiques de votre structure et évaluer les risques associés
  • Éditer le Document Unique d’évaluation des risques et son Annexe pénibilité
  • Effectuer la traçabilité individuelle et collective des expositions avec édition des documents

En cas de doute, une « Assistance Expert » est mise à disposition. Il s’agit d’une messagerie dédiée pour interroger les experts risque chimique et pénibilité.

RiskEV intègre également des outils pour faciliter le quotidien du responsable HSE :

  • HSESOFT- Fds et Etiq : outils d’édition de fiches de sécurité et d’étiquettes de vos produits chimiques
  • DILETIQ : Estimation du classement des critères santé des produits en dilution aqueuse
  • VLEP, CLP, REGISTRE DES DÉCHETS SORTANTS

Travailler avec RiskEV, c’est également faire le choix :

  • d’une solution simple et intuitive
  • d’un logiciel mis à jour des dernières évolutions réglementaires attendues

Important : le logiciel RiskEV n’est plus commercialisé
par Techniques de l’Ingénieur.

Pluton, le surprenant royaume de l’azote

Depuis son survol par la sonde New Horizon en juillet 2015, Pluton ne cesse d’étonner. De fil en aiguille, les données révèlent un astre étonnamment vivant du point de vue géologique et chimique et dont les découvertes balayent la conception qu’on en avait jusqu’alors.

Le système Pluton : plus complexe que prévu

Ce n’est que depuis 2012 que nous savons que Pluton possède 5 satellites, le dernier découvert étant Styx. Grâce à New Horizon, une meilleure caractérisation de l’ensemble du système et de ces satellites a été possible. Autour du système binaire formé par Charon et Pluton, gravitent donc, sur des orbites à peu près circulaires quatre petites lunes (Nyx, Hydra, Styx et Kerberos) qui sont de formes plutôt allongées et dont le diamètre (équivalent sphérique) est de l’ordre de 40 km pour les deux premières et 10 km pour les deux secondes. Toutes quatre ont un albedo élevé (50-90%) suggérant la présence de glace d’eau à leur surface. La densité des cratères d’impact suggèrent un âge de l’ordre de 4,5 milliards d’années. L’orientation de leurs pôles, le fait qu’elles soient non synchronisés laisse à penser qu’elles ont été formées juste après la collision qui a créé le couple Charon-Pluton. Les données concernant la composition chimique de ces lunes ne sont pas encore parvenue à la Terre.

Modélisation simplifiée du système de Pluton

Crédit : NASA/Johns Hopkins University Applied Physics Laboratory/Southwest Research Institute/Mark Showalter

pluton satellites
Les satellites de Pluton classés de gauche à droit du plus proche de Pluton au plus éloigné. La présence de Charon en bas, donne une idée des différentes proportions. Crédit : NASA/Johns Hopkins University Applied Physics Laboratory/Southwest Research Institute

Une prison pour l’azote

Les observations de l’atmosphère de Pluton ont réservé bien des surprises aux scientifiques : une atmosphère composée de couches successives comme on le pensait mais avec une couche supérieure très froide et plus compacte que prévue. Conséquences : un échappement atmosphérique bien moindre que modélisé et qui concernerait surtout le méthane et non l’azote. Il semblerait que la couche supérieure contiennent des composés agissant comme des réfrigérants qui absorbent les radiations solaires et empêchent l’azote de se réchauffer et de s’échapper. Pluton se comporterait comme une véritable prison pour l’azote. Celui-ci semble piégé dans les basses couches de l’atmosphère dont il est l’élément essentiel (99%). Cependant, on ne sait pas encore si cette observation est représentative de l’atmosphère de Pluton sur les temps astronomiques car Pluton présente par ailleurs des changements climatiques majeurs.

TA009784.cdr
On peut voir quelques 20 couches atmosphériques autour de Pluton. Cependant, ces couches ne sont pas strictement parallèles à la surface de la planète. Ainsi, les flèches montre une couche à quelques 5 km d’altitude à gauche et qui redescend jusqu’à la surface à droite. Credit: NASA/Johns Hopkins University Applied Physics Laboratory/Southwest Research Institute/AAAS/Science

New Horizon et les vents solaires

Les conclusions concernant l’échappement atmosphérique ont notamment été faites à partir des mesures de vitesses des vents solaires autour de Pluton par un instrument baptisé SWAP. Les données relevées par SWAP (seul instrument à n’avoir pas hiberné) depuis son passage par Jupiter ont permis de découvrir que les vents solaires devenaient plus uniformes au fur et à mesure que l’on s’éloignait du Soleil. Les événements particuliers tels que les éruptions solaires donnent des structures moins détaillées, qui peuvent fusionner ou être gommées avec avec l’éloignement. C’est ce qui ressort d’une publication du 6 avril dernier dans Astrophysical Journal Supplement.

Climat : Pluton la désaxée

Comme la Terre, Pluton a un axe de rotation incliné par rapport à son orbite. Il y existe donc des saisons. Très longues puisque Pluton fait le tour du Soleil en 247,7 ans. Mais l’inclinaison est bien plus importante que sur notre planète (120° actuellement contre 23° chez nous). Si bien que la zone tropicale peut être aussi une zone arctique selon les saisons. En outre, l’axe de rotation de Pluton varie beaucoup, pas seulement de 1° comme sur Terre mais de près de 25°, passant de 13 à 127° en quelques millions d’années. Un changement qui bouleverse le climat périodiquement en influant par exemple sur les propriétés de l’atmosphère comme la pression atmosphérique. Aujourd’hui mesurée à 10 microbars, elle a certainement atteint 1000 à 10 000 fois plus. Ce qui implique, avec une température moyenne de l’ordre de 40°K (-223°C) : l’existence possible d’un cycle de l’azote avec de l’azote liquide qui s’écoulerait à sa surface. Ce qui expliquerait un certain nombre de formes géologiques révélées par New Horizon.

pluton variation axe climat
Ce schéma illustre la variation de l’axe de rotation de Pluton et son influence sur le climat en raison des changements majeurs d’ensoleillement que cela implique pour la plupart des régions. Crédit : NASA/Johns Hopkins University Applied Physics Laboratory/Southwest Research Institute

Géologie : une planète encore active

On a longtemps pensé que les astres de la ceinture de Kuiper avaient peu changé depuis leur formation. Pluton nous prouve le contraire. La planète naine semble avoir été géologiquement active tout au long de ses 4,5 milliards d’années. L’activité géologique la plus récente semble centrée sur un grand bassin, baptisé Spoutnik, et recouvert d’une épaisse couche de glace d’azote, de méthane et de monoxyde de carbone dont la formation est estimée à il y a 10 millions d’années. Les terrains qui le bordent dévoilent des traces d’écoulement, de transport de blocs de glaces d’eau, que les scientifiques attribuent à de l’érosion par sublimation ou par effondrements. Ailleurs, le relief est plus mouvementé avec des crêtes, des montagnes de glaces et ce qui semble être des cryovolcans qui auraient été actifs récemment (à une échelle de temps géologique). De vastes zones sont aussi recouvertes de glaces de méthane. Sur l’autre face de la planète, on trouve une zone, ancienne de 4 milliards d’années, fortement érodée et parsemée de cratères et de failles et recouverte de tholines (substance de couleur rouge/brun qui se formerait par l’action du rayonnement ultraviolet sur des composés organiques comme les hydrocarbures en présence d’azote ou d’eau). De son côté Charon, étonnamment riche en glace d’eau et NH3 ne semble plus être aussi active. Ce qui semble sûr c’est que la surface des deux astres a été largement remaniée depuis leur formation car le nombre de cratères d’impact n’est pas du tout en accord avec l’activité de collisions supposée dans la ceinture de Kuiper.

Cette vidéo montre un échantillon de la richesse géomorphologique de Pluton en simulant le survol d’une bande de terre de 80 km de large et 800 km de long. Depuis les montagnes Al-Idrisi jusqu’aux glaces de la plaine de Spoutnik en passant par ses rives.

Crédit : NASA/Johns Hopkins University Applied Physics Laboratory/Southwest Research Institute

Pluto_H2O_Ice_Composite
Image en fausse couleurs montrant l’abondance de glaces d’eau à la surface de Pluton. Une distribution bien plus importante que prévue. Ailleurs, les scientifiques supposent que les glaces d’eau pourraient être aussi présentes mais de manière souterraine. Credit: NASA/Johns Hopkins University Applied Physics Laboratory/Southwest Research Institute

 Par Sophie Hoguin

Poma : des remontées mécaniques à l’éolien

das-tourisme-patternSi vous avez déjà fait du ski, il est probable que vous ayez utilisé leurs câbles. Poma est une marque reconnue dans le monde des sports de montagne. La compagnie française s’est forgée une solide réputation dans la construction des télécabines qui transportent les skieurs en quête de poudreuse. Aujourd’hui, l’entreprise a pour ambition de devenir un leader français de l’éolien. Un grand écart industriel qui peut sembler surprenant, mais il n’en n’est rien. « Il y a bon nombre de synergies entre l’activité du transport par câbles et l’éolien, notamment concernant la motorisation, les aimants permanents et l’entraînement direct », explique David Saint-André, responsable Industrie éolienne de Poma.

Eolien made in France

bandeau_eolien_1903x559-1600x470L’usine de Gilly-sur-Isère a nécessité un investissement de 16 millions d’euros. Opérationnelle au printemps 2017, elle emploiera une centaine de salariés pour une production comprise entre 10 et 20 nacelles par an. Le site a été choisi pour sa proximité géographique avec le reste des activités de Poma, mais aussi sa capacité d’extension qui permettra de suivre une potentielle hausse de l’activité. La technologie développée dans cette usine sera celle de Leitwind, la société sœur qui a déjà installé pas moins de 300 éoliennes (400 MW) dans le monde. A l’instar du parc éolien de Pellafol (Isère), racheté en 2015 par Poma, afin d’y réaliser des campagnes de formations de techniciens. Les synergies entre les deux activités de Poma sont suffisamment grandes pour que le site ne soit pas entièrement dédié à la production de nacelles et à l’assemblage des éoliennes. Les activités historiques du groupe y seront également menées.

Vers une chaîne de valeur française ?

POMAParmi le panel des énergies renouvelables, l’éolien ne fait pas l’unanimité. Ses détracteurs lui reprochent, entre autres, son impact visuel, la gêne qu’il induit pour les radars civils/ou militaires, et le peu de contenu local. Ce dernier argument agace au plus haut point les représentants de la filière. Certes, les grands constructeurs ne sont pas français : Vestas, GE, Nordex, Enercon, Gamesa sont toutes des compagnies étrangères qui voient d’ailleurs leur leadership être sérieusement menacé par la montée en puissance des acteurs chinois (Golwind est devenu en 2015 le 1er fabricant mondial). Par ailleurs, la France a perdu, avec le rachat d’Alstom par General Electric bouclé en 2015, un de ses fleurons industriels.

Mais le tissu industriel français n’est pas totalement absent du secteur et est constitué de PME sous-traitantes spécialisées, issues d’univers très divers. Poma souhaite agréger autour de lui, à travers des partenariats, différents acteurs français comme FrancEole pour les mâts ou Ferry-Capitain pour les pièces de fonderie. « Nous souhaitons devenir le fabricant français multi-Mégawatts de référence, et engager un effet d’entraînement sur toute la filière », assure David Saint-André. Les premières livraisons d’éoliennes sont attendues dès l’année prochaine.

Romain Chicheportiche

Les grands groupes, fers de lance des dépôts de brevets

Le palmarès 2015 des principaux déposants de brevet auprès de l’institut de la propriété industrielle (INPI) révèle une concentration toujours plus forte autour des 20 premiers déposants. Ainsi, en 2015, ils représentent à eux seuls 41,2% des demandes de brevets publiés contre 40,3% en 2014 et 25,2% en 2004. Pour l’INPI, c’est le signe d’une meilleure intégration de la propriété industrielle dans les stratégies de développement des grands groupes et des organismes de recherche français.

L’automobile domine toujours largement

Trois grands acteurs de l’automobile sont cette année dans les 5 premières places. PSA Peugeot Citroën continuant de parader en tête avec 1012 demandes de brevets devançant Safran (769). Valeo a continué sa progression atteignant la 3eme place du palmarès (avec 668 demandes – un chiffre qui a plus que doublé depuis 2011). Derrière l’automobile on retrouve les grands industriels des secteurs de pointe français : aéronautique, télécommunications, cosmétique, électronique, chimie, énergie.

Les organismes de recherches toujours bien placés

Les principaux organismes de recherche sont toujours bien placés : le CEA au 4éme rang (658 demandes publiées), le CNRS à la 6eme place (390 demandes) et IFP Énergies Nouvelles au 13eme rang (194 demandes). Plusieurs universités ne sont d’ailleurs pas en reste comme l’université Claude Bernard – Lyon 1 (32eme place).

La France n’est pas une priorité pour les grands groupes

Afin de mieux traduire l’activité des entreprises française en matière de brevets, l’observatoire de la propriété industrielle a aussi établi un palmarès tenant compte des demandes auprès des autres offices nationaux ou internationaux.

Il en ressort que :

  • la 1ere place reste occupée par PSA Peugeot Citroën (1186 demandes dont 89,3 % auprès de l’INPI)
  • on voit entrer dans le classement des absents du classement français comme Alcatel-Lucent (2eme place avec 1043 demandes dont 0,1% auprès de l’INPI) ou encore Dassault Systems (42e place, 44 brevet – 2,3% auprès de l’INPI)

On note ainsi que les principaux déposants français à l’étranger tendent à ne pas déposer à l’INPI : sur les 20 premiers en 2014 la moyenne des publications n’est que de 50,4%.

Par Sophie Hoguin

En savoir plus : Les palmarès de l’INPI – avril 2016

Mossack Fonseca : une cible facile pour les pirates

Dans la presse, ce cabinet joue les victimes. « Nous avons un rapport technique qui dit que nous avons été piratés depuis des serveurs étrangers », a déclaré à l’AFP Ramon Fonseca Mora, directeur et cofondateur du cabinet, en précisant avoir « déposé plainte auprès du parquet ». « Personne ne parle du piratage » dans la presse qui abonde depuis deux jours sur les révélations, s’offusque Ramon Fonseca, alors que « c’est le seul crime qui a été commis », selon lui.

En réalité, leur principale faute est de n’avoir mis en place aucune politique de sécurité ! Même le B-A-BA n’est pas appliqué. « Le niveau de sécurité  est pitoyable », affirme Olivier Laurelli, un expert en sécurité informatique et cofondateur du site Reflets.info. « Ils ont des applications grand public qui ne sont pas mises à jour depuis près de trois ans. À mon avis, il n’y a pas eu qu’une seule faille. » Bilan : 25 failles de sécurité connues pour son CMS (Content Management System) : Drupal. L’une de ces failles, appelée Drupalgeddon et repérée en octobre 2014, permet à des pirates dotés de bonnes connaissances techniques de récupérer des données.

Pas étonnant que leur « site est une porte d’entrée et leur infrastructure est très bavarde », constate Olivier Laurelli. Pas besoin d’être un as en intrusion pour récupérer des informations sensibles (même si aucun document confidentiel n’est immédiatement accessible en naviguant sur le site). Reflets.info a ainsi déniché les fichiers de sauvegarde d’une application interne et d’un jeu de données associé. Les fichiers de configuration donnant eux accès au login et mot de passe, affichés en clair, c’est-à-dire facilement récupérables.

Par contre, il suffit de s’appeler Google pour enregistrer à l’insu de ce cabinet de nombreuses informations sur les « Panama papers » ! Reflets.info a en effet découvert la présence d’un script Google Analytics. Il permet en effet au géant américain de stocker les adresses IP des personnes se connectant…

Comme d’autres sites et entreprises, ce cabinet ne craint pas d’affirmer que les « informations n’ont jamais été mieux protégées qu’avec le portail client sécurisé de Mossack Fonseca ». De nombreuses affaires de vol de données personnelles ou sensibles montrent au contraire que les entreprises ne se soucient guère de la confidentialité des informations. Fin 2015, le fabricant de jouets VTech a été victime d’une importante fuite de données de cinq millions d’adultes et de 200 000 enfants. En avril de la même année, France Télévisions avait laissé échapper 100 000 contacts. Enfin, l’été dernier, le site de rencontres extra-conjugales Ashley Madison avait fait la Une des médias après le piratage de 32 millions d’adresses email et de comptes d’utilisateurs.

Dernière preuve que Mossack Fonseca ne se souciait guère de la protection des données : les courriels envoyés et reçus par ses employés n’étaient pas chiffrés. Autre lacune, l’utilisation d’une version d’Outlook Web Access, le logiciel de Microsoft, datant de… 2009.

Un cas d’école pour tous les administrateurs de sites web et de serveurs, mais qui est loin d’être unique.

Philippe Richard

Les nouveaux OGM en débat !

L’avis du Haut Conseil des Biotechnologies (HCB) concernant les nouveaux OGM est au coeur des débats. L’objectif de ce travail est d’éclairer les pouvoirs publics sur l’inclusion, ou non, des NBT dans le champ d’application des directives européennes relatives à l’utilisation des OGM. Dans ce cadre, il convient de définir leur parenté avec la transgénèse, la méthode la plus connue et la plus utilisée jusqu’à présent pour produire des OGM.

Car ces nouvelles techniques et les plantes (fruits, légumes et céréales) qui en sont issues n’existaient pas lorsque les réglementations européennes et françaises ont été adoptées. Leur développement entre donc dans un « flou juridique ». S’il est décidé que la réglementation des OGM ne s’applique pas aux plantes obtenues par les NBT, alors il n’y aurait pas d’évaluation des risques avant autorisation, pas de traçabilité, pas d’étiquetage et pas de suivi post-autorisation. Elles pourraient néanmoins toujours être brevetées : l’enjeu est donc immense.

L’avis du HCB se fera en deux temps. Le 4 février 2016, le Haut Conseil a publié un premier ensemble de documents émanant de son Comité Scientifique (CS) et de son Comité Économique Éthique et Social (CEES), qui a été transmis au gouvernement français. Dans ce premier avis, le HCB propose d’encadrer certaines de ces techniques, en les étudiant au cas par cas, mais estime que la plupart de ces techniques n’aboutit pas à la création d’OGM. « Toute technique qui permet de produire une plante non distinguable d’une autre plante de même espèce et qui aurait pu être obtenue par « croisement conventionnel » ou par sélection de mutants (naturels ou induits) ne devrait pas faire l’objet d’une étude systématique calquée sur le modèle des OGM », estime le HCB. Ce serait notamment le cas pour la mutagénèse dirigée à l’aide d’oligonucléotides. Mais aussi pour les techniques exploitant les mécanismes épigénétiques qui modulent l’expression d’un gène sans en modifier la séquence.

Face à ce premier avis, des voix s’élèvent. Le HCB aurait fait fi de l’avis divergent d’un membre du CS, Yves Bertheau, directeur de recherche à l’Institut national de la recherche agronomique (INRA). En signe de protestation, ce membre a remis sa démission et huit organisations paysannes et de la société civile (*), membres du CEES du HCB, ont suspendu leur participation au HCB « tant que ces dysfonctionnements majeurs ne seront pas réglés ». Dans un mot publié sur le site Internet du HCB, Christine Noiville, Présidente du HCB se défend d’une quelconque censure. Selon elle, cet avis divergent n’était pas recevable « sur la forme, au regard du règlement intérieur du HCB ». « Ces divergences doivent être discutées en séance » et être « argumentées et débattues de façon collégiale », précise-t-elle. Si une partie des points soulevés avait bien été abordée et débattue en séance, l’autre partie des points listés dans la demande de position divergente serait nouvelle et n’aurait jamais été abordée ni débattue en séance.

Pour apaiser le feu, la Présidente assure que les différentes questions posées dans cette demande seront abordées dans les prochaines séances du CS et par le CEES. Par ailleurs, elle a mandaté un travail, dont les résultats seront formulés en mai, pour revoir notamment « les conditions exactes dans lesquelles les divergences peuvent/doivent être annoncées et débattues ».

Malgré tout, les huit organisations paysannes et de la société civile considèrent que l’ensemble de ces techniques consistent à provoquer des modifications génétiques et doivent entrer de fait dans le champ réglementaire des OGM. Pour affirmer leur désaccord, les associations ont manifesté mercredi 6 avril, à l’occasion de l’Assemblée plénière du Haut Conseil des Biotechnologies, devant les locaux d’AgroParisTech à Paris. « Notre position est claire et unanime : tout comme la transgénèse, ces nouvelles techniques produisent des OGM, présentent des risques sanitaires, environnementaux et socio-économiques et posent de nouveaux problèmes éthiques, insistent-elles. Elles doivent donc tomber sous le coup de la réglementation européenne ». Face à cette fronde, la réunion a été reportée à une date ultérieure, « avant l’été ».

Quelles différences majeures entre transgénèse et NBT?

Plutôt que d’introduire un gène provenant d’un autre organisme dans la plante, certaines des nouvelles techniques induisent des mutations ciblées à l’échelle moléculaire directement dans le génome de la plante pour lui fournir la propriété recherchée. Il est ainsi possible de faire muter un gène en modifiant un faible nombre de nucléotides, moduler l’expression d’un gène, activer ou désactiver des gènes…

Par ailleurs, pour les OGM obtenus par transgénèse classique, la séquence d’ADN modifiée est connue et brevetée. Ils sont ainsi facilement détectables grâce à des outils de marquage moléculaire. Mais il est souvent impossible de détecter si une plante a été obtenu par une NBT. Ce qui pose des questions de traçabilité et des risques de biopiraterie évidents.

Par Matthieu Combe, journaliste scientifique

* Amis de la Terre, Confédération Paysanne, Fédération Nationale d’Agriculture Biologique, France Nature Environnement, Greenpeace, Réseau Semences Paysannes, Union Nationale de l’Apiculture Française et Conseil national des associations familiales laïques

Origine de la vie : la pièce manquante détectée dans une « comète artificielle »

Tous les organismes vivants sur Terre, ainsi que les virus, ont un patrimoine génétique fait d’acides nucléiques – ADN ou ARN. L’ARN, considéré comme plus primitif, aurait été l’une des premières molécules caractéristiques de la vie à apparaître sur Terre. Les scientifiques s’interrogent depuis longtemps sur l’origine de ces molécules biologiques. Selon certains, la Terre aurait été « ensemencée » par des comètes ou astéroïdes contenant les briques de base nécessaires à leur construction. Et effectivement, plusieurs acides aminés (constituants des protéines) et bases azotées (l’un des constituants des acides nucléiques) ont déjà été trouvés dans des météorites, ainsi que dans des comètes artificielles, reproduites en laboratoire .

capespace23
© Cornelia Meinert (CNRS) Le ribose (et des molécules de sucres apparentées, comme l’arabinose, le lyxose et le xylose) ont été détectés dans des analogues de glaces pré-cométaires grâce à la chromatographie multidimensionnelle en phase gazeuse. Le ribose forme le « squelette » de l’acide ribonucléique (ARN), considéré comme le matériel génétique des premiers organismes vivants.

Mais le ribose, l’autre constituant-clé de l’ARN, n’avait encore jamais été détecté dans du matériel extraterrestre, ni produit en laboratoire dans des conditions « astrophysiques ». En simulant l’évolution de la glace interstellaire composant les comètes, des équipes de recherche françaises ont réussi à former du ribose – étape importante pour comprendre l’origine de l’ARN et donc les origines de la vie.

cap-333
© Cornelia Meinert (CNRS) & Andy Christie (Slimfilms.com) Le ribose se forme dans le manteau de glace des grains de poussière, à partir de molécules précurseurs simples (eau, méthanol et ammoniac) et sous l’effet de radiations intenses.

Dans un premier temps, une « comète artificielle » a été produite à l’Institut d’astrophysique spatiale : en plaçant dans une chambre à vide et à − 200 °C un mélange représentatif d’eau (H2O), de méthanol (CH3OH) et d’ammoniac (NH3), les astrophysiciens ont simulé la formation de grains de poussières enrobés de glaces, la matière première des comètes. Ce matériau a été irradié par des UV – comme dans les nébuleuses où se forment ces grains. Puis, l’échantillon a été porté à température ambiante – comme lorsque les comètes s’approchent du Soleil. Sa composition a ensuite été analysée à l’Institut de chimie de Nice grâce à l’optimisation d’une technique très sensible et très précise (la chromatographie multidimensionnelle en phase gazeuse, couplée à la spectrométrie de masse à temps de vol). Plusieurs sucres ont été détectés, parmi lesquels le ribose. Leur diversité et leurs abondances relatives suggèrent qu’ils ont été formés à partir de formaldéhyde (une molécule présente dans l’espace et sur les comètes, qui se forme en grande quantité à partir de méthanol et d’eau).

S’il reste à confirmer l’existence de ribose dans les comètes réelles, cette découverte complète la liste des « briques moléculaires » de la vie qui peuvent être formées dans la glace interstellaire. Elle apporte un argument supplémentaire à la théorie des comètes comme source de molécules organiques qui ont rendu la vie possible sur Terre… et peut-être ailleurs dans l’Univers.

cap-espace22
© Louis Le Sergeant d’Hendecourt (CNRS) / NASA, ESA, and the Hubble Heritage Team (STScI/AURA) Le traitement ultraviolet des glaces pré-cométaires (à gauche) reproduit l’évolution naturelle des glaces interstellaires observées dans un nuage moléculaire (à droite, les piliers de la création), conduisant à la formation de molécules de sucre.

Source : cnrs

Bioo : la start-up qui produit de l’électricité avec des plantes

« L’énergie n’a jamais été aussi verte ». C’est sur ce slogan que Bioo va lancer, le 11 avril 2016, une campagne de crowdfunding sur la plateforme Indiegogo. L’objectif est de faire connaître le procédé par un premier produit très pédagogique : un bac avec une plante munie d’une batterie. Vendue 99 euros l’unité, l’installation (3,5 Volts et 0,5 Ampère) doit permettre de recharger un téléphone portable 3 fois par jour.

bioo plante2

Comment ça marche ?

Bioo a développé une batterie biologique qui contient des micro-organismes capables de décomposer les molécules métabolites (composés organiques intermédiaires) que la plantes n’utilise pas pour la transformer en énergie. « Nous avons travaillé 9 mois sur ce procédé et maintenant, nous sommes sûrs que la photosynthèse est une des solutions d’avenir. Nous venons de breveter notre concept », explique Pablo Vidarte, l’un des étudiants-fondateurs. Des prototypes ont déjà été testés par des partenaires prestigieux comme la compagnie pétrolière espagnole Repsol. Et contrairement aux autres énergies renouvelables, celle-ci n’est pas intermittente. Elle produit de nuit comme de jour.

Croissance rapide

Bioo ne compte pas s’arrêter à sa plante chargeur de portable. Les ingénieurs ont déjà mis au point un panneau d’un mètre carré destiné aux parcs et jardins particuliers. Les panneaux auraient une capacité comprise entre 3 et 40 Watts chacun selon les configurations. Pablo Vidarte estime que pour alimenter une maison moyenne en électricité, un jardin de 100 m² serait suffisant, voire moins si celui-ci dispose davantage d’arbres que de plantes. Il estime que son produit pourra concurrencer n’importe quelle énergie renouvelable, à commencer par les panneaux solaires. A production équivalente, Pablo Vidarte estime le coût moyen du solaire à 15 000 € contre 3 000 € pour ses panneaux. « Le retour sur investissement est d’environ 4,4 ans », affirme le co-fondateur de Bioo. La start-up espère organiser une première levée de fonds dès juin, avec comme objectif d’atteindre les 250 000 euros.

Par Romain Chicheportiche

Expirer en inspirant : le comportement anormal d’un matériau nanoporeux

Lorsque la pression augmente pour faire entrer davantage de gaz dans un échantillon de DUT-49, celui-ci se contracte subitement et libère son contenu comme si, au cours d’une inspiration, les poumons se rétractaient et expulsaient l’air qu’ils contiennent. Publiés le 6 avril 2016 sur le site de la revue Nature, ces travaux permettent d’envisager des comportements innovants en science des matériaux.

cap-cristaux
© S. Krause / Technische Universität Dresden Cristaux de DUT-49 par microscope électronique à balayage.
cap-cristaux3
© F.-X. Coudert / CNRS Simulation de la disposition des atomes qui composent le DUT-49 lorsque celui-ci n’est pas contracté

La capture de molécules toxiques dans l’air ambiant, le stockage de l’hydrogène ou la libération ciblée de médicaments… Autant d’applications qui peuvent faire appel à des matériaux nanoporeux flexibles. Ces matériaux utilisent la grande surface déployée par leurs pores pour capter et stocker les molécules de gaz ou de liquide : c’est le phénomène d’adsorption. Leurs pores peuvent ainsi adsorber des quantités impressionnantes de produits, s’agrandissant dans la limite de leur flexibilité.

Une équipe franco-allemande a conçu un nouveau type de matériau nanoporeux : le DUT-49. Formé par auto-assemblage d’un squelette carboné et d’atomes de cuivre, sa structure est à la fois organique et métallique. Il se présente sous la forme d’une poudre incroyablement poreuse : la superficie interne d’un seul gramme de ce matériau couvre 5000 m². Le DUT-49 est ainsi capable d’adsorber l’équivalent du tiers de son poids en méthane. Tout comme les autres matériaux « intelligents » de sa famille, ses propriétés changent selon les stimulations extérieures, comme la pression, la température ou la lumière. Si l’on augmente la pression lors de la capture d’un gaz, on augmente à la fois la quantité de gaz adsorbée et, dans le cas le plus courant, la taille des pores du matériau. La très grande flexibilité du DUT-49 provoque cependant un phénomène imprévu : alors que le matériau se remplit de gaz jusqu’à une certaine pression, il va se contracter brutalement et voir son volume diminuer de moitié si la pression continue d’augmenter.

Les chercheurs ont d’abord cru à une erreur d’instrumentation, car aucun autre des millions de matériaux connus qui adsorbent les gaz ne se comporte ainsi. Ce phénomène « d’adsorption négative » a pourtant bien été confirmé par des mesures complémentaires et l’équipe est parvenue à en décrire le mécanisme. Les molécules de gaz stockées dans les pores du DUT-49 établissent des interactions fortes avec la structure de ce solide ce qui, selon la quantité de gaz adsorbée, perturbe la disposition des atomes qui le composent et finit par provoquer sa contraction. Testé avec le butane et le méthane, ce comportement caractéristique du DUT-49 serait généralisable à d’autres composés gazeux.

DUT-49 rejoint les récentes découvertes de matériaux aux propriétés physiques « anormales », comme ceux à expansion thermique négative qui se contractent lorsqu’ils sont chauffés. Ce résultat ouvre un grand champ d’étude dans la compréhension des matériaux poreux flexibles et permet d’envisager des comportements innovants en science des matériaux. Il pourrait ainsi conduire à développer des interrupteurs et des capteurs à échelle nanométrique. Le dégonflement du matériau correspond en effet à une réponse forte à un petit évènement, déclenché à partir d’une valeur seuil facilement détectable.

Source : cnrs

Grandes manoeuvres autour du prix du pétrole

L’annonce ne pouvait pas plus mal tomber. Alors que se prépare le sommet de Doha, la production d’or noir a une nouvelle fois augmenté, de 100 000 barils jour, entre février et mars dernier.

Une hausse qui vient rompre la légère reprise des cours de brut observés ces derniers jours, en partie en raison de l’affaiblissement du dollar. Alors que la Russie, le Venezuela, le Qatar et l’Arabie Saoudite tentent de forger un semblant de contrôle sur leur production, d’autres pays comme l’Irak ou l’Angola pompent autant qu’ils le peuvent. C’est également le cas de l’Iran qui, grâce à la levée partielle des sanctions internationales, a vu revenir bon nombre de compagnies pétrolières, prétendants à l’exploitation de ses importants gisements de pétrole et gaz. Téhéran s’est montré par ailleurs très actif pour renouer les liens avec ses partenaires commerciaux asiatiques.

De fait, les négociations à Doha seront compliquées, et difficile de voir quel consensus pourrait émerger entre des pays dont les intérêts sont si contradictoires. Pour la Russie et l’Arabie Saoudite, une stabilisation des cours autour de 45-50 $ serait de nature à équilibrer l’offre et la demande d’or noir à moyen terme. Un niveau de prix très insuffisants pour des économies sinistrées comme le Venezuela. Le 5 avril à la clôture, le baril de Brent était toujours sous la barre des 40 $.

Romain Chicheportiche

Piratage en eaux troubles

Dans son dernier rapport la société américaine Verizon cite le cas de cette infiltration dont a été victime une entreprise de traitement des eaux (dont le nom et le pays sont restés confidentiels).

C’est en intervenant à la demande de cette entreprise pour renforcer la sécurité de son réseau informatique, que Verizon a découvert cette situation délétère. Lorsque les experts en cybersécurité ont commencé leur audit, ils ont constaté que l’action malveillante avait été mise en place depuis deux mois ! Des mouvements suspects de valves et de tuyauteries avaient bien été remarqués. Mais les responsables de l’entreprise n’avaient pas décidé de mettre en place une surveillance plus précise afin d’en connaître les causes et les effets sur la distribution d’eau.

Cette situation n’est finalement pas surprenante et elle s’explique par deux raisons : des infrastructures et des automates obsolètes et, deuxièmement, des personnels pas compétents (car pas formés à ce genre de problématique) en sécurité informatique. Deux constats très répandus dans les sites industriels.

Mais l’exemple cité par Verizon représente un cas d’école. En effet, la plate-forme SCADA (Supervisory Control And Data Acquisition ou Système de contrôle et d’acquisition de données) gérant les applications chargées de contrôler les vannes hébergeait aussi des données sensibles. En accédant à ces machines, les pirates pouvaient donc mettre la main sur des factures et des informations financières, mais aussi prendre le contrôle des différentes vannes.

L’Ouest américain dans le noir

Le pire a semble-t-il était évité, car les « assaillants ont modifié les paramètres de l’application avec apparemment une faible connaissance de la façon dont ces systèmes de contrôle fonctionnent. Si les attaquants avaient eu un peu plus de temps et avaient été un peu plus familiers du système de contrôle industriel, l’entreprise et les populations locales auraient pu subir de sérieux dommages » conclut le rapport de Verizon.

L’exemple de ce centre de traitement des eaux confirme que les sites industriels représentent une cible très facile à attaquer. Jusqu’en 2010 et la découverte du code malveillant Stuxnet qui a touché notamment des centrales nucléaires iraniennes, les industriels et les fabricants des automates ne se souciaient guère de ce type de menace. La fiabilité des machines et la sécurité physique des employés étaient leurs principales préoccupations. Mais aujourd’hui, ces machines se connectent à l’Internet (les mises à jour ne nécessitent plus l’intervention physique d’un technicien), communiquent avec les systèmes de gestion de l’entreprise et sont développées avec des langages informatiques standards.

Dès lors, ils deviennent aussi sensibles et vulnérables au piratage que des ordinateurs ou tout autre appareil connecté. Mais la connexion de toutes les infrastructures sensibles (transport, énergie, télécom…) à des réseaux et l’analyse des données échangées rend la situation encore plus inquiétante.

Une équipe de chercheurs français en cybersécurité, dirigés par Éric Filiol, a étudié et simulé une attaque sur le réseau électrique de l’ouest des États-Unis. Grâce à Internet et au Big data, ils sont parvenus à cartographier l’ensemble du réseau et à localiser ses points faibles. « Cette phase de renseignement a permis de déterminer quels sont les pylônes et les postes électriques qu’il faudrait faire sauter de « manière classique », sur le terrain, pour créer un effet domino qui paralyserait l’ensemble du réseau », explique Éric Filiol, Directeur de Recherche du laboratoire Confiance Numérique et Sécurité/Cryptologie et Virologie Opérationnelle à l’ESIEA (une école d’ingénieurs).

Bilan : la destruction d’un nombre très réduit de points stratégiques par autant de personnes suffirait à paralyser l’Ouest américain pendant au moins 48 heures. Coïncidence, le 23 décembre dernier toute une région de l’ouest de l’Ukraine était plongée dans le noir pendant plus de six heures…

Philippe Richard

Energie solaire : un complexe hôtelier en plein désert

Lors des premières étapes du projet, des ingénieurs ont découvert qu’il était possible d’extraire l’eau souterraine grâce à un puits très profond. Et puisqu’il y avait de l’eau… Pourquoi pas un hôtel ?

Le concept est né autour de la source : 84 chambres dotées d’une vue imprenable sur le désert, un centre de remise en forme pourvu d’équipements intelligents, des ingrédients biologiques cultivés sur place dans les fermes du village voisin, des restaurants de spécialités autochtones, des salles de réunion bénéficiant des technologies de pointe… Sans oublier les fenêtres en verre intelligent équipant tous les espaces.

slide_484906_6657356_free

Les eaux usées seront bien sûr recyclées  et consacrées à l’irrigation des terres, les déchets seront traités sur place et les 157 000 m² de panneaux solaires devraient permettre de réduire la pollution à néant. Le toit en forme de ruban est  spécialement conçu de manière à optimiser l’efficacité énergétique.

En prime, des opportunités d’emploi pour la population locale !

Que demander de plus ? Sur le papier, c’est un sans-faute. Il ne reste plus qu’à concrétiser ces bonnes intentions…

slide_484906_6657370_free

slide_484906_6657366_free

slide_484906_6657372_free

slide_484906_6657368_free

Oasis-Eco-Resort-by-Baharash-03

圖片-4

Source : baharash

Par Iris. T

Du bois transparent pour la maison du futur ?

Découpez une fine lamelle de bois de moins d’un millimètre d’épaisseur et vous pourrez observer une légère transparence. Joli, mais peu pratique pour le gros œuvre.

Heureusement, une jeune entreprise a décidé de proposer des planches en bois transparent. Dans la boîte à malice de Woodoo : des polymères biosourcés qui, une fois injectés dans le bois, lui permettent de laisser passer 10 à 20 % de la lumière. Un bois aggloméré de plus ? Non, selon Timothée Boitouzet, co-fondateur de la Start-up.

« Avec ce matériau, on garde la structure du bois et on l’améliore en remplaçant l’air et la lignine par un plastique transparent et biosourcé. »

Le bois est alors plus dense, il gagne en résistance ce qu’il perd en légèreté et souplesse. Cette perte de propriétés n’est pas un problème, d’après le chercheur :

« Le but est de rendre compétitifs et intéressants les arbres français qui sont généralement laissés pour compte »

woodoo-2

Il est vrai que le bois de nos forêts ne fait pas recette dans le bâtiment. Le hêtre des Vosges, le peuplier du  nord ou le chêne de l’ouest  sont cantonnés à des utilisations secondaires comme la production d’aggloméré ou sont destinés à être brûlés dans des centrales biomasses. Selon le co-fondateur de l’entreprise Woodoo, Timothée Boitouzet :

« La France est la première puissance européenne en matière de volume de bois sur pied (2.4 milliards de m³ disponibles). Elle est également l’une des dernières à l’utiliser dans le secteur du bâtiment (48% de ces ressources sont inexploitées) » explique l’ingénieur.  « Le développement du matériau constituerait un renouveau de la filière bois qui manque aujourd’hui d’innovation pour être compétitive. »

Encore au stade de la recherche, les polymères utilisés permettent aujourd’hui de fabriquer des planches d’un centimètre d’épaisseur. Pour les professionnels du secteur, l’idée est intéressante et s’inscrit dans l’effervescence de la recherche sur les bois composites.

« L’imagination n’a pas de limite dans ce secteur, indique le professeur Denys Breysse, de l’Institut de mécanique et d’ingénierie de Bordeaux. Mais on perd les gros avantages du bois : sa légèreté et son cycle de vie. »

Cet avis est partagé par Olivier Bertin, Ingénieur de l’École nationale supérieure des technologies et industries du bois (Enstib).

« Le bois est très intéressant car biodégradable. Lorsque le bois est augmenté par d’autres matériaux, il perd cet intérêt et doit être enfoui ou brûlé en incinérateur. Mais si le plastique diffusé dans le bois est biosourcé et biodégradable, comme l’annonce l’entreprise, ce matériau pourrait être visionnaire ! »

Par Baptiste Cessieux

Comprendre la stabilité du bois face à l’humidité

Des chercheurs du CNRS et du Cirad ont démontré que chez la bagasse (Bagassa guianensis) une espèce de bois guyanais à croissance rapide, les métabolites secondaires, dont la fonction principale est de défendre l’arbre contre les attaques extérieures, permettent également de bloquer le retrait. Ils confèrent ainsi à la bagasse une grande stabilité. Ces résultats, dont la méthode sera étendue à une large diversité d’arbres, montrent l’intérêt de décrire la biodiversité en effectuant une analyse approfondie des propriétés des bois afin de découvrir des espèces prometteuses qui pourront être plantées à l’avenir.

cap-bois
© Julie Bossu – laboratoire Ecofog (CNRS/Inra/Cirad/Agroparistech/Université de Guyane/Université des Antilles) Tronc et houppier d’une bagasse. Rondelle de bois de bagasse : au centre le bois de cœur est coloré par les métabolites secondaires.

Pour contribuer à la diversification des bois exploitables et commercialisables, tout en s’appuyant un maximum sur la biodiversité locale, il est nécessaire de découvrir de nouvelles espèces d’arbres qui pourront être plantées. Pour cela, il faut poursuivre l’effort de description de la biodiversité, pas seulement d’un point de vue taxonomique, c’est-à-dire selon la classification classique des espèces, mais aussi par une caractérisation des propriétés des bois. L’objectif est ainsi de répondre aux demandes en matériaux, notamment dans les régions tropicales où la croissance démographique est rapide.

Forts de ce constat, des chimistes et biomécaniciens du laboratoire EcoFoG (CNRS/Agroparistech/Cirad/Inra/Université des Antilles/Université de Guyane) ont tout d’abord sélectionné plusieurs espèces d’intérêt en croisant deux bases de données issues de plusieurs décennies de mesures en Guyane ; l’une sur la croissance des arbres et l’autre recensant les propriétés technologiques des bois. Parmi les espèces sélectionnées, les chercheurs ont ciblé la bagasse, un bois guyanais à croissance rapide, présentant une densité moyenne (le bois n’est ni trop lourd ni trop léger), et une forte durabilité. En caractérisant les propriétés physiques et mécaniques de plusieurs centaines d’échantillons de bois, issus d’une dizaine d’arbres à différent stades de croissance, les chercheurs ont mis en évidence que le bois de bagasse avait une stabilité dimensionnelle particulièrement forte, quelle que soit sa densité.

Pour comprendre pourquoi le bois de bagasse est aussi stable, les scientifiques se sont intéressés à la teneur en métabolites secondaires du duramen, ou bois de cœur. Cette partie centrale du tronc est plus foncée que la partie périphérique du bois, l’aubier, à cause des métabolites de défense synthétisés par l’arbre en le protégeant des insectes et des champignons. Les chercheurs ont comparé la manière dont des échantillons de bois de bagasse réagissaient au séchage en fonction de la quantité de métabolites présents dans le bois. Leurs résultats mettent en évidence que le cœur de ce bois est très stable quel que soit l’humidité et ce d’autant plus quand la teneur en métabolites secondaires augmente. Ce sont donc ces derniers qui bloquent le retrait et qui confèrent au bois de bagasse sa grande stabilité. Ces résultats montrent ainsi que le taux de métabolites peut être un facteur explicatif du retrait au séchage plus important que la densité. Ils permettent également de proposer des hypothèses sur le mécanisme de déformation mécanique du retrait.

Ces résultats ont permis de tester de nouveaux modèles statistiques qui intègrent la teneur en métabolites pour prédire le retrait d’un bois et donc son comportement au séchage. Les chercheurs souhaitent désormais approfondir leurs recherches pour comprendre l’impact de la nature chimique des métabolites sur les propriétés du bois. Ils souhaitent également étendre leurs analyses à une large diversité d’espèces guyanaises pour révéler de bons candidats à la plantation et à une production locale de bois d’œuvre, à l’image de la bagasse, déjà connue pour sa croissance rapide et sa durabilité et qui se distingue aujourd’hui par sa forte stabilité dimensionnelle.

Références :
New insights on wood dimensional stability influenced by secondary metabolites: the case of a fast-growing tropical species Bagassa guianensis Aubl. Julie Bossu, Jacques Beauchêne, Yannick Estevez, Christophe Duplais, Bruno Clair. PLOS ONE, 23 mars 2016.
Consulter le site web

Source : cnrs

Brésil : l’affaire Petrobras tourne mal

L’affaire Petrobras a été révélée en 2014. D’abord vue comme un scandale classique de corruption, l’affaire s’avère beaucoup plus étendue. Les investigations de la Justice, appuyée par la police fédérale, mettent à jour un vaste système entre, d’une part, la compagnie Petrobras en pleine expansion pour exploiter ses découvertes en offshore (les gisements de Pre-salt notamment), et d’autre part les grands groupes de construction brésiliens (Odebrecht, Galvão, Engevix, Correia, Mendes Junior, Camargo, ou Iesa). Les protagonistes se répartissent les contrats qu’ils surfacturent pour rétribuer leurs partenaires de Petrobras. Ainsi plusieurs haut-cadres de la compagnie auraient accumulé des dizaines de millions de dollars grâce à des sociétés-écran au Panama ou encore en Suisse. Le manque à gagner pour l’Etat serait compris entre 29 et 42 milliards de reis (entre 7,1 et 10,3 mds €) selon les sources. Il est cependant, par définition, très difficile de chiffrer avec exactitude les sommes détournées. Car les enquêteurs découvrent un système bien rôdé qui dépasse les seules sphères économiques et financières. Et pour cause, l’entreprise étant publique, bon nombre de politiciens y ont exercé des responsabilités, à commencer par la Présidente Dilma Roussef qui a été au conseil d’administration entre 2003 et 2010.

Financement illicite

L’enquête Petrobras a permis de mettre à jour un système élaboré de financement des partis politiques, notamment le Parti des Travailleurs (PT) et le parti social-démocrate PMDB. L’ancien directeur « Fourniture » de Petrobras, Paulo Roberto Costa, a ainsi détourné en moyenne 3% de chaque contrat qu’il supervisait pour financer les principales formations politiques du pays. Il a été condamné à 12 ans de prison dans le cadre de l’immense opération Lava Jato (lavage express), menée par le magistrat Sérgio Moro. Ce dernier est devenu un héro nationale en condamnant en mars dernier Marcelo Odebrecht, un des hommes d’affaires brésiliens les plus influents, à 19 ans de prison et 30 millions de dollars d’amendes. Du côté des politiques aussi des premières condamnations sont tombées. Ainsi, João Vaccari Neto, trésorier du PT a été condamné à une peine de 15 ans d’enfermement. Mais c’est bel et bien le cas de la Présidente Dilma Rousseff qui est au cœur du débat. Son passage par la compagnie pétrolière et le fort soupçon de trucage des chiffres officiels pour faciliter sa réélection en 2014 ont largement entaché son image de femme incorruptible qu’elle s’était forgée. Dernière erreur en date, l’entrée de l’ancien président Lula au gouvernement, inquiété par l’opération Lava Jato, a mis le feu au poudre, malgré l’aura toujours importante de ce dernier dans l’opinion publique. Cette manœuvre grossière a été perçue comme un aveu de culpabilité et a dopé la colère des manifestants. De nombreux ministres du PMDB, qui formait la coalition au pouvoir avec le PT, ont quitté le gouvernement en protestation.

Le pouvoir vacille

« Je ne démissionnerai jamais »

C’est la réponse qu’a donné lundi Dilma Rousseff suite à l’intense campagne médiatique dont elle est l’objet. Dénonçant une procédure « sans fondement légal », la Présidente du Brésil estime que l’opposition se sert de ces scandales pour préparer une sorte de « coup d’Etat institutionnel ». Elle a reçu lundi le soutien de l’avocat général, José Eduardo Cardozo, qui est chargé d’éclairer la commission parlementaire qui étudie la question. « La procédure de destitution a été compromise depuis le début et est en l’état invalide », selon lui. Mais la commission peut passer outre son avis et si tel est le cas, la chambre des députés devra se prononcer mi-avril. Concrètement, il faut à la Présidente une minorité de blocage de 171 députés pour empêcher la procédure de destitution.

Si le cas de Dilma Rousseff attire les projecteurs, c’est bel et bien toute la classe politique qui est rejetée par les Brésiliens, à l’image des rares politiciens « d’opposition » allègrement conspués lors de leurs éphémères participations aux manifestations de rues. Le rejet est réel et l’actualité ne fait que renforcer cet état de fait. Ainsi, les fameux « Panama Papers » sortis cette semaine dévoilent qu’Eduardo Cuhna, président de la Chambre brésilienne des députés, et instigateur de la procédure de destitution présidentielle aurait lui-même demandé les services du désormais connu cabinet Mossack Fonseca, pour créer des sociétés-écran au Panama. Par ailleurs, même le vice-président Michel Temer, qui prendrait la place de Dilma Roussef en cas de destitution, est lui-aussi cité dans l’opération Lava Jato.

Brouillard

Quelque soit le résultat final de la procédure de destitution, peu probable que la tête de Dilma Rousseff suffise à calmer une opinion totalement désabusée par la corruption endémique qui ronge le pays. La crise politique a commencé à faire sentir ses effets sur l’économie déjà plombée par la chute des cours des matières premières. Petrobras a nommé un nouveau directeur en la personne de Luiz Nelson Guedes de Carvalho, dont la nomination devrait être confirmé en conseil d’administration le 28 avril prochain. Le groupe brésilien, qui a annoncé une perte record de 10,2 milliards de dollars au 4ème trimestre 2015, a annoncé un plan de vente d’actifs de 14 mds $ pour faire face à ses charges financières et prévoit de supprimer 12 000 des 57 000 emplois que compte le groupe. Reste à savoir comment la compagnie va pouvoir faire face aux importants investissements qu’elle doit consentir, et ce, alors que ses revenus s’effondrent. Une équation qui peut également s’appliquer aux comptes publics brésiliens.

Romain Chicheportiche