Héritage épigénétique : ce qu’a vécu votre père influe sur votre vie

Ce que le père fait avant la naissance de son enfant peut influer sur son avenir. Selon une étude menée par des généticiens Canadiens et Québecois, et publiée dans la revue Science, la façon de vivre et l’environnement d’un futur père influencerait en effet la vie de ses enfants, voire même de ses petits-enfants.  

Signatures épigénétiques

Les scientifiques, spécialistes de l’épigénétique (discipline de biologie qui consiste à étudier les mécanismes moléculaires modulant l’expression du patrimoine génétique en fonction du contexte), se sont ainsi penchés sur les “signatures” ADN laissées par les pères – et non pas les mères, puisque leur capital génétique n’intervient que pour la moitié du génome de l’enfant.

Selon les chercheurs, le fait de manipuler le processus épigénétique, durant la production de sperme chez les souris, influence le développement de leur descendance – pendant plusieurs générations. Les généticiens ont ainsi modifié l’activité d’une protéine histone (un constituant protéique des chromosomes) contrôlant le processus épigénétique – la “KDM1A histone lysine 4 demethylase”. La manipulation génétique a ainsi, indique l’étude, influé sur la santé et le développement de la progéniture des souris.

Un programme génétique “mis à jour”

La “variation génétique” des histones commandant l’epigénétique pourrait, selon les chercheurs, produire des “effets semblables” chez les humains, indique le site The Conversation. Et une telle variation pourrait être provoquée par plusieurs “facteurs environnementaux” lors de la production de sperme – autrement dit, par la façon de vivre du père. Nous pourrions dès lors éviter l’apparition de malformations congénitales, ou de maladies, en adoptant un bon mode de vie.

Au delà de ces considérations, les chercheurs se sont aussi intéressés à la variation génétique provoquée inconsciemment par les pères, en vue de l’évolution de l’espèce. Ainsi, certaines variations sont “utiles” pour permettre aux descendants de s’adapter au monde dans lequel ils sont destinés à vivre.

Autrement dit, les enfants ressentent “l’environnement métabolique” de leurs géniteurs, qui ont modifié en amont leur “programme génétique” – et ce processus se produit, d’une façon souvent infime, de génération en génération, à la façon d’une “mise à jour” périodique, d’un héritage épigénétique remodelé sans cesse.

Par Fabien Soyez

Tournesol et colza, des lipides d’intérêt pour la chimie verte

Dans un contexte économique et écologique où la réduction de l’utilisation des produits issus du pétrole conduit à se tourner vers des matières premières renouvelables, issues de la biomasse végétale, les lipides sont des molécules clés pour la production d’agrocarburants et de produits biosourcés issus de la chimie verte. Leur élaboration par des microorganismes à partir de la biomasse lignocellulosique est en plein essor. Des chercheurs de l’Inra, d’AgroParisTech et du CNRS ont exploré le potentiel de résidus issus de l’agriculture pour la production de lipides d’intérêt par une bactérie lignocellulolytique, Streptomyces lividans.

Des tiges de tournesol et des pailles de colza…

S’intéressant aux tiges de tournesol et aux pailles de colza, jusqu’alors peu explorées, les scientifiques ont mis en évidence que les unes et les autres présentent un taux moyen de lignines peu élevé (17 %), proche de celui du maïs mais bien moins élevé que celui du bois, tous deux mieux connus des filières de bioconversion. Ces lignines ont par ailleurs la particularité d’être structurellement faciles à convertir en molécules d’intérêt. Tiges de tournesol et pailles de colza renferment toutes deux, en moyenne, 32 % de cellulose et 16 % d’hémicelluloses. Au final, ces caractéristiques hissent d’ores et déjà ces résidus agricoles lignocellulosiques au rang de substrat potentiellement intéressant pour les filières de bioconversion.

…pour la production bactérienne d’acides gras originaux

Connues pour leur capacité à dégrader les lignocelluloses et à produire des molécules d’intérêt, tels des antibiotiques ou des lipides, des bactéries du genre Streptomyces, S. lividans, se sont révélées capables de se développer sur les résidus de colza comme de tournesol. Le fractionnement de ces résidus lignocellulosiques a permis de montrer que les bactéries se développent préférentiellement sur la fraction glucidique soluble dans l’eau de ces résidus. Cette observation pousse à optimiser les conditions de culture de cet organisme afin qu’il utilise d’autres fractions ou à envisager des prétraitements thermiques ou chimiques pour libérer les molécules utilisables par ces microorganismes. Au cours de leur croissance, ces bactéries produisent des acides gras et cette
production peut atteindre 44 % de celle réalisée à partir de l’arabinose, un glucide très favorable à la croissance en laboratoire de S. lividans. Parmi ces acides gras, les scientifiques ont identifié des acides gras originaux par leur structure puisqu’ils sont ramifiés ou comportent un nombre impair d’atomes de carbone voire réunissent ces deux caractéristiques. Ils représentent près des ¾ des acides gras produits.

Au final, de la parcelle agricole à la fiole de laboratoire, ce travail pionnier révèle l’intérêt des résidus lignocellulosiques d’origine agricole que sont les tiges de tournesol et les pailles de colza pour la croissance de bactéries lignocellulolytiques et la production de lipides d’intérêt pour la chimie verte. Soulignons qu’il a nécessité de mettre au point de nombreuses techniques d’analyse susceptibles d’intéresser le domaine industriel de la bioconversion. Plus largement, ce travail ouvre de nouvelles perspectives pour la valorisation par voie biotechnologique de coproduits agricoles encore sous-exploités. Il appelle à être poursuivi pour en démonter la faisabilité à plus grande échelle.

Source : CNRS (http://www2.cnrs.fr/presse/communique/4273.htm)

Un sondage de l’Univers XXL

Ce sondage, baptisé XXL, et réalisé grâce notamment au satellite XMM-Newton de l’ESA et aux télescopes de l’ESO, a permis de localiser et d’identifier 450 amas de galaxies, ainsi que 22 000 galaxies actives1 . Astronomy & Astrophysics publie une première série de résultats de la collaboration internationale, menée par le CEA, et qui compte des chercheurs et moyens du CNRS, du CNES, d’Aix Marseille Université, et de l’Observatoire de la Côted’Azur. Les amas de galaxies sont les plus grandes structures de l’Univers, pouvant atteindre des masses de plus de cent mille milliards de fois celle du Soleil. Le sondage XXL, réalisé de 2011 à 2013 à l’issue d’observations2 en rayons X du satellite XMM-Newton, a pour but de constituer un catalogue de plusieurs centaines d’amas de galaxies, situées jusqu’à des distances si lointaines qu’on les observe telles qu’elles étaient lorsque l’Univers avait la moitié de son âge actuel. Les chercheurs pourront ainsi reconstituer l’évolution et la répartition spatiale de ces structures, et tester différents scénarios cosmologiques.

Cap-espace-xxl

Les résultats présentés dans cette première série d’articles portent sur les 100 amas de galaxies les plus brillants détectés par le sondage XXL. Ils permettent une première reconstruction de la structure de l’Univers jusqu’à des distances de plus de 11 milliards d’années-lumière3 . Ils révèlent une densité d’amas sensiblement moins élevée que celle prévue par les modèles cosmologiques, ainsi qu’une quantité de gaz dans ces amas également plus faible qu’attendue. Un déficit similaire avait été observé pour les amas plus massifs directement détectés par le satellite Planck sur tout le ciel. Cela suggère, soit que certains paramètres décrivant la physique des amas doivent être revus, soit que le modèle cosmologique est plus complexe – ou différent – de ce qui est envisagé actuellement. L’étude de l’échantillon complet des 450 amas du projet XXL, qui sera publiée d’ici deux ans, devrait permettre de préciser cette conclusion. Les premières analyses d’XXL révèlent aussi la découverte de cinq nouveaux « superamas » ou « amas d’amas » de galaxies : par exemple, le super-amas XLSSC-e, dans la constellation de la Baleine, à une distance d’environ 4,5 milliards d’années-lumière, est constitué de six amas différents couvrant une région du ciel de 0,3 degré par 0,2 degré, ce qui, à cette distance, correspond à des dimensions de 7 x 4,5 millions d’années-lumière.

cap-espace-xxl-2

Le projet XXL constitue une étape intermédiaire importante avant les prochains sondages de nouvelle génération, qui auront pour objectif de couvrir l’ensemble ou une partie significative du ciel, tels que DES (Dark Energy Survey), eROSITA (extended ROentgen Survey with an Imaging Telescope Array), LSST (Large Synoptic Survey Telescope) et EUCLID.

Source : cnrs

L’économie circulaire peine à surplomber la linéaire

« On est sur une conjoncture générale très difficile, qui s’applique également au recyclage, avertit Jean-Philippe Carpentier, Président de la Fédération des entreprises du recyclage (Federec). On a un prix du pétrole qui a été divisé par deux et demi, le prix du minerai de fer a été divisé par deux, le cuivre a chuté de 30 à 40 % ».

« Même si on parle de plus en plus d’économie circulaire, dans les faits, on a une économie linéaire qui prend le pas sur l’économie circulaire, pour des raisons tout simplement économiques », poursuit Jean-Philippe Carpentier. Car le faible prix des matières vierges les rend plus compétitives que les matières issues du recyclage. Un paradoxe, alors que la loi de transition énergétique pour la croissance verte vient d’être votée en France et à l’approche de la COP21 !

Le chiffre d’affaires du marché du recyclage tourne autour de 9 milliards d’euros en 2014, en baisse de 2 % par rapport à 2013.  Pourtant, le volume des déchets recyclés a augmenté de 4 %, portant le total à plus de 74 millions de tonnes. Cela témoigne d’une perte de valeur sensible pour la profession, notamment due à la baisse des marges et des volumes traités de métaux ferreux.

Résister et réagir pour mieux régner

Malgré tout, la filière résiste. Elle a poursuivi ses investissements à hauteur de 455 millions d’euros, soit 5 % de son chiffre d’affaires global, le nombre d’employés a augmenté de 1,8 %. Pour continuer sur sa lancée, les futurs investissements porteront sur les systèmes de tri pour améliorer la qualité des matières premières recyclées, afin de mieux concurrencer les matières vierges.

« La raréfaction des matières est toujours là, même si le prix ne le montre pas, réagit Jean-Philippe Carpentier. On demande à travailler cette industrie du recyclage pour être prêt à substituer, petit à petit, durablement, les matières vierges par les matières issues du recyclage ».

Federec milite donc pour une taxe carbone élevée qui permettrait de contrecarrer le bas prix du charbon et du pétrole.

En plus, une étude de l’Ademe et de Federec, à paraître mi-octobre, va chiffrer l’évitement d’émissions de CO2 et les économies d’énergie grâce aux matières issues du recyclage. « On pourra dire au client combien de tonnes de CO2 ont été évitées grâce à la matière recyclée utilisée dans ses produits », prévient le Président de Federec. Les professionnels espèrent pouvoir ainsi valoriser cette valeur de leur produit pour concurrencer le prix des matières vierges.

« La spéculation sur les prix favorise à court terme l’utilisation des matières vierges au détriment de la protection de l’environnement à long terme. Il devient essentiel d’intervenir pour inciter les entreprises à privilégier les matières premières issues du recyclage et développer une économie circulaire, efficace en ressources », conclut Philippe Carpentier.

Par Matthieu Combe, journaliste scientifique

Et aussi dans
les bases documentaires :

Que vaut « D-Wave 2X » l’ordinateur quantique de Google et de la Nasa ?

Partenaires dans le domaine des supercalculateurs depuis deux ans, Google et la Nasa ont réussi à résoudre un problème en 1 seconde grâce à leur supercalculateur quantique – contre 10.000 ans pour un ordinateur classique.

La machine de la Nasa et de Google, baptisée le “D-Wave 2X”, est basée sur un prototype conçu par D-Wave Systems, une société canadienne spécialisée dans les calculateurs quantiques.

ordinateur-quantique-1078x800

Le “bit quantique” pour doper la puissance de calcul

Ce système quantique, qui a permis d’effectuer un calcul complexe, 100 millions de fois plus vite qu’avec un ordinateur conventionnel, repose sur  le “bit quantique”, ou “qubit” – la plus petite unité de stockage d’information quantique.

Contrairement au “bit”, qui prend soit la valeur d’un 0, soit la valeur d’un 1, le “qubit” est une combinaison linéaire. Il peut prendre la valeur 0 ou 1, mais aussi les deux ensemble – selon le principe de la superposition d’états quantiques, comme illustré dans l’expérience du chat de Schrödinger, où un atome peut être à la fois intact et désintégré.

Cette technologie, qui permet de démultiplier le potentiel de calcul, est pour Google, qui a créé, avec la NASA, la “ Quantum A.I. Lab Team”, un moyen de développer à terme une réelle “intelligence artificielle”.

Un problème d’optimisation avec des milliers de variables binaires

Pour l’heure, les recherches continuent. Et Google se félicite d’avoir battu un “record” de calcul avec son nouveau supercalculateur quantique. “Ce qu’une machine D-Wave fait en 1 seconde, prendrait 10 000 ans à un ordinateur conventionnel doté d’un seul coeur processeur pour traiter une tâche similaire”, a indiqué Hartmut Neven, directeur de l’ingénierie de Google, lors d’une conférence de presse relayée par Le Monde Informatique.

Concrètement, le calcul résolu par le système quantique de la Nasa et de Google était un problème d’optimisation, ou problème de programmation linéaire. Ce type de problème, très long à résoudre en raison des nombreuses possibilités (des milliers de variables binaires dans le cas qui nous intéresse) permettant de parvenir au résultat recherché, s’applique à de nombreuses situations, comme la planification de la production ou encore la distribution dans des réseaux. Il est fréquemment utilisé pour planifier des missions spatiales, pour modéliser le contrôle du trafic aérien, ou encore pour rechercher des exoplanètes.

Le “quantum annealing”, ou “recuit simulé quantique”

“La Nasa a une grande variété d’applications qui ne peuvent pas être résolues de façon optimisée avec des supercalculateurs traditionnels dans une durée réaliste à cause de leur complexité exponentielle, alors que les systèmes quantiques sont une opportunité pour résoudre de tels problèmes”, note Rupak Biswas, du Ames Research Center de la Nasa.

Le système quantique D-Wave fonctionne avec une puce, la “quantum annealer” – en référence à la méthode du “quantum annealing” (QA, ou “recuit simulé quantique” en français). Cette technique utilise un algorithme afin de résoudre les problèmes d’optimisation.

Une technologie cantonnée au QA

Les résultats présentés par Google sont néanmoins à prendre avec des pincettes, car ils n’ont pas encore été examinés par la communauté scientifique. A noter, comme le remarque Futura Sciences, qu’il ne s’agit pas d’un “ordinateur quantique” (comme le prétend Google), mais d’un supercalculateur, qui n’est donc pas capable d’effectuer “n’importe quel programme” – mais juste des problèmes de QA.

Et “s’il est bien vrai que certains algorithmes quantiques sont bien plus efficaces que certains algorithmes classiques pour résoudre un problème particulier, cela n’est pas vrai en général”, indique Futura Sciences.

Et étant donné “la difficulté et le coût de la mise en œuvre d’un calculateur quantique de plus en plus puissant, il ne va pas de soi non plus que la simple montée en puissance d’un ordinateur classique ne soit pas une solution plus satisfaisante à tout point de vue pour certains problèmes”, conclut le site.

Dans Computer World, Google rappelle qu’il reste encore “du chemin à parcourir” avant de concevoir une technologie quantique réellement utilisable – notamment parce que le D-Wave 2X se cantonne aux problèmes d’optimisation résolvables par le QA.

Par Fabien Soyez

Le coup de pouce de Microsoft à la France

Depuis, un partenariat d’une durée de 18 mois a été signé entre la ministre de l’Éducation nationale, de l’Enseignement supérieur et de la Recherche Najat Vallaud-Belkacem et le président de Microsoft France Alain Crozier, lundi 30 novembre. Avec cet accord, la firme de Redmond s’engage à faciliter la mise en place du Plan Numérique qui vise à « expérimenter de nouvelles formes d’enseignements et d’apprentissages grâce aux outils numériques et refonder l’école ». La phase de déploiement de ce plan est prévue pour la rentrée 2016.

Microsoft va investir 13 millions d’euros. Pour penser et développer les solutions qui permettront aux étudiants de se servir des applications (comme Office 365) sur leur équipement. Pour l’accompagnement et la formation aux nouvelles technologies du personnel enseignant (professeurs, chefs d’établissements…) et des acteurs du Plan Numérique en général. Pour l’initiation des élèves à la programmation et au codage, sur demande des enseignants. Pour participer à la mission que s’est fixée l’État d’outiller de tablette tactile tous les collégiens autour de 2018.

Tout cela, avec l’engagement que la vie privée et les données personnelles des élèves et des enseignants seront protégées. Une « Charte de confiance » serait actuellement en cours de rédaction.

La French Tech bénéficie du soutien de Microsoft

Les entreprises étrangères parient sur la France. L’écosystème numérique de la French Tech, et plus largement le potentiel sur ce sujet de la France, semble n’avoir jamais été autant attractif pour certains investisseurs étrangers puissants depuis un moment. Cette année, l’entreprise informatique américaine Cisco, spécialisée dans les réseaux, signait un partenariat avec l’état prévoyant une « coopération dans le domaine de l’éducation et de la formation professionnelle aux métiers des réseaux numériques et un investissement dans les start-up de la French Tech à hauteur de 100 millions de dollars ». C’est maintenant au tour de Microsoft de renforcer son investissement auprès de la France avec une enveloppe de 70 millions d’euros consacrée aussi aux start-up de la French Tech, sur trois ans.

Comment se traduit cet accord ? Dix incubateurs et accélérateurs français – parmi les plus importants – comme le Numa (Paris), Axeleo (Lyon), Technowest (Bordeaux) ou encore l’Euratechnologies (Lille) profiteront d’un accompagnement commercial ainsi que des conseils liés à leur développement. Et dès la première année, 300 start-up se verront offrir la possibilité d’utiliser les solutions de cloud ou de big data proposées par Microsoft.

À qui profite ces investissements ?

Comme le disait Manuel Valls en février 2015 à l’occasion de l’accord avec Cisco, ces partenariats « constituent des opportunités de développement et des leviers de croissance, de compétitivité et d’emploi pour le Pays ». Pour Microsoft, en revanche, c’est un moyen de s’assurer que des jeunes pousses bercées à leurs produits continueront à s’en servir demain. Elle garde aussi de cette manière un oeil sur les talents français, en vue, potentiellement, de racheter les start-up qu’elle considère comme particulièrement prometteuses. Et il est vrai que les ingénieurs français sont très appréciés dans le monde.

La French Tech, qu’est-ce que c’est ?

Dirigée par David Monteau, la French Tech est avant tout une mission initiée par le Ministère de l’Économie. Son crédo : « Tous unis pour la croissance de nos start-up » résume parfaitement son ambition qui est de trouver des projets innovants, de les accompagner tout au long de leur réalisation, par la coordination des actions notamment, jusqu’à leur concrétisation.

Par Sébastien Tribot

Zoom sur… la 5G

La 5G est la cinquième génération de standards pour la téléphonie mobile, faisant suite à la 4G.

La mise en place de la technologie 5G pourrait permettre des débits de télécommunication mobile, de plusieurs gigabits de données par seconde, soit jusqu’à 1 000 fois plus rapides que les réseaux mobiles en 2010 et jusqu’à 100 foisplus rapide que la 4G à l’horizon 2020.

Présentation des enjeux de recherche liés à la 5G et à sa mise en place sur le réseau, avec les explications de Richard Keromen, ingénieur marketing chez National Instruments :

En savoir plus sur les produits et les projets évoqués dans cette vidéo :

Le début d’une impulsion mondiale ?

En clôture de la COP 21, François Hollande a tenu à souligner « Nous entrons dans l’ère du bas carbone, c’est un mouvement puissant et irréversible. Ce mouvement va bien au-delà des Etats et des Gouvernements. Des milliers de régions, de provinces, de villes se sont engagées pour réduire les émissions de gaz à effet de serre d’ici 2050. Des entreprises, le secteur financier ont décidé de réorienter nos investissements vers les secteurs bas-carbone ». « Ici à Paris, nous avons lancé de multiples initiatives : l’initiative africaine pour apporter l’électricité à tous, une alliance a été conclue pour le développement de l’énergie solaire, pour les innovations, pour partager les technologies », a-t-il rappelé.

Lors de la COP21, plusieurs opérations mondiales ont en effet été lancées. Elles adressent un message fort aux marchés financiers et aux investisseurs : le futur est aux énergies renouvelables ! Au premier jour de la COP, le 30 novembre, tout d’abord, en présence de 29 chefs d’Etat et de gouvernement, François Hollande, et le Premier Ministre indien ont lancé l’Alliance solaire internationale (ISA). Elle vise à rassembler 120 pays, regroupant 4,5 milliards d’habitants, pour créer un marché suffisamment vaste et homogène en matière de conditions de construction de parcs solaires pour attirer massivement énergéticiens, financeurs et autres acteurs du solaire et faire encore diminuer les prix. L’Alliance vise l’installation de 1000 gigawatts de capacités d’ici à 2030, soit environ 1000 milliards de dollars d’investissements.

La réaction ne s’est pas faite attendre : Gérard Mestrallet, PDG d’ENGIE, a annoncé le lendemain la création de l’Initiative Terrawatt, une alliance d’industriels et d’investisseurs pour établir les conditions réglementaires nécessaires au déploiement massif d’une production d’énergie solaire compétitive. « Toutes les conditions sont réunies pour rendre cet élan concret, dès lors que le cadre réglementaire sera en place. Nous avons besoin d’un marché solaire commun. Qu’il s’agisse de fournisseurs de technologies, d’institutions financières ou d’énergéticiens comme ENGIE, le secteur privé est prêt à entrer à pleine vitesse dans la transition énergétique et à concevoir des stratégies économiques permettant d’apporter des solutions globales.» a-t-il annoncé.

Après l’alliance solaire, la géothermie…

Le 7 décembre, 36 pays et 23 institutions lançaient à leur tour une alliance mondiale pour la géothermie (CGA). Si aujoud’hui, seulement 12 GW ont été installés dans le monde, l’objectif de l’alliance est de multiplier par cinq la capacité installée de production d’énergie géothermique et d’au moins doubler le chauffage géothermique d’ici 2030. Certes ces objectifs sont moins ambitieux que ceux de l’alliance solaire, mais la géothermie n’est pas encore aussi compétitive ! Cette initiative témoigne néanmoins d’une évolution des mentalités : aujourd’hui seulement 24 pays ont développé de véritables capacités géothermiques et seulement 6% du potentiel énergétique isssu de la géothermie identifié est exploité. L’alliance regroupe des Etats où la géothermie se développe déjà, comme l’Islande ou la France, mais aussi des pays désireux d’exploiter leurs ressources : le Kenya, la Malaisie, les Philippines, le Guatemela, le Mexique…

Des villes 100% énergies renouvelables en 2050

Plus de la moitié de la population mondiale vit en zones urbaines. Vraisemblablement, les villes accueilleront même les deux tiers de la population en 2050. Leur rôle dans la lutte contre le réchauffement climatique est donc capital. Le 4 décembre, à l’issu du Sommet des élus locaux pour le climat à l’Hôtel de Ville de Paris, 1 000 collectivités se sont engagées à « réduire de 3,7 gigatonnes les émissions annuelles de gaz à effet de serre dans les zones urbaines d’ici 2030 ». Cela représente 30% de la différence prévue entre les contributions nationales rendues par les pays (INDC) et les niveaux d’émissions recommandés par le GIEC pour limiter le réchauffement à 2°C en 2100.
Par ailleurs, ces collectivités, regroupant 600 millions d’habitants, déclarent « soutenir des objectifs ambitieux en faveur du Climat tels que la transition vers une énergie 100% renouvelable […] ou une réduction de 80% des émissions de gaz à effet de serre d’ici à 2050 ».
Le désinvestissement du charbon et du pétrole?

Alors que les investissements dans les énergies renouvelables se multiplient, l’ONG environnementale 350.org a lancé un mouvement important pour le désinvestissement des combustibles fossiles. Elle a annoncé qu’en prévision de la COP21, plus de 500 institutions financières, représentant 3400 milliards de dollars d’actifs financiers ont pris des engagements pour se désinvestir de ces énergies. En l’espace de 10 semaines ce sont 100 institutions supplémentaires qui ont rejoint le mouvement, qui s’intensifie donc. Pour Avaaz, la COP21 « envoie un signal clair aux investisseurs partout dans le monde: enterrer son argent dans les énergies fossiles est un pari perdu d’avance. C’est les énergies renouvelables qui seront désormais rentables. La technologie qui nous amènera à 100% d’énergies propres, voilà où se réaliseront les bénéfices du futur. »

Si l’accord conclu à la COP21 ne fait aucunement référence au prix du carbone ou à une taxe carbone, plusieur pays lancent à leur niveau national des marchés ou une taxe carbone. Selon l’Institut de l’économie pour le climat, le carbone a déjà un prix dans l’Union Européenne, dans plusieurs Etats du Canada et des Etats-Unis, au Kazakhstan, en Nouvelle-Zélande, en Suisse, en Corée du Sud, dans des villes japonaises (Tokyo et Saitama) et dans des provinces chinoises. L’Afrique du Sud et le Chili envisagent de mettre au point une taxe carbone. Les prix y sont néanmoins très différents, de 1,5 € la tonne de CO2 à 118,3 € /tonne. Ces marchés et taxes carbone sont capitaux pour mettre fin aux énergies fossiles.

Sur le terrain, les investissements et les mentalités évoluent donc. De grands acteurs économiques effectuent des progrès inattendus : déjà 114 grandes entreprises se sont engagées à aligner leurs émissions de gaz à effet de serre sur un objectif de 2°C de réchauffement. Les campagnes contre les grandes causes environnementales (déforestation, Arctique, OGM, bien-être animal…), la consommation collaborative et alternative prennent de l’ampleur… Le monde semble être sur le point de changer.

Par Matthieu Combe, journaliste scientifique

Vers un engagement du transport aérien pour le climat ?

Depuis le Protocole de Kyoto, l’aviation civile est exonérée de tout engagement dans la lutte contre le changement climatique. Pire, le kérosène propulsant les avions est exhonéré de toutes taxes. La COP21 a encore échoué à imposer des objectifs au secteur et renvoie la décision à la prochaine assemblée générale de l’Organisation de l’aviation civile internationale (OACI) de septembre 2016. Pourquoi ? Notamment, parce que le caractère international de cette activité rend très difficile le calcul d’objectifs de réduction des gaz à effet de serre par pays.

Il faut également préciser que l’aviation est un secteur régi par des règles particulières. Depuis 1947, le transport aérien international dépend de l’OACI, un organisme des nations unies associant 191 Etats. Ces derniers votent à la majorité toute modification du cadre réglementaire.

Quel rôle de l’aviation dans le changement climatique?

Le transport aérien contribuerait à 2,5 % des émissions mondiales de CO2. Mais ses émissions augmentent deux fois plus vite que ceux de la moyenne mondiale depuis 1980. Selon Airbus, 32 600 avions de plus de 100 places devraient voir le jour d’ici 20 ans. De son côté, Boeing table sur la fabrication totale de 38 050 avions d’ici 20 ans. Les deux géants estiment une progression annuelle du trafic aérien mondial entre 4,6 % et 4,9 %.

Problème : historiquement, le rendement énergétique des avions s’est amélioré de 1,5 % à 2 % par an. Le trafic augmente donc plus vite que les progrès techniques, ce qui implique une augmentation globale des émissions de gaz à effet de serre. Si le trafic croît de 5 % par an jusqu’en 2050, au rythme actuel de réduction de la consommation, les émissions mondiales de C02 liées aux vols internationaux pourraient passer de 448 millions de tonnes actuellement à 760 millions de tonnes en 2020 et plus de 1,5 milliards de tonnes en 2050.

L’objectif de la prochaine assemblée générale de l’OACI sera de faire adopter un accord mondial encadrant les émissions du secteur à partir de 2020. L’objectif devrait être d’obtenir un pic des émissions de CO2 en 2020 et de les abaisser de 50 % d’ici 2050 par rapport à 2005. Mais l’arrivée de nouveaux avions plus performants et de nouvelles motrisations pour les appareils plus anciens ne suffiront pas pour inverser la courbe des émissions. Seuls les biocarburants et l’arrivée massive d’avions électriques pourraient changer la donne. Mais l’avion électrique n’est pas encore une réalité pour les avions de ligne et les biocarburants ne devraient pas être généralisés dans l’aviation avant 2040…

Il semble donc très peu problable que le secteur atteigne ses objectifs de réduction sans mécanismes complémentaires. Plusieurs mécanismes sont donc à l’étude. L’Union européenne aimerait faire entrer l’aérien dans le marché des émissions de CO2, mais elle rencontre une opposition quasi mondiale. L’industrie aérienne considère qu’elle ne peut à la fois financer le progrès technique et entrer sur le marché des émissions de CO2. Vraisemblablement, il ne s’agira pas de taxer le transport aérien, mais plutôt de mettre en place un système mondial d’achats de réductions d’émissions de CO2 à d’autres secteurs ou des mesures de compensation, essentiellement des programmes de replantation d’arbres. Le kérosène pourrait également enfin être taxé… Mais les industriels se sont toujours farouchement opposés à une telle taxation.

Par Matthieu Combe, journaliste scientifique

Les raisons de la perte de poids d’une étoile âgée

VY Canis Majoris est un monstre stellaire, une hypergéante rouge, l’une des étoiles les plus imposantes de la Voie Lactée. Sa masse est comprise entre 30 et 40 masses solaires, et sa luminosité équivaut à celle de 300 000 Soleils. Dans sa phase évolutive actuelle, qui est celle d’une étoile entamant sa fin de vie – en expansion dans ce cas, elle s’étendrait jusqu’à l’orbite de Jupiter.

VLT image of the surroundings of VY Canis Majoris seen with SPHE

De nouvelles observations de cette étoile ont été effectuées au moyen de l’instrument SPHERE qui équipe le VLT. SPHERE est doté d’un système d’optique adaptative nettement plus performant que les systèmes d’optique adaptative antérieurs. Aussi les images qu’il génère bénéficient-elles d’une meilleure correction. De sorte que la moindre structure figurant aux côtés d’intenses sources de lumière peut être détectée et observée dans le détail. En l’occurrence, SPHERE a clairement mis en évidence l’existence de nuages de matière autour de VY Canis Majoris.

En commutant SPHERE sur le mode ZIMPOL, l’équipe a non seulement été en mesure de sonder le cœur du nuage de gaz et de poussière qui entoure l’étoile, mais également d’observer la diffusion et la polarisation de la lumière stellaire par la matière environnante. Ces mesures ont permis d’accéder aux insaisissables propriétés de la poussière.

L’analyse poussée des données de polarisation a révélé la taille relativement élevée des grains de poussière. Leur diamètre, voisin de 0,5 micromètres, peut paraître infime. Il est en réalité quelque 50 fois supérieur à celui des particules de poussière qui emplissent l’espace interstellaire.

Au cours de leur phase d’expansion, les étoiles massives perdent d’importantes quantités de matière – chaque année, VY Canis Majoris expulse de sa surface l’équivalent de 30 masses terrestres sous la forme de gaz et de poussière. Ce nuage de matière est projeté vers l’extérieur avant que l’étoile n’explose. Il rejoint ainsi l’espace interstellaire, à l’exception d’une fraction de poussière détruite lors de l’explosion. Cette matière, ainsi que les éléments plus lourds créés lors de la phase explosive, constitueront la base de la prochaine génération d’étoiles et de leurs cortèges de planètes.

Jusqu’à présent, le processus d’expulsion de la matière de la haute atmosphère stellaire précédant l’explosion de l’étoile géante, demeurait inconnu. La pression de radiation, cette force qu’exerce la lumière stellaire, semblait en être responsable. De faible intensité, son effet ne pouvait toutefois s’exercer efficacement que sur des grains de poussière de surface étendue, de taille élevée donc [2].

“Les étoiles massives sont caractérisées par de courtes durées de vie”, rappelle Peter Scicluna de l’Institut Académique d’Astronomie et d’Astrophysique de Taïwan, auteur principal de l’article. “Lorsque leur existence s’achève, elles perdent une grande quantité de matière. Par le passé, nous ne pouvions qu’imaginer les étapes de ce scénario. Aujourd’hui, grâce aux données de SPHERE, nous avons découvert l’existence de gros grains de poussière autour de cette hypergéante. Leur taille est suffisante pour qu’ils soient propulsés à grande distance de l’étoile par l’intense pression de radiation stellaire, ce qui explique la rapide perte de poids de l’étoile.”

Le fait que de gros grains de poussière se trouvent à si grande proximité de l’étoile signifie que le nuage peut effectivement diffuser la lumière visible en provenance de l’étoile et être poussé par la pression de radiation stellaire. La taille des grains de poussière indique par ailleurs qu’il survivra en grande partie à l’explosion de VY Canis Majoris en supernova [3]. Cette poussière enrichira alors le milieu interstellaire environnant, nourrissant les futures générations d’étoiles et les incitant à former des planètes.

Sourcehttp://www.eso.org/public/france/news/eso1546/

Venezuela : fin du rêve bolivarien dopé au pétrole

La défaite du parti chaviste aux élections du 6 décembre dernier au Venezuela est historique. Pour la première fois depuis l’arrivée au pouvoir de Hugo Chavez en 1998, son parti, le PSUV, perd une élection et, dans la foulée, la majorité à l’Assemblée nationale.

Chavez

Elections transparentes

Alors que l’opposition avait mis en garde, avant les élections, contre un risque de trucage, le scrutin s’est une nouvelle fois déroulé dans le calme et de manière transparente. Le Président Maduro n’a pu que reconnaître sa défaite face à l’ampleur du vote. La Table de l’unité démocratique (MUD, en initiales espagnoles), qui réunit l’ensemble des forces d’opposition au mouvement chaviste, a remporté 112 des 165 sièges que compte la chambre basse du Parlement. Cela donne à la MUD une majorité des deux tiers, un détail décisif dans la Constitution vénézuélienne. En effet, l’opposition disposera des moyens de faire voter des lois jugées prioritaires par ces derniers comme la libération des prisonniers politiques, au premier rang desquels Leopoldo Lopez. D’autres symboles du Chavisme pourraient être mis en cause par la nouvelle Assemblée à l’instar de la « Loi sur les prix juste », un marché alimentaire d’Etat parallèle et subventionné, le contrôle des changes et le système de santé. Le champ d’action de l’opposition couvre l’économie de manière générale, les medias, les services publics ou encore la sécurité. La MUD a mis en ligne ces principales réformes au lendemain de sa victoire (Propositions).

Le moyen de pression le plus important sera à n’en pas douter le referendum révocatoire de mi-mandat, instauré par Hugo Chavez. La Constitution permet à l’opposition d’appeler dès 2016 les électeurs aux urnes pour se prononcer sur le cas Maduro. Ce dernier garde néanmoins le contrôle du gouvernement, donc de l’Exécutif, et dispose d’un pouvoir de veto dont il a d’ores et déjà annoncé être prêt à user. Pour autant, cette défaite marque un coup d’arrêt à la Révolution bolivarienne débutée en 1998.

Fin du chavisme ?

La déroute électorale du 6 décembre n’est pas vraiment une surprise, même si l’ampleur de la défaite a surpris les observateurs. Le mouvement chaviste subit l’usure du pouvoir et la désaffection grandissante d’une partie de l’électorat populaire qu’il avait pourtant si bien su fédérer. La dégradation sensible du pouvoir d’achat et la multiplication des scandales de corruption sont en grande partie responsable de ce rejet. L’inflation s’est accélérée en 2015 pour atteindre des niveaux élevés mais si aucune donnée fiable ne peut être donnée (entre 60 et 200% selon les sources). Cela pousse les Vénézuéliens à recourir massivement au marché clandestin de devises. Certains hauts cadres du Parti auraient également profité du fossé avec les cours officiels et ledit marché noir pour amasser de petites fortunes. Des pénuries sur des produits de première nécessité se sont multipliées ces derniers mois sans que le gouvernement ne parvienne à enrayer le glissement vers l’économie souterraine.

Last but not least, la mort du Colonel Hugo Chavez en 2013, a porté un coup fatal à un mouvement qui pratiquait à l’envi le culte de la personnalité. L’aura de Chavez reste encore très grande. Les mesures qu’il a prises ont permis d’augmenter sensiblement le niveau sanitaire et d’éducation de la population. Il n’a par ailleurs jamais été mis en cause dans des affaires d’enrichissement personnel. Mais la relève assurée par Nicolas Maduro, dauphin désigné, ne convainc pas. En sur-jouant la carte du successeur, il n’a jamais su emballer l’électorat. Pour autant, Hugo Chavez laisse derrière lui un bilan en demi-teinte. Le colonel s’est certes avéré être un véritable démocrate, améliorant la Constitution à cet égard (Maduro risque d’en être la première victime), sa formation militaire transparaissait tout de même dans l’exercice du pouvoir. Ses quinze années à la tête du pays ont apporté de nombreuses avancées sociales (éradication l’illettrisme) et réduit la pauvreté, mais l’économie reste encore totalement dépendante des hydrocarbures. Loin de s’en être affranchit, Chavez a distribué massivement les revenus du pétrole lorsque les cours étaient hauts, sans se préparer à un retournement de situation.

Manne pétrolière

C’est la malédiction du pétrole. Un concept bien connu des experts des énergies fossiles. Source d’importants revenus, l’or noir fait autant de mal que de bien. Au Venezuela, il représente 80% des exportations et la moitié des recettes fiscales. Historiquement, les pays pétroliers ont une fâcheuse tendance à se concentrer sur l’extraction de leur ressource. Ces Etats rentiers ne prennent souvent pas conscience du caractère épuisable de leur richesse et du danger de consacrer l’ensemble des forces productives à son exploitation. Par ailleurs, la majorité des bénéfices du pétrole est directement réinjecter dans l’économie mondiale à cause des importations. Elles sont dues essentiellement au caractère mono-productif des Etats rentiers qui délaissent des secteurs entiers de l’économie et sont donc contraints d’importer en masse des produits qui n’ont aucun substitut national. Le manque de diversité des activités posent le problème de l’emploi et favorise l’expansion de l’économie souterraine. Au Venezuela, le pourcentage de la population active travaillant dans le secteur informel est évalué à 60% ! Cela se répercute socialement par l’expansion des pratiques mafieuses et de l’insécurité.

A Caracas, la manne pétrolière passe par PDVSA, la compagnie nationale. Sorte d’Etat dans l’Etat, celui qui la contrôle dirige le pays. Elle reste pour l’instant sous l’autorité du ministère de l’Energie et des Mines — à Caracas le siège de l’entreprise et le ministère ne forment qu’un bâtiment – donc du Président. Le parti chaviste charge PDVSA de missions d’infrastructures à caractère social et éducatif depuis des années, ce qui l’a affaiblit financièrement. La production de pétrole a baissé de près de 900 000 barils jour en 15 ans. La lutte pour le contrôle de PDVSA sera un élément clé de l’affrontement entre le mouvement chaviste et l’opposition.

Un estanque petrolero de PDVSA en el complejo industrial José Antonio Anzoátegui en Anzoátegui, Venezuela

Petrocaraïbes

« Nous ne pouvons pas permettre que de l’argent du Venezuela alimente les caisses de la nomenclature cubaine, la bureaucratie sandiniste au Nicaragua ou le gouvernement d’Evo Morales en Bolivie », a lancé Jesús Torrealba, secrétaire exécutif de la MUD. Un appel clair a abattre le symbole de la politique étrangère bolivarienne : Petrocaraïbe. Cette organisation, créée en 2000, comprend le Venezuela, Cuba et 16 autres nations centro-américaines et caribéennes. Elle a pour vocation de promouvoir des échanges justes et une meilleure complémentarité et coopération entre les membres. L’un des accords phare de ce programme est l’échange de pétrole vénézuélien contre les services de 30 000 docteurs et professeurs cubains, détachés sur le continent. Cela a notamment permis d’apporter des soins de santé gratuits dans des quartiers défavorisés qui n’y avaient pas accès. Caracas fournit en échange à La Havane entre 55 000 et 70 000 barils par jour, soit au moins la moitié de ses besoins, à « prix d’ami ». Au total, le Venezuela fournirait quelque 100 000 barils jours à ses alliés politiques.

Un arrêt des livraisons de bruts impacterait sans aucun doute les économies de la région Caraïbes et notamment Cuba, très dépendante. Certains économistes anticipent même une récession sur l’île. Un scenario possible mais pas obligatoire. En effet, le marché pétrolier est en excédant et les cours du baril sont bas. De plus, le régime castriste semble avoir anticipé un potentiel défaut de son partenaire stratégique et entamé une sortie de son isolement, notamment avec le voisin américain. Le calendrier est propice pour un dégel des relations avec les Etats-Unis. Raul Castro, frère de Fidel, sait que Barack Obama est en fin de mandat, et aimerait ajouter Cuba à son bilan de politique étrangère. La restauration officielle des relations diplomatiques entre les deux pays le 20 juillet 2015 et la réouverture de leurs ambassades respectives après 54 ans est, en ce sens, historique.

Le continent penche à droite

La défaite du parti chaviste s’inscrit dans une dynamique continentale qui voit les forces conservatrices et libérales s’imposer dans des pays politiquement proches de la gauche bolivarienne. Ainsi, les Argentins ont voté en décembre pour Mauricio Macri, candidat libéral d’opposition, mettant fin à 12 années de règne des Kirchner (Nestor puis sa femme Cristina). Au Brésil, Dilma Roussef (centre-gauche) est menacée de destitution et fait face à une défiance importante de la population. Le cas vénézuélien est symbolique car Chavez voulait faire de son pays le leader d’un mouvement latino-américain instaurant une communauté d’Etat décidés à instaurer le « socialisme du XXIème siècle ». Force est de constater que l’initiative, lancée il y a 15 ans, n’a pas beaucoup avancé. D’autres projets de coopération régionale plus modeste et à tendance plus libérale ont pris le relais. L’Union des nations latino-américaines reste encore un doux rêve.

Par Romain Chicheportiche

Les ONG analysent l’accord de la COP21

Une chose est sûre : la reproduction d’un échec semblable à celui de Copenhague a bien été évité ! Si les observateurs ne manqueront pas de souligner les manques du texte, il faut néanmoins souligner qu’il s’agit bien d’une avancée historique. En effet, il s’agit du premier accord mondial impliquant l’ensemble des pays des nations unies. Les pays ont réussi à dépasser leurs seuls intérêts et accepter des compromis pour un monde plus sobre. Le processus de négociations multilatéral qui souffrait depuis plusieurs COP est ainsi sauvé. Pour Greeenpeace, la formule du Guardian illustre parfaitement la situation : « En comparaison de que cela aurait pu être, cet accord est un miracle. En comparaison de ce qu’il aurait dû être, c’est un désastre ».

Néanmoins, il manque de nombreux points : l’accord ne comprend à peu près rien de contraignant, il n’y a pas de prix fixé au carbone, les droits humains et des peuples indigènes ne sont mentionnés qu’en préambule, les secteurs de l’aviation civile et du transport maritime ont à nouveau été exemptés de tout engagement… Maxime Combes, porte-parole d’Attac France sur les enjeux climatiques, est le plus virulent à l’égard de cet accord. « Un accord à n’importe quel prix n’était pas le mandat confié à la COP21, François Hollande et Laurent Fabius. Utiliser les termes « ambitieux », « juste » et « juridiquement contraignant » pour présenter l’accord de Paris est une escroquerie intellectuelle. Y accoler la référence à la « justice climatique », sans contenu, est méprisant envers toutes celles et ceux qui se mobilisent en ce sens depuis des années.» L’accord n’est effectivement guère contraignant : selon l’article 28, tout pays pourra choisir de se retirer de l’accord à tout moment après un délai de trois ans à partir de l’entrée en vigueur de l’accord, soit à partir de 2023. Aucune sanction n’est prévue dans ce cas.

Des moyens insuffisants pour limiter le réchauffement entre 1,5 et 2°C

Greenpeace propose deux grilles de lecture. D’un côté, le seuil mentionné de 1,5°C constitue une « bonne surprise » qui montre que « la question climatique s’installe durablement dans le paysage diplomatique ». Mais « dans l’absolu », « l’accord n’est pas à la hauteur ». Car malgré cet objectif, « d’ici à 2020, nous restons avec les mêmes INDC, qui nous placent sur une trajectoire d’environ 3°C supplémentaires d’ici la fin du siècle nous faisant perdre un temps précieux et peut-être irrattrapable ». Les INDC ne sont pas juridiquement contraignants : « libre à chaque État de proposer ce qu’il veut et de le réaliser s’il le veut ». Attac regrette également qu’aucun mécanisme de sanction ne soit mis en œuvre pour sanctionner les Etats qui prendraient des engagements insuffisants, qui ne les mèneraient pas à bien ou qui refuseraient de revoir à la hausse leur ambition.

La première révision  des objectifs de réduction des émissions de chaque pays n’est obligatoire que pour 2025, après un bilan de l’action collective en 2023. Mais pour les scientifiques et les ONG, cette date est bien trop éloigné, le pic mondial des émissions devant être atteint entre 2025 et 2030 pour espérer pouvoir limiter le réchauffement climatique à 2°C, selon le GIEC. François Hollande a proposé de créer une coalition de pays qui veulent aller plus vite pour qu’ils réactualisent leurs engagements avant 2020. Les 80 pays de la « coalition des pays ambitieux » pourrait y participer. Les ONG devront faire campagne pour qu’un maximum de pays rejoignent cette coalition : la Fondation Nicolas Hulot propose que le processus de révision commence dès 2018. Le Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC) doit d’ailleurs déterminer d’ici 2018 quel niveau d’émissions serait compatible avec un réchauffement limité à 1,5°C. Tasneem Essop, cheffe de la délégation WWF pour la COP21, propose même que les ambitions soient renforcées dès la COP22 au Maroc : «Grâce à l’accord de Paris, nous avons franchi une étape importante mais ce n’est pas suffisant. Nous devons, à présent, à travailler au renforcement des ambitions nationales amorcées par cet accord. […] Les pays doivent revenir l’an prochain avec la volonté d’appliquer et renforcer les engagements qu’ils ont fait ici à Paris.»

Des financements à consolider

Par ailleurs, les mécanismes de financements sont insuffisamments programmés. Pour le WWF, « le financement de l’adaptation, des pertes et dommages ainsi que l’amplification des réductions d’émissions devront être les chantiers prioritaires de l’après-Paris ».

Les 100 milliards de dollars promis aux pays en voie de développement à partir de 2020 seront entièrement à la charge des pays développés, bien que les modes de financement ne soient pas encore complètement clairs. Cette clause répond au principe tant défendu par les pays en développement de responsabilité différenciée et le fait que les pays développés doivent endosser leur responsabilité historique dans le changement climatique. Les autres pays peuvent néanmoins fournir un effort financier supplémentaire « à titre volontaire », mais n’ont aucune obligation. Les pays les plus vulnérables souhaitaient que l’accord alloue au moins  50 % des 100 milliards à l’adaptation et  50 % aux efforts de réduction des émissions, mais le texte  final ne précise aucun objectif de répartition. Les ONG saluent au moins un point : les 100 milliards sont bien un plancher qui devra être revu à la hausse en 2025.

Un texte flou qui laisse plusieurs portes ouvertes

Selon l’Article 4 de l’accord, les signataires s’efforceront d’atteindre « un plafonnement mondial des émissions mondiales de gaz à effet de serre dans les meilleurs délais ». Ce plafonnement impose des réductions plus fortes des émissions des pays développés et prendra « davantage de temps pour les pays en développement ». Le texte ne fournit aucun engagement chiffré de réduction mondiale des émissions de gaz à effet de serre pour 2025, 2030 ou même 2050, seul à même d’assurer des résultats. Il ne fait référence qu’à un objectif de long terme visant à un équilibre entre les émissions humaines et les puits de gaz à effet de serre, soit une tendance vers « zéro émission nette » en matière de gaz à effet de serre d’ici à la fin du siècle. Il n’y a aucun chiffre, alors que les précédentes moutures du texte parlaient de 40 à 70 % de réduction des émissions mondiales d’ici à 2050.

Mais pour parvenir à ce « zéro émission nette », toutes les solutions restent ouvertes, car aucune solution n’est nommée. Cela pourra donc se traduire par la sortie des énergies fossiles dès 2050, le développement massif des énergies renouvelables, des économies d’énergie et une protection accrue des forêts, solution prônée par les ONG environnementales, mais aussi (et plus vraisemblablement) par les «fausses solutions telles que la captation de carbone, la géoingénierie, ou encore la compensation carbone», regrette Jean François Julliard, Président de Greenpeace France.

Par ailleurs, Surfrider Foundation se réjouit. « Le terme Océan figure pour la première fois dans le Préambule d’un tel accord », note Antidia Citores, Responsable du Lobbying et Contentieux chez Surfrider Foundation Europe. « Nous devons maintenant préparer le prochain rendez-vous des parties, la COP 22 qui se tiendra au Maroc. L’océan doit désormais être à l’agenda de toutes les COP. En ce sens, nous poursuivons nos efforts avec Monaco et la plateforme Océan et Climat pour obtenir un rapport du GIEC exclusivement consacré aux océans ».

Par Matthieu Combe, journaliste scientifique

La société civile clôt la mobilisation pour la COP21

« Et un, et deux, et trois degrés, c’est un crime contre l’humanité », scandent en choeur les manifestants. Le plus grand rassemblement du jour, sur le thème « +3°C : état durgence climatique ! » a réuni près de 20 000 personnes face à la Tour-Eiffel. Les messages qui se font entendre depuis 15 jours sont repris en chaîne : « changeons le système, pas le climat », « laissez les énergies fossiles dans le sol »…

P1000256

Pour la quinzaine d’organisations et de collectifs organisateurs – Alternatiba, Attac, les Amis de la Terre…-, le parcours choisi est hautement symbolique. Les chaînes humaines sont parties de la Tour Eiffel, symbole de la révolution industrielle et du productivisme, à l’origine du dérèglement climatique actuel. Elles ont parcouru le Champ-de-Mars, symbole de la guerre, avant d’aboutir au mur de la Paix pour montrer que la justice climatique permettra de construire une paix durable et un monde soutenable.

A la tribune, les organisations ont dénoncé la discussion d’un accord a minima ne permettant pas de stabiliser le climat. A l’heure de ce rassemblement, l’accord n’avait pas encore été adopté, mais pour Geneviève Azam, économiste et co-présidente d’Attac, les engagements de réduction d’émissions de gaz à effet de serre des pays nous mèneront à un réchauffement de 3°C. En l’absence de mesures suffisantes et contraignantes, fixer un objectif de réduction à 1,5°C ne serait que de la poudre aux yeux, car inatteignable. De plus, les financements ne sont toujours pas assurés, ce qui ne permet pas de protéger les pays les plus vulnérables contre les conséquences du changement climatique.

cop21-700

Deux autres manifestations pacifiques le matin

Le matin, les Amis de la Terre avaient organisé une grande fresque humaine grâce à un système de géolocalisation par smartphone. Des groupes de militants déployés dans les rues de Paris ont permis de remplir, grâce à des points verts les mots « Climate », « Justice » et « Peace » sur une carte interative.

climate-justice-peace

Puis, 5000 personnes s’étaient rassemblé, avenue de la Grande-armé, entre l’Arc de Triomphe et la Défense (siège des entreprises responsables du réchauffement climatique selon les organisateurs) pour déployer des banderoles et des fleurs rouges, symboles des lignes rouges climatiques à ne pas franchir. Ce rassemblement était organisé, notamment par 350.org, Attac, la Confédération Paysanne, le Réseau Sortir du Nucléaire et Climate Games.

Ces manifestations autorisées par la Préfecture de police se sont déroulées sans débordements. 2 000 membres des forces de l’ordre avaient été mobilisées pour assurer la sécurité.

Par Matthieu Combe, journaliste scientifique

COP21 : un accord universel salué

La COP21 a permis d’aboutir au premier accord universel sur le climat. L’accord vient d’être adopté à l’unanimité par l’ensemble des 196 Parties. « Je regarde la salle, je vois que la réaction est positive, je n’entends pas d’objection, l’accord de Paris pour le climat est adopté! », a déclaré Laurent Fabius, sous les applaudissements et l’euphorie de la salle.

Dans la matinée, le ton était plus grave. François Hollande invitait le monde à ne pas rater ce rendez-vous avec l’Histoire. « Le 12 décembre 2015 peut être un jour non seulement historique mais une grande date pour l’humanité, avait annoncé François Hollande. Le 12 décembre 2015 peut être un message de vie ». Quelques heures plus tard, le soulagement était au rendez-vous. « Alors, vous l’avez fait! » et « vous avez réussi », s’est-il félicité. « Votre accord n’est pas un aboutissement, c’est un début. Et la France mettra tout en oeuvre non seulement pour appliquer l’accord, mais pour accélérer le mouvement » a promis François Hollande.

Un accord salué par l’ensemble des Parties…

Suite à l’adoption de cet accord, Laurent Fabius a donné la parole à l’ensemble des Parties qui souhaitaient s’exprimer. L’Afrique du Sud pour le G77, l’Australie, le groupe pour l’intégrité de l’environnement, l’Union Européenne, le Maroc, la Turquie, la Chine, les Etats-Unis, l’Inde, Sainte-Lucie, le Vénézuela, le Sénégal et l’Equateur ont tenu à saluer le leadership de la présidence française pour parvenir à cet accord. Ils ont salué à l’unisson un accord historique, certes non parfait, mais formant une fondation solide pour avancer. « Nous nous félicitons de l’adoption de cet accord de Paris. Comme l’a souligné la représentante de l’Afrique du Sud, cet accord n’est pas parfait, il y a un certain nombre de domaines à améliorer. Mais nous avons déjà réalisé des progrès historiques », a salué le représentant chinois. « Je sais que, nous tous, nous vivrons mieux grâce à l’accord que nous avons conclu aujourd’hui », a réagi le secrétaire d’Etat américain, John Kerry à la tribune.
« L’histoire jugera le résultat non pas sur la base de l’accord d’aujourd’hui, mais sur ce que nous allons faire à partir d’aujourd’hui », a néanmoins tempéré Thoriq Ibrahim, ministre de l’Environnement des Maldives et président du groupe des Petits Etats insulaires.

… Sauf le Nicaragua

Seul le Nicaragua s’est montré assez critique à la tribune en disant ne pas pouvoir « accompagner ce consensus ». Il rappelle que le résultat de l’exercice INDC de 2015 prévoit des émissions de CO2 de 55 gigatonnes en 2030 au lieu des 40 gigatonnes nécessaires pour limiter le réchauffement à 2°C, selon le GIEC. Alors la route des 1,5°C serait bien lointaine et inatteignable. De plus, les mécanismes de financements seraient insuffisamment clairs, alors que 25 % des engagements des pays en développement et 50 % des engagements dans le domaine de l’agriculture sont basés sur des conditions de financements.

Pour assurer un réel objectif contraignant, le Nicaragua aurait aimé voir alloué un budget d’émissions mondial conforme à l’objectif des 1,5°C et la création d’un fonds basé sur la responsabilité historique. Par ailleurs, il voudrait éliminer le paragraphe 52 en rapport avec l’article 8 de l’accord. L’article 8 en question est celui consacré à la question sensible des pertes et dommages. Il reconnait « la nécessité d’éviter et de réduire au minimum les pertes et préjudices liés aux effets néfastes des changements climatiques, notamment les phénomènes météorologiques extrêmes et les phénomènes qui se manifestent lentement, et d’y remédier ». Mais le paragraphe 52 stipule que cet article « ne peut donner lieu ni servir de fondement à aucune responsabilité ni indemnisation ». Le texte préfère parler de coopération accrue et d’appui entre les Parties sur ces phénomènes et les situations d’urgences.

« Cela veut dire qu’il va y avoir 3°C d’augmentation pour nos petits enfants et que nous devrons abandonner nos droits juridiques de demander des indemnisations ? Nos droits juridiques de lancer des litiges liés à des responsabilités d’autres pays qui nous ont occasionné des dommages ? Ce n’est pas possible », a affirmé le représentant du Nicaragua.

Un accord « équilibré », « juste » et « ambitieux »?

Pour Laurent Fabius, c’est un « accord ambitieux et équilibré qui reflète les positions des Parties ». « Ce texte contient les principales avancées dont beaucoup d’entre nous pensaient qu’elles seraient peut-être impossibles à obtenir : le projet d’accord proposé est différencié, juste, durable, dynamique, équilibré et juridiquement contraignant», a-t-il assuré avant l’adoption du texte. « Il reconnait la notion de justice climatique et il tient compte sur chaque sujet des responsabilités différenciées des pays, de leurs capacités respectives, à la lumière des circonstances nationales ».

Le nouvel objectif consistant à limiter le réchauffement à 1,5°C à l’horizon 2020 est bien inscrit dans le texte. L’accord vise à contenir l’augmentation de la température moyenne « bien en-deça de 2°C et de s’efforcer de limiter cette augmentation à 1,5°C ». C’était une demande des Etats insulaires qui craignent de disparaître sous la montée des eaux. Si cet objectif est ambitieux, les contributions nationales (INDC) jusque-là produites nous mettent toujours sur une trajectoire d’un réchauffement de 3°C. L’accord prévoit donc leur actualisation, forcément à la hausse, tous les 5 ans. Mais celles-ci ne seront obligatoires qu’en 2025. Sentant que cet horizon est trop éloigné pour éviter un réchauffement inférieur à 2°C, au vue des INDC mis actuellement sur la table, François Hollande s’est engagé à réviser « au plus tard en 2020 nos engagements de réduction de gaz à effet de serre» et a invité les autres pays volontaires à faire de même. Il s’est également engagé à réviser la contribution financière de la France pour l’adaptation, notamment des pays les plus vulnérables, et a invité les pays volontaires à rejoindre la France dans une coalition pour aboutir à un prix du carbone.

L’accord prévoit aussi que les financements promis – les 100 milliards de dollars par an visés pour 2020 – soient « un plancher pour l’après 2020 ». « Un nouvel objectif chiffré devra être défini au plus tard d’ici 2025 », prévient Laurent Fabius.
L’accord de Paris entrera en vigueur en 2020 et prendra la suite du protocole de Kyoto II. Pour cela, il devra d’abord avoir été ratifié par au moins 55 pays représentant au moins 55 % des émissions mondiales de gaz à effet de serre.

Par Matthieu Combe, journaliste scientifique

Champs magnétiques autour d’un trou noir

Si ces champs magnétique n’existaient pas, « beaucoup d’astrophysiciens théoriques devraient tout reprendre de zéro » d’après le Dr. Avery Broderick, professeur assistant au département de physique et astronomie de l’université de Waterloo et également nommé au Perimeter Institute.

La découverte, publiée dans le journal Science, permet de passer des spéculations théoriques aux faits empiriques concernant le mécanisme de croissance des trous noirs.

Le Dr. Broderick faisait partie de l’équipe qui a découvert des hauts niveaux de polarisation dans les émissions radio de Sagittarius A*, cette forte source radio jugée comme étant la manifestation astronomique du trou noir présent au centre de la voie lactée et de masse 4.5 million de fois supérieure à celle du soleil.

La découverte a été faite avec le Télescope Event Horizon (EHT), un réseau de télescopes de longueur d’onde de l’ordre du millimètre qui couvre la planète et est réglé pour prendre les images de la plus haute résolution dans e l’histoire de l’astronomie. Dirigé vers le trou noir du centre de notre galaxie, Sagittarius A*, il peut voir les détails structuraux du flux d’accrétion qui entoure l’horizon du trou noir. Le travail du Dr. Broderick est d’analyser et interpréter les données qui proviennent du télescope.

Les observations actuelles proviennent de seulement trois des sites du réseau global de l’EHT, ce qui peut être comparé à avoir seulement une poignée de pixels d’une image beaucoup plus large. Néanmoins, ces quelques pixels vont être à l’origine de la révolution à venir dans notre compréhension des trous noirs.
Les trous noirs sont des régions d’espaces temps où la gravité et si forte que « ce qui entre à l’intérieur n’en ressort pas » d’après le Dr. Broderick.

Comme son nom l’indique, les trous noirs sont intrinsèquement sombres, aucune lumière ou matière n’est capable de s’en échapper une fois qu’ils ont passé le point de non-retour connu comme étant l’ « horizon des évènements ». Mais comme le trou noir « se nourrit » des gaz et des étoiles qui l’entourent ; ses disques d’accrétion peuvent briller et produire une énergie extraordinaire. Ils peuvent même briller en dehors de leur galaxie dans certains cas.

Comparé à d’autres trous noirs, Sagittarius A* est beaucoup plus anémique et ne surpasse pas une seule étoile malgré sa masse relativement énorme. Mais les données du EHT apportent des éclaircissements sur la manière dont la matière se dirige vers les trous noirs pour finalement disparaître à travers l’horizon des évènements, et grossir en ce que le Dr. Broderick appelle « le monstre qui se cache dans la nuit ».

Ceci va aussi permettre de comprendre le phénomène inverse, selon lequel certains trous noirs sont capables d’émettre des flux d’énergie et de matières à une vitesse atteignant quasiment celle de la lumière, étendant l’impact des trous noirs à des échelles intergalactiques.

Des décennies de travaux théoriques, dont d’énormes simulations informatiques, ont décrit la contribution majeure des champs magnétiques présents autour de l’horizon des évènements d’un trou noir à son processus de croissance. Maintenant, avec les données de l’EHT, les scientifiques entrevoient le mécanisme de ce procédé en pratique.

Pour expliquer la croissance d’un trou noir, les modèles théoriques devaient traiter le problème du moment cinétique. La terre ne tombe pas sur le Soleil à cause de la conservation du moment cinétique. Donc, pour qu’un trou noir grossisse, un certain procédé physique doit supprimer le moment cinétique du gaz qui y tombe, vraisemblablement en le transférant à l’extérieur de la matière qui échappe finalement à la traction de la gravité.

C’est là que les champs magnétiques interviennent. Les champs magnétiques peuvent former des boucles, tourner et pousser la matière qui est en train de tomber et la coupler à la matière qui s’écoule du trou noir. Ces tractions et pressions génèrent des viscosités nécessaires à la régulation du flux de moment cinétique et permettre au trou noir de grandir. Sans ces champs magnétiques, l’accrétion s’arrêterait et les jets s’écrouleraient, d’après la prédiction des modèles.

Bien que tout ceci ait été décrit dans des modèles, une preuve observationnelle était nécessaire. La mesure d’une polarisation élevée fournit cette preuve.

L’émission radio de Sagittarius A* est générée par des électrons de haute énergie circulant sur les lignes de champs magnétique. Ceci produit une émission hautement polarisée à échelle microscopique, liée à l’orientation locale du champ magnétique, de telle manière que la polarisation suit la structure des champs magnétiques. Détecter des polarisations élevées de la taille de l’horizon du trou noir de Sagittarius A* atteste d’une part de la présence de champs magnétique ordonnés ; d’autre part, cela fournit une mesure de la taille type de ces structures magnétiques.

Et il y a encore plus à venir. Prendre des images des disques d’accrétion autour du trou noir au centre de notre propre galaxie et de masse 4.5 million de fois supérieure à celle du soleil – quelque chose qui est extrêmement compact et avec un horizon d’évènements qui est plus petit que l’orbite de Mercure – est un exploit comparable à celui d’essayer de prendre une photo d’un pamplemousse sur la lune. Mais le EHT sera capable d’accomplir cela.

« Il y a maintenant à notre disposition assez de télescopes, en principe, pour obtenir des images dans les prochaines années” ajoute le Dr Broderick.

Ces images vont permettre aux astrophysiciens de transformer notre compréhension de la croissance des trous noirs, l’interaction avec leur environnement et même la nature de la gravité.
En étudiant les détails des « embouteillages » cosmiques causés par les gaz quand ils se dirigent vers le trou noir, les chercheurs vont pouvoir vérifier la théorie de la relativité générale d’Albert Einstein, un des piliers de la physique moderne. Cela va permettre de vérifier de nombreuses idées à propos des trous noirs.
« Tout d’un coup les histoires que l’on raconte à nos étudiants se basent sur une réalité » dit le Dr. Broderick.

Source : http://www.diplomatie.gouv.fr/fr/politique-etrangere-de-la-france/diplomatie-scientifique/veille-scientifique-et-technologique/canada/article/champs-magnetiques-autour-d-un-trou-noir

Quelles sont les armes chimiques les plus dangereuses ?

Fallait-il faire preuve d’autant de transparence dans ce contexte post-attentats ? Certains s’interrogent, estimant qu’une telle annonce pourrait créer une psychose au sein de la population voire de donner aux terroristes de nouvelles façons d’envisager leurs actions. Une chose est sûre, c’est un risque que le gouvernement ne néglige pas. Ce qui implique de prendre les mesures nécessaires sans dramatiser pour autant.

Que fait le gouvernement pour parer aux attentats ?

Il a réagi très vite, en publiant l’arrêté du 14 novembre 2015, en vue de la COP21. Celui-ci offre tout pouvoir au service de santé des armées d’approvisionner en sulfate d’atropine 40 mg/20ml PCA, un traitement contre les agents neurologiques (sarin, tabun…), des services d’urgence civils (SAMU).

Le gouvernement a également augmenté le niveau de surveillance des réseaux d’eau à son maximum. Les principaux sites de Paris sont surveillés par des agents et filmés en permanence par des caméras de vidéosurveillance. Personne ne peut y entrer hormis le personnel habilité. Mais en cas d’intrusion, des capteurs disséminés un peu partout alerteraient rapidement le centre de contrôle. En outre, la société Eau de Paris, qui gère l’approvisionnement en eau potable pour la ville de Paris, a accru le niveau de chlore afin de s’assurer qu’il n’y ait pas de contamination bactériologique. Si jamais les contrôles montraient une trace de contamination sur l’un des lieux d’approvisionnement (Paris en compte cinq), ce dernier serait automatiquement bouclé et seuls les clients prioritaires (hôpitaux) continueraient d’être alimentés. Car il faut savoir qu’un jour de consommation d’avance est toujours prévu. Cependant, « pas de menaces particulières » ne sont à noter.

Il a mis en place le plan Piratox, intégré au plan Vigipirate, qui se destine à la « prévention et à la vigilance face à une menace terroriste de nature chimique avec un volet judiciaire comprenant la recherche, l’identification et la neutralisation des auteurs d’un attentat ». Ses missions sont principalement axées autour de la décontamination, que ce soit des lieux touchés ou des victimes.

Suite à l’affaire, en 2001, des enveloppes contaminées au bacille du charbon (bacillus anthracis), une bactérie charbonneuse pouvant être létale pour l’homme et qui avaient d’ailleurs causé la mort de cinq personnes, le ministre de la Santé de l’époque, Bernard Kouchner, créait le plan Biotox. Ce plan plusieurs fois remanié par la suite, s’articule autour de la gestion de crise et la veille sanitaire pour détecter au plus tôt le risque d’une épidémie. Cela se traduit par la surveillance de tout un réseau de laboratoires ou encore la formation et l’entraînement de personnels, prêts à intervenir en cas d’alerte.

Quelles sont les armes chimiques les plus dangereuses et quels sont leurs effets ?

Le sarin, « une substance inodore, incolore et volatile, de la famille des organophosphorés, un neurologique pour l’homme et l’animal » fait partie de la famille des agents neurologiques, au même titre que le soman, le tabun et le VX. Il attaque le système nerveux humain, au niveau des synapses. Ce gaz mortel est considéré depuis 1993, comme une arme de destruction massive par les Nations Unies. En 1988, Sadam Hussein, s’en servait contre les kurdes dans le nord de l’Irak.

Il entre dans la catégorie des agents vésicants, le gaz moutarde, aussi nommé ypérite, est « un composé chimique cytologique et vésicant qui a la capacité de former de grandes vésicules sur la peau exposée ». Il inflige des brûlures sur la peau, les yeux et les poumons.

Les agents suffocants, comme le chlore, la chloropicrine et le phosgène, provoquent des lésions et des irritations aux voies respiratoires et aux poumons. Ils entraînent la mort par asphyxie.

Il faut savoir que les armes chimiques ont été interdites aux lendemains de la Première Guerre mondiale, considérée comme la première guerre chimique, en 1925 par la signature du protocole de Genève. Par la suite, la Convention sur l’interdiction des armes chimiques, signée en 1993, est venue renforcer ce traité en interdisant « la mise au point, la fabrication, le stockage et l’usage des armes chimiques ».

Doit-on vraiment craindre des attentats ?

Manuel Valls précisait sur France 2, peu après son discours devant l’Assemblée nationale, que le risque était bien présent mais toutefois « extrêmement limité ». Depuis les attentats, on le sait, « tout est possible » mais cela ne signifie pas qu’il y a un risque de ce type sur le territoire. Quant au spécialiste des armes chimiques, Olivier Lepick, il confiait, rassurant, « qu’il y avait un certain nombre de barrières techniques et logistiques » par rapport à « un attentat conventionnel ». La complexité de ce genre d’attaques et leurs résultats les rend moins intéressantes pour les terroristes. Les armes chimiques peuvent en effet être difficiles à employer ou a fabriquer, à cause de leur caractère parfois instable. Sans compter le transport jusqu’en France qui s’avère un grand obstacle. De telles opérations ne sont donc pas simples à mener. Pour cette raison et bien qu’il soit de notoriété publique que l’État islamique (EI) dispose d’une petite quantité de gaz moutarde, selon un rapport de l’Organisation pour l’interdiction des armes chimiques (OIAC), il n’y aurait pas de raison de s’alarmer outre mesure.

Par Sébastien Tribot

Les données sensibles des sites Seveso retirées d’Internet

En tout ce sont 1 170 sites classés Seveso en France – les établissements industriels présentant des risques d’accidents majeurs – qui sont concernés. Les industriels pourront grâce à cette décision enlever « toutes les informations à caractère sensible sur les stocks de produits dispersifs, explosifs ou aux productions sensibles. ».

Si l’on peut s’étonner que ce genre d’information soit disponible, au regard de la sécurité des sites chimiques, cela s’expliquait par la politique de transparence vis-à-vis des riverains. Le directeur des affaires techniques de l’UIC l’expliquait ainsi à l’Usine Nouvelle : « Bon nombre de parties prenantes avaient l’impression que nous cachions des choses […] Nous avions donc mis énormément de précisions en libre accès sur des sites Internet, mais pour une infime minorité de personnes qui voudrait nuire, c’est une mine d’informations ». Il a donc été choisi de ne plus indiquer les lieux où résident les produits les plus dangereux ni d’afficher une liste exacte de ces produits.

Après les attentats meurtriers du 13 novembre et les attentats de Saint-Quentin-Fallavier (Isère) qui avait fait un mort , et du site pétrochimique proche de l’étang de Berre (Bouches-du-Rhône) qui avait conduit à l’incendie de deux cuves, il ne fait aucun doute que la France est une cible privilégiée des terroristes. Comme l’a dit Manuel Valls, « il faut aujourd’hui ne rien exclure » et une attaque chimique reste une éventualité qu’il faut prendre en compte.

Point de panique, cependant, même si le risque zéro n’existe pas, la surveillance de ces sites est élevée. Elle est notamment assurée par « inspection des installations classées », une des sous-catégories du corps de contrôle dénommé Inspection de l’environnement, qui a reçu des consignes de sécurité renforcées. Selon Jean Pelin, directeur général de l’UIC : « le risque terroriste est ailleurs ».

Par Sébastien Tribot

114 grandes entreprises s’engagent sur la route des 2°C

Grâce à la COP21, plusieurs entreprises ont rejoint l’initiative Science Based Targets, portée par le Carbon Disclosure Project (CDP), le World Resources Institute (WRI), le WWF et l’United Nations Global Compact. A ce jour, 114 entreprises se sont engagées dans cette démarche, soit 14 de plus que les objectifs initiaux pour fin 2015. Les bénéfices totaux de ces 114 entreprises dépassent les 932 milliards de dollars. Surtout, leurs émissions annuelles dépassent les 476 millions de tonnes de CO2, soit l’équivalent des émissions annuelles de l’Afrique du Sud. L’initiative projette que, d’ici 2020, 250 entreprises auront mis en place des objectifs de réduction concrets, conformément à leurs directives.

Cette initiative est complète. « A travers sa méthodologie, elle permet de définir des objectifs adaptés par entreprise sur la base des budgets carbones disponibles secteur par secteur – volume total d’émissions possible dans la limite des 2°C – et en prenant en compte d’autres critères comme le périmètre de ses émissions directes et indirectes, sa période d’engagement et son niveau d’ambition », précise le WWF dans un communiqué.

Sur les 114 entreprises engagées, dix entreprises – Coca Cola, Dell, Thalys, Sony, Enel, General Mills, Kellogg’s, NRG Energy, Procter&Gamble – ont déjà défini des objectifs de réduction compatibles avec les 2°C. « Au total, ces 10 entreprises devraient réduire leurs émissions de 799 millions de tonnes de CO2 jusqu’à ce que leurs objectifs arrivent à échéance, ce qui équivaut environ à 1,86 milliards de barils de pétrole non brûlé, précise le WWF. Ces entreprises ont également pris des engagements ambitieux en faveur de la réduction de leurs émissions indirectes à travers leurs chaînes de valeur. »

Deux exemples : Kellogg’s et Coca-Cola

Prenons deux exemples d’entreprises bien connues en France. Coca-Cola s’engage ainsi à réduire les émissions de gaz à effet de serre (GES) dues à ses opérations commerciales de 50 % en 2020, par rapport à 2007. Chacune de ses boissons devra également émettre 33 % de GES en moins en 2020 par rapport à 2007. Par ailleurs, Kellogg’s s’engage à réduire de 15 % l’intensité de ses émissions (tonne de CO2 par tonne de nourriture produite) d’ici à 2020, par rapport à 2015. Le groupe s’engage également à réduire les émissions globales de l’ensemble de sa chaîne de valeur de 20 % sur la période 2015-2030. Pour voir les engagements des 8 autres entreprises, cliquez ici.

Parmi les entreprises engagées les plus connues qui doivent encore définir leurs objectifs, on citera pêle-mêle : Carrefour, Colgate, Danone, H&M, HP, Ikea, L’Oréal, Mars, Nestlé, Novartis, Philip Morris, Renault, Sodexo, Suez Environnement, Unilever. Le monde serait-il réellement en train de changer ?

Par Matthieu Combe, journaliste scientifique

Solutions COP21, les grandes entreprises s’exposent au Grand Palais!

entreprisescop21

Veolia

Veolia propose une mini-exposition « voyage au pays des 2°C » présentant ses solutions pour atténuer le réchauffement climatique.

Engie

Engie propose un jeu sur la smart city, propose des visites virtuelles de ses sites de production d’énergie renouvelable et présente ses projets pour la protection de la faune et de la flore marines.

entreprisescop211

L’Oréal

L’Oréal expose ses objectifs : améliorer 100% de ses produits d’ici 2020 avec 100% de matières premières issues de « sources durables ». A ce jour, 54 % de ses nouveaux produits ou rénovés ont une nouvelle formule, avec une empreinte environnementale réduite. L’entreprise utilise 46% de matières premières renouvelables d’origine végétale.

Coca-Cola

Coca-Cola joue la carte du «made in France». Saviez-vous que 90 % de ses boissons commercialisées en France étaient fabriquées en France sur l’un de ses 5 sites de production? L’objectif de l’entreprise est de réduire l’empreinte carbone de ses boissons d’un tiers d’ici 2020.

Evian

Evian se fixe comme objectif d’être neutre en carbone en 2020. Pour cela, l’entreprise finance plusieurs projets de plantation grâce au fonds carbone Livelihoods. L’entreprise présente un film de 8 minutes en immersion dans son impluvium.

BIC

Difficile de présenter des produits jetables comme durables, mais BIC s’y essaye. 86% des produits d’écriture de la marque sont produits en France, liés à 1300 emplois directs. L’entreprise présente une gamme labellisée NF Environnement et utilise des matériaux alternatifs. Elle limite l’utilisation des matières premières : le fameux stylo à bille ne pèse que 5,9 g ! Enfin, elle développe le recyclage de ses produits, en partenariat avec TerraCycle.

Diester

La démarche de Progrès Colza Diester, cherche à réduire de 50% les émissions de gaz à effet de serre par rapport au diesel d’origine fossile d’ici 2017. Pour l’instant, cette baisse est de l’ordre de 10%. Mais le diester ne résout pas le problème des particules fines.

Renault-Nissan

L’espace mobilité fait une belle part au véhicule électrique : Renault Zoé, Nissan Leaf, Model S de Tesla, vélos électriques, bus électrique s’exposent. Les motorisations hydrogène, GNV, bioéthanol E85 ont également une petite place.

entreprisescop212

Par Matthieu Combe, journaliste scientifique

Le WEO nouveau est sorti : les grandes tendances énergie à l’horizon 2040

L’agence internationale de l’énergie (AIE) qui réunit les principaux pays consommateurs d’énergie a publié son dernier opus du World Energy Outlook. Document de référence du secteur, il s’attache à dessiner les grandes tendances à l’horizon 2040.

Quête d’énergie

WEO2015S’il y a bien une constante chaque année, c’est la consommation d’énergie qui augmente de manière soutenue. L’AIE estime qu’elle sera en hausse d’un tiers (32%) entre 2013 et 2040, en raison notamment de l’appétit des pays asiatiques et ce, alors qu’elle diminue faiblement (-3%) dans les pays de l’OCDE. Cette soif d’énergie s’accompagne d’une électrification grandissante des usages. Si la société 100% électrique n’est pas encore à portée de main, de multiples innovations substituent les électrons aux carburants traditionnels, à l’image de la voiture électrique. Ainsi, en 2040, la demande de courant est en hausse de 70%, bien que 550 millions de personnes, essentiellement en Afrique, n’aient toujours pas accès à ce bien de première nécessité…

Selon le World Energy Outlook, la consommation mondiale d’énergie atteindra 17 900 millions de tonnes équivalent pétrole (Mtoe). Toutes les sources d’énergie verront une augmentation de leur contribution. Bien que les énergies renouvelables apportent plus d’un tiers (34%) des nouvelles capacités installées, elles ne pèseront que 19% du mix énergétique mondial. Les trois énergies fossiles, pétrole (26%), gaz naturel (24%) et charbon (25%) continueront à fournir trois-quart de l’énergie dans le monde. Le nucléaire ne pèsera que 6%.

Equilibrium

Dans son édition 2015, le WEO s’attarde longuement sur les prix du pétrole. Faisant le constat que les cours se sont effondrés depuis un an, l’Agence a estimé devoir réévaluer ses scenarii issus des années précédentes. « La décision des pays membres de l’OPEP (Organisation des pays exportateurs de pétrole) en novembre 2014, a été de laisser leur production inchangée pour se concentrer sur la recherche d’un nouvel équilibre de marché intégrant les pays non-OPEP, dont les coûts sont plus élevés, dans lequel le prix du pétrole joue le rôle de médiateur », indique l’AIE. En clair, la stratégie de l’OPEP vise à conserver une production élevée pour tirer les cours à la baisse et récupérer ainsi ses parts de marché. Elle va se poursuivre jusqu’à ce que l’excès d’offre soit résorbé et que les cours se stabilisent.

Cette politique assumée a conduit à un certain nombre de réactions du secteur qui pourraient influer sur la production d’or noir à court et moyen terme. Les compagnies pétrolières internationales privées, opérant généralement des gisements plus compliqués et coûteux que la moyenne, ont pour la plupart  annoncé une réduction de leurs programmes d’investissements de l’ordre de 20%. Or, ce sont ces investissements qui permettent, entre autres, de compenser l’arrêt de la production des gisements en fin de vie. Non réalisés, ils pourraient commencer à faire sentir leurs effets à moyen terme. Mais d’autres facteurs menacent à plus court terme l’offre de pétrole. Devenus le premier producteur mondial grâce aux hydrocarbures de roche-mère, les Etats-Unis ont été impactés par la chute des cours. Les champs d’huiles de schiste coûteux à exploiter, sont les premières victimes de cette baisse des cours. Le pays devrait ainsi voir sa production plafonner en 2020 à 13,2 millions de barils jour (Mbj) avant de décroître progressivement. Dans ce scenario, l’Agence internationale de l’énergie estime que les mécanismes de marché sont parfaitement opérants et que les prix du pétrole reviendront à des niveaux plus élevés : 80$ par baril en 2020, 113$/b en 2030 et 128$/b en 2040. C’est la thèse principale de l’Agence, qui n’écarte cependant pas la possibilité d’un niveau du prix du pétrole structurellement bas.

Pétrole pas cher

Dans son quatrième chapitre, le World Energy Outlook 2015 planche sur un scenario où les cours du pétrole seraient bas à long terme. Un changement de paradigme majeur, tant cette situation paraissait peu crédible il y a encore quelques mois. La politique mise en place par l’OPEP a changé la donne, et l’AIE s’interroge sur les intentions de ses membres. En l’espèce, il n’y a pas d’unanimité sur le sujet. Les producteurs financièrement les plus fragiles (Venezuela, Algérie) subissent la situation et aimeraient voir les cours remonter rapidement. Las, l’Arabie Saoudite, qui domine largement l’organisation, a confirmé sa stratégie d’évincement des productions non-OPEP. Assiste-t-on ainsi à la poursuite d’une manœuvre de court terme destinée à purger le marché ? Ou l’Arabie Saoudite a-t-elle mis en place une nouvelle doctrine dans laquelle le pétrole redeviendrait « bon marché » pour lutter contre les énergies alternatives ? C’est sur cette dernière hypothèse que les équipes de l’AIE ont travaillé.

Du côté de la demande de pétrole, plusieurs signes laissent penser qu’elle pourrait être moins élevée que prévue en raison du ralentissement économique constaté en Asie (Chine notamment) mais aussi des différentes politiques et mesures adoptées dans le cadre de la transition énergétique. La COP21 qui se tient à Paris actuellement a pour objectif d’engager les Etats à diminuer leurs émissions de CO2 en réduisant par exemple  leur consommation d’énergies fossiles. Un message difficile à faire passer à des économies en développement dans un contexte de pétrole bon marché. Selon le WEO, des cours structurellement bas, diminueraient les investissements dans l’efficacité énergétique et la production de carburants alternatifs, dopant ainsi la consommation de pétrole de 3,7 Mbj pour atteindre 107 Mbj en 2040. A cette date, les parts de marché de l’OPEP pourraient s’élever à plus de 50%, un niveau pas connu depuis les années 70. La stratégie de l’organisation prend ainsi tout son sens.

C’est pourtant du côté de la production que les variations pourraient être les plus fortes. L’AIE distingue trois facteurs principaux dans l’évolution de l’offre mondiale de pétrole : la situation géopolitique mondiale, la résilience des producteurs non-OPEP et l’attitude de l’Organisation des pays producteurs de pétrole. Les tensions au Moyen-Orient et l’accentuation récente des opérations militaires en Syrie ne permettent pas de penser que la région retrouvera son calme à court terme. La résistance des producteurs non-OPEP dépendra quant à elle des baisses de leurs coûts et du résultat des opérations de concentration qui émaillent le secteur pétrolier à intervalles réguliers. Mais c’est sans nul doute l’attitude de l’OPEP, et donc en grande partie du Royaume saoudien, qui déterminera l’équation pétrolière globale. « Le New Policies Scenario se base sur l’hypothèse qu’une fois le marché stabilisé, les pays de l’OPEP reviendront à une stratégie qui consiste à faire varier la production pour maintenir des niveaux de prix jugés désirables par ces derniers, et acceptables pour les consommateurs. A l’inverse, le Low Oil Price Scenario estime que la politique actuelle va durer afin de remplir différentes priorités stratégiques telle que minimiser la substitution du pétrole des grands consommateurs, ou encore offrir suffisamment d’espace de marché pour les membres de l’OPEP désireux d’élever leur production sans grever celle des autres », explique l’AIE. En d’autres mots, l’OPEP adopterait une stratégie de long terme dont la priorité serait d’entretenir des cours bas pour préserver la part du pétrole dans la consommation mondiale d’énergie. Dans ce scenario, qui aurait l’avantage d’améliorer considérablement la balance commerciale des pays importateurs, les cours du baril oscillent entre 50 et 60$ en 2020 pour atteindre 85$/b en 2040.

Place aux renouvelables

Les énergies renouvelables (hydro, bioénergie et autres) poursuivront leur progression passant de 14 à 19% dans le mix énergétique d’ici 2040. Si les secteurs du transport et du chauffage montrent une certaine rigidité à les intégrer, celui de l’électricité a quant à lui basculé.

La première moitié du XXIème siècle aura marqué le secteur électrique mondial. Il aura vu, durant cette courte période de temps, l’émergence puis la montée en puissance des énergies vertes. Elles surpasseront, dès le début des années 2030, le charbon comme première source d’électricité (34%), d’après le WEO 2015. Le taux de pénétration variera sensiblement selon les régions. En 2040, l’Union européenne restera leader avec la moitié de ses électrons produits à partir d’énergies renouvelables ; suivront la Chine et le Japon (30%), et à la troisième place l’Inde les Etats-Unis (25%).

Cette fulgurante ascension des énergies renouvelables s’explique par les multiples subventions (tarifs d’achat, primes, crédits d’impôts) mises en place par les gouvernements, européens notamment, estimés à 126 milliards d’euros. Elles se sont traduites très concrètement dans les investissements du secteur. Pas moins de 85% des nouvelles capacités électriques installées dans le monde était renouvelables, soit 130 GWe pour la seule année 2014, un record. Si l’éolien et le solaire sont régulièrement mis en avant, ils restent loin derrière de la première énergie verte : l’eau.

Ca coule de source

L’hydroélectricité est, de loin, la première des énergies renouvelables. Entre 1971 et 2013, elle aurait permis d’éviter l’émission de pas moins de 64 gigatonnes de CO2. Avec 3 789 Térawatts-heure (TWh) générés en 2013, l’hydro représentait trois quarts de la production renouvelable mondiale. Une prédominance qui perdurera en 2040 même si sa part dans le mix électrique chutera sous la barre des 50%.

Les marchés de l’hydraulique se sont déplacés à travers le temps. A l’instar des ouvrages qu’ils construisent, les groupes d’ingénierie du secteur fonctionnent en cycles longs. L’Europe et les Etats-Unis ont été les premiers grands marchés de l’hydroélectricité. En 1980, les capacités cumulées des deux régions pesaient 40% du parc mondial. A partir de cette date, les grands ouvrages étant déjà construits, le centre d’activité s’est déplacé vers l’Amérique Latine. Entre 1980 et 2000, quelque 76 Gigawatts (GWe) ont été installés, dont notamment le barrage géant d’Itaipu au Brésil (14 GWe). Il a depuis été largement détrôné par celui des Trois Gorges en Chine (22,5 GWe). L’Empire du Milieu est devenu l’année dernière la première puissance hydroélectrique mondiale avec un parc de 300 GW. Il resterait par ailleurs encore un important potentiel inexploité dans le pays contrairement à l’Europe qui exploite presque l’essentiel de sa ressource.

En plus d’être la première énergie renouvelable, l’hydroélectricité est également le meilleur moyen actuellement disponible pour stocker l’énergie. A travers les Stations de transfert d’énergie par pompage (STEP), l’eau est récupéré en aval et remonté en amont.

Ces installations représentent 99% du stockage stationnaire mondial de l’électricité et  atteignaient une capacité installée totale de 140 GWe en 2011.

Place au soleil

Le début des années 2000 aura vu l’émergence d’une filière solaire, menée par la technologie photovoltaïque (PV). Alors que le parc mondial atteignait péniblement le gigawatt-crête (GWc) en 2000, il s’élevait à 176 GWc en 2014. Et ce ne serait que le début pour cette énergie de plus en plus concurrentielle. L’AIE estime que le parc dépassera les 1 000 GWc en 2040 pour une production estimée de 13 400 TWh. Dès 2025, la Chine devrait devenir le premier marché photovoltaïque du monde avec 115 GWc de capacités installées, détrônant l’Union européenne. Son voisin l’Inde occuperait la seconde place avec 100 GWc. Il faut dire que les installations PV son particulièrement indiquées pour pénétrer les zones rurales non reliées aux réseau électrique régional. Les Etats-Unis devraient également approcher des 100 GWc selon le WEO, tirés notamment par l’état de la Californie.

A noter que ce marché industriel est totalement monopolisé par l’Asie. En 2014, les fabricants asiatiques trustent 90% de la production de panneaux photovoltaïques. Pour autant, aucune firme ne dispose d’un pouvoir de marché significatif. Le leader du secteur, Trina, plafonne à 7% de parts de marché. La première compagnie non-chinoise est l’américaine First Solar (8ème) avec 4% de parts de marché, mais aucune entreprise européenne n’apparait dans ce top10.

Par Romain Chicheportiche

Comment constituer une équipe performante avec des éléments moyens

La grande majorité des chefs de projets doivent composer avec des budgets serrés, et ne peuvent pas toujours choisir LE collaborateur qu’ils souhaitaient idéalement recruter, faute de sous. Ils se contentent souvent d’essayer d’améliorer l’existant.
Tous les groupes ont le même objectif : avoir le meilleur résultat possible. Et quand on pourrait penser que choisir tous ses collaborateurs est un avantage important, nous allons voir qu’une équipe n’est pas performante que par l’addition de ses qualités individuelles. Peu importe d’où il part, le chef doit créer une équipe meilleure que la somme de ses talents individuels. Tous ceux qui ont un jour évolué dans une équipe performante et bien dirigée le savent. Avec un management ambitieux et exigeant, des travailleurs moyens peuvent élever leur niveau de performances moyen – sur de longues périodes – et accomplir des tâches dont ils ne se seraient à priori pas crus capables.

Voici quatre recommandations pour construire une équipe performante :

Communiquer vos attentes finales dès le départ

Dans un article de la Havard Business Review, Anne Grady, experte en leadership et en management, explique : « si vous avez l’impression que vos employés ne sont pas à la hauteur, vous feriez mieux de vous demander si vous êtes à la hauteur dans le vôtre. Beaucoup de chefs croient que c’est en responsabilisant les gens qu’on obtient d’eux les meilleurs résultats. Mais cela a un inconvénient. Vous vous montrerez frustrés par les résultats obtenus par certains collaborateurs, alors même que ces derniers ignorent ce que vous attendiez exactement d’eux depuis le début.
La culture d’équipe est quelque chose qui s’installe rapidement, et qui est très compliquée à faire évoluer ensuite. C’est à vous d’imager cette culture en illustrant et en incarnant à quoi ressemble le but vers lequel toute l’équipe tend. Cette « vision » doit être facilement communicable.

Ne partez pas du principe que tout le monde est sur la même longueur d’onde. Soyez très clair dans l’expression de vos attentes, et imposez-vous. N’oubliez pas que les membres d’une équipe évaluent la culture de cette dernière à partir de tout ce qui est valorisé mais aussi en fonction de tout ce qui est ignoré.

Favoriser un environnement d’équipe positif

Si vous faites travailler un groupe constitué de talents hétérogènes, il vous faut pourtant faire en sorte que chacun puisse auto-évaluer sa contribution de manière précise et réaliste. Chaque employé doit savoir pourquoi il est important dans les rouages de l’équipe en sachant par exemple pour quoi un échec de sa part porterait préjudice à toute l’équipe.

En tant que leader, vous avez la possibilité de favoriser la cohésion de votre équipe en la traitant en tant qu’unité. Thomas Chamorro Premuzic, le PDG de Hoggan Assesment System (entreprise américaine), est également professeur en psychologie des affaires au collège de Londres, explique : « Les leaders ont la tâche au combien critique et compliquée de générer l’implication chez les autres membres de l’équipe. Bien que l’implication individuelle soit très importante, l’esprit d’équipe reste la clé. Vous pouvez disposer d’une équipe de travailleurs « moyens », mais faire en sorte que chacun d’eux tire le maximum de ses compétences et entraine les autres à rehausser les leurs à travers un objectif commun et valorisant pour chacun ».

Essayez de créer une culture d’équipe se nourrissant d’engagement mutuel et de coopération. Encouragez vos salariés à multiplier les réunions et les brainstormings entre eux, et célébrez chaque réussite collectivement.

Etablir 3 à 5 principes cardinaux de fonctionnement agréés par tous

Dans un article précédent j’avais évoqué une stratégie pour former une équipe en moins de trente minutes. Le cœur de cette stratégie résidait dans le fait de créer 3 à 5 principes opérationnels -développés par les membres de l’équipe – validés par l’ensemble des équipes. Ces principes peuvent être tactiques, comportementaux, et doivent « tracer le chemin ». Un de ces principes pourrait être par exemple : « Prenez des risques ».

Une fois tous ces principes établis, mettez en place un tableau de suivi comptable pour auditer régulièrement l’équipe et organiser des entretiens individuels réguliers de suivi. Le but est de rendre ces principes admis par le collectif le plus rapidement possible : affichez les dans la meeting room, ajoutez les dans les agendas. Faites comprendre à l’équipe que c’est à elle de porter ces principes, et vous pouvez être sûrs que cette responsabilisation portera ses fruits.

Ne pensez pas qu’une équipe ne se compose que de profils brillants

Tout le monde n’est pas comme vous. Et tout le monde n’a pas forcément envie d’être comme vous. Certaines personnes sont ambitieuses, travailleuses, concentrées sur leurs objectifs.
D’autres personnes vont être plus attentives à maintenir une balance entre leur vie de famille et leur vie professionnelle, préférant limiter leur implication professionnelle aux limites qu’ils s’auto-imposent. Il est important, à défaut de gérer au cas par cas, de bien cerner les attentes de vos collaborateurs pour créer un environnement sain, sans frustrations.

Par Kristi Hedges, traduit par S.Luc

Source : http://www.forbes.com/sites/work-in-progress/2015/09/09/how-to-create-an-extraordinary-team-from-average-workers/2/

Montreuil se transforme en sommet citoyen pour le climat

Les messages pullulent dans les allées et sur les stands : « état d’urgence climatique », « changeons le système, pas le climat », « OGM j’en veux pas », « save the arctic », etc. Pas de doutes, on est bien au Sommet citoyen pour le Climat, organisé par la Coalition Climat 21 et Alternatiba.

1

2

3

Le village mondial des alternatives présente des solutions concrètes pour que chaque citoyen adopte un mode de vie alternatif, compatible avec l’objectif des 2°C. Les stands, répartis en 11 quartiers présentent leurs solutions : éco-habitat, énergie, alimentation et agriculture, mobilité, culture et médias, économie soutenable, biodiversité, consommation responsable…

45

L’ambiance est festive. Des chanteurs et des troupes de théâtre se succèdent sur les scènes, des fanfares et des cortèges déambulent dans les rues.

6

Grâce au « ruban climatique », les passants accrochent à un arbre leur message porteur d’espoir en répondant à la question « qu’est¬-ce qui m’est cher et que je ne voudrais pas perdre en raison de la crise climatique? ».

7

Un autre stand propose au passage de laisser un message d’espoir…

8

Quelques œuvres d’art et des photographies interpellent les passants sur l’urgence climatique.

9

10

11

Au programme également : des pétitions, de la cuisson par four solaire, des produits bio proposés par la Confédération paysanne, de la construction en paille et à la chaux, de l’impression 3D, de la réparation, de la couture, des conférences et des débats… Sur deux jours, 30 000 personnes ont déambulé dans le centre-ville de Montreuil !

Par Matthieu Combe, journaliste scientifique

L’ozone affecte la concentration des molécules odorantes des fleurs

L’ozone est un polluant qui participe au déclin de la pollinisation en empêchant les animaux pollinisateurs de repérer les plantes.

Comment ? En détruisant les molécules odorantes émises par les fleurs. Pour mettre en évidence ce phénomène, des chercheurs ont mené une série d‘expériences mettant en jeu la moutarde noire et les bourdons terrestres. Ils ont enfermé des fleurs de moutarde et les ont exposées à deux niveaux de pollution par l’ozone : 80ppm et 120 ppm.

Les scientifiques ont ensuite mesuré l’évolution de la concentration des molécules odorantes de la fleur de moutarde le long de tubes à l’intérieur duquel circulait le mélange air des plantes/ozone. Le tout sur une distance de 4,50m. Dans le cas d’une pollution à 80ppm, la concentration de molécules odorantes diminue sensiblement à une distance d’à peine 1,50m. Pour une concentration d’ozone de 120ppm, la dégradation des composés émis par la fleur de moutarde est comprise entre 26 et 31% au bout des 4,50m de tubes.

Ces travaux parus dans New Phytologist prouvent que l’ozone s’attaque directement au message odorant émis par les plantes, diminuant son rayon d’action. L’équipe a complété son étude en proposant à des bourdons terrestres de se diriger soit vers un tube exhalant l’air émis par les fleurs de moutardes sans ajout d’ozone, soit vers un autre proposant de l’air pollué. Les bourdons se sont dirigés en masse vers le signal non dégradé. Pour les chercheurs, la pollution par l’ozone affecte ainsi le comportement des insectes.

Si l’impact destructeur de l’ozone sur la pollinisation était déjà connu, cette étude a permis de déterminer sur quelle distance le message odorant des fleurs était affecté.

Par Audrey Loubens

COP21, des oeuvres monumentales dans Paris

  • Le lac du Parc Montsouris (XIVe) présente une oeuvre singuière. « Where the Tides Ebb and Flow » de l’artiste Pedro Marzorati : 30 bustes bleus immergés sur 150 mètres dépassent progressivement des eaux.

ArtCOP21_2Regardant dans la même direction, ils dénoncent poétiquement une triste réalité : la montée progressive des eaux menace des populations de plus en plus larges. Jusqu’au 15 décembre.

  •  La Cité internationale (XIVe) expose dans sa Cours D’honneur « Unbearable » de l’artiste danois Jens GALSCHIØT, en partenariat avec le WWF.

ArtCOP21_1La sculpture, représentant un ours polaire empalé sur la courbe d’évolution de la concentration atmosphérique de CO2, depuis l’ère préindustrielle à nos jours, mesure 10,5 mètres de long sur 6 mètres de haut. Une manière dure de dénoncer l’impact des changement climatiques sur la biodiversité.Jusqu’au 5 janvier 2016.

  •  La Place du Panthéon (IVe) accueille «Ice Watch» de l’artiste danois Olafur Eliasson, une horloge composée de 12 blocs de glaces provenant d’un fjord du Groënland.

ArtCOP21_3

Ces blocs pesant initialement près de 10 tonnes, fonderont jusqu’à disparaître, le temps des négociations climatiques de la COP21. Une belle façon de rappeler que les décisions doivent être prises rapidement ! Exposition jusqu’à la fonte totale.

  • Le parvis de la gare du Nord (Xe) présente un immeuble haussmannien semblant se liquéfier peu à peu.

ArtCOP21_4

La « Maison de fond » de l’artiste argentin Leandro Erlich interpelle sur la dégradation de l’habitat dû au réchauffement climatique. A quoi ressembleront les maisons de nos enfants?

  • Le parvis de la gare du Nord (Xe) accueille également l’oeuvre « Angel Bear » du sculpteur français Richard Texier.

ArtCOP21_5

Un ours ailé haut de 7,5 mètres qui semble prêt à s’envoler loin de notre Terre pour survivre. Ne pouvant s’adapter au réchauffement climatique, il est le porte-parole des espèces en voie de disparition.

  •  Face à la Géode, le canal de l’Ourq (XIXe) présente « L’eau qui dort » de Michel Pinsky.

ArtCOP21_6

Vélo, caddie, frigidaire, panneaux… 40 déchets récupérés dans le fond des eaux parisiennes sont exposées à la surface. Cette oeuvre invite les passants à s’interroger sur la pollution et les conséquences d’un geste banal, celui de jeter. Jusqu’au 3 janvier 2016.

  • Entre le Pont des Invalides et celui de l’Alma, le Port du Gros Caillou (VIIe) accueille la baleine bleue de l’association Un cadeau pour la Terre.

ArtCOP21_7

Avec ses 33,6 m de longueur, elle symbolise l’érosion de la biodiversité. Depuis un siècle, 95% des baleines bleues ont disparu. Jusqu’au 11 décembre, de 9h à 18h.

  • Chaque soir, la Tour Eiffel s’illumine en vert !

ArtCOP21_8En plus, grâce à l’application «One Heart One tree» imaginée par l’artiste belgo-tunisienne Naziha Mestaoui, vous pouvez acheter un arbre qui sera planté dans l’un des 6 lieux proposés. Vous pouvez ensuite le voir grandir virtuellement sur les parois de la Tour Eiffel, accompagné d’un mot choisi.

 Par Matthieu Combe, journaliste scientifique

Glyphosate : publication des résultats de l’évaluation européenne

Sur la base d’un travail approfondi de l’Agence Allemande (BfR) en qualité d’Etat membre rapporteur, et auquel l’Anses a apporté sa contribution dans le cadre des procédures européennes, les conclusions conduisent à durcir les critères d’évaluation et considèrent la cancérogénicité de la substance comme improbable pour l’homme.

Ces conclusions appellent par ailleurs à approfondir les travaux sur deux points complémentaires, sur lesquels l’Anses a engagé un travail spécifique: l’un vise à étudier les possibilités de modification de classement du glyphosate dans le cadre du Règlement Reach-CLP, sur la base des données rassemblées tant par le BfR et l’EFSA  au niveau européen que par le Centre international de recherche sur le cancer (CIRC) lors de sa récente expertise ; l’autre a pour but d’évaluer le besoin d’études supplémentaires sur les effets sur la santé humaine des formulants présents dans les préparations commerciales en association avec le glyphosate. Les conclusions de ces travaux seront publiées début 2016.

Le glyphosate est une substance active autorisée en Europe et très largement utilisée en tant qu’herbicide, à la fois par les professionnels (8660 tonnes commercialisées en France en 2013), mais aussi par les jardiniers amateurs (2055 tonnes commercialisées en France en 2013).

Il fait actuellement l’objet au niveau européen d’une procédure de renouvellement décennal de son approbation en tant que substance active phytopharmaceutique au titre du Règlement (CE) n° 1107/2009 concernant la mise sur le marché des produits phytopharmaceutiques. Dans ce cadre, l’autorité européenne de sécurité des aliments (EFSA) coordonne l’évaluation de la substance, avec l’Allemagne (BfR) pour Etat membre rapporteur.

En septembre dernier, le Centre international de recherche sur le cancer (CIRC) placé auprès de l’organisation mondiale de la santé, a publié un rapport concluant que le glyphosate devait désormais être classé cancérigène 2A, soit « cancérigène probable pour l’homme ».

Dans ce cadre, la Commission Européenne a demandé à l’EFSA de prendre en considération dans son évaluation finale les conclusions du CIRC, en particulier le caractère potentiellement cancérogène du Glyphosate ou des produits de protection des plantes contenant du Glyphosate.

Les conclusions de ces travaux sont publiées ce jour par l’autorité européenne.  Sur la base d’un travail approfondi de l’Agence Allemande (BfR) en qualité d’Etat membre rapporteur, et auquel l’Anses a apporté sa contribution dans le cadre des procédures européennes, les conclusions conduisent à durcir les conditions d’évaluation du glyphosate et des préparations commerciales à base de glyphosate, en fixant un seuil de référence de toxicité aigüe à respecter, en complément des seuils toxicologiques de référence déjà en vigueur. Elles considèrent également comme improbable sa cancérogénicité pour l’homme.

Ces conclusions appellent par ailleurs à approfondir les travaux sur deux points complémentaires, sur lesquels l’Anses a d’ores et déjà engagé un travail spécifique dans le cadre d’une saisine reçue des ministères :

  • Le premier vise à évaluer si les éléments présentés dans les évaluations du CIRC et de l’EFSA sont de nature à soutenir une proposition de modification de la classification du glyphosate  selon les règles définies dans le règlement européen sur la classification des substances chimiques (règlement (CE) n°1272/2008 dit CLP). En fonction du résultat de ce travail, le classement de la substance par l’agence européenne des produits chimiques (ECHA) pourrait conduire à des restrictions d’usage des produits à base de glyphosate.
  • Le second point vise à approfondir les résultats des études de génotoxicité concernant une préparation commerciale associant le glyphosate à des formulants, – études fournies dans le cadre du dossier de réévaluation du glyphosate -, afin d’évaluer le besoin d’études supplémentaires sur les effets des associations des formulants présents dans les préparations commerciales en association avec le glyphosate.

Le groupe d’experts doit rendre ses conclusions sur le premier point en janvier 2016, et d’ici la fin du premier trimestre 2016 pour le second. Ces éléments complèteront les résultats des expertises menées par le BfR, l’EFSA et l’ECHA, en vue d’éclairer les décisions à prendre au niveau européen d’ici l’été 2016 par la Commission européenne et les Etats membres concernant la réapprobation de la substance active.

Source : anses

Faraday Future représente-t-il une menace pour Tesla ?

Jusqu’à aujourd’hui, c’était la discrétion qui définissait la start-up. De l’identité de son pdg à celle de ses actionnaires, on ignorait tout, avant que l’on apprenne finalement qu’il s’agit de Nick Sampson, ancien ingénieur Tesla. La création même de Faraday Future en 2014 avait eu lieu sans grandes pompes et sans qu’aucune annonce ne soit faite. Si bien qu’un temps, avait été envisagé qu’Apple soit derrière ce projet, en partie à cause du caractère nébuleux qui enveloppait la société. Certains y voyant une culture du secret savamment orchestrée qu’aurait pu élaborer la firme à la pomme.

Mais voilà, les dirigeants se sont enfin mis à communiquer et nous en savons désormais un peu plus. Par exemple que les locaux, qui appartenaient auparavant à Nissan, situés à Gardena, à une poignée de pierres de Los Angeles, rassemblent environ 400 employés. 500 normalement d’ici début 2016. Parmi les plus emblématiques de ces employés, on peut citer Nick Sampson, Tom Wessner, Alan Cherry ou encore Richard Kim, un ancien de BMW, Porsche et Audi. Faraday a débauché des pointures d’un peu partout estimant sûrement que pour démarrer sa conquête du marché, il fallait s’entourer d’hommes avertis.

Nous avons également pu apprendre que Faraday, pour lancer massivement la production des voitures électriques connectées et autonomes, compte investir 1 milliard de dollars dans une usine de pointe aux États-Unis. L’un de ces quatre États pourrait l’accueillir : Californie, Géorgie, Louisiane ou Nevada. Et pour soutenir un tel investissement, l’homme d’affaires chinois Jia Yueting, notamment connu pour être le patron de la plateforme de vidéo en ligne LeTV – comparable au service de diffusion Netflix – viendrait à la rescousse. L’entrepreneur serait à la tête d’une fortune estimée à 7,5 milliards de dollars et dispose d’une expérience certaine dans la création d’entreprise.

Une ressemblance frappante avec Tesla

Si le nom de Tesla nous vient immédiatement en tête lorsque l’on pense à Faraday Future, c’est que les points de convergence sont nombreux. À commencer par le nom donné respectivement à leurs entreprises. Tesla en l’honneur de Nikola Tesla, à l’origine de la découverte du courant alternatif et du moteur électrique asynchrone et Faraday Future à cause du scientifique Michael Faraday, célèbre pour avoir inventé le principe de cage Faraday. Les deux entreprises se positionnent sur la construction de voitures électriques et ont toutes deux l’ambition de faire évoluer le milieu automobile

Mais l’assimilation s’arrête là. L’approche de Faraday s’avère en effet bien différente des autres constructeurs… et assez innovante ! La start-up ne conçoit pas la voiture comme une finalité. Plutôt comme un produit connecté et évolutif comme peuvent l’être nos téléphones portables, et capable de répondre à des besoins par des services. Comme l’a dit Nick Sampson dans Tech Insider : « Nous regardons dans la direction des abonnements et des applications. » Le business modèle diffère donc en ce point puisque Faraday entend récolter bien plus d’argent grâce aux applications : « L’important, c’est ce qui se passe après la vente. » Tout ceci n’a toutefois pas encore été expliqué très clairement et on ne sait pas quelles applications sont concernées ni quelles offres seront proposées.

Enfin, last but not least, à quoi ressemblera le premier véhicule de la nouvelle marque ? Peut-être le saura-t-on lors du prochain Consumer Electronic Show de Las Vegas, en janvier 2016. Paraît-il qu’un premier modèle pourrait y être présenté. Quoi qu’il en soit, Faraday se donne deux ans pour débuter la commercialisation d’une voiture et ainsi débarquer sur le marché automobile. Le délai s’annonce serré mais son pdg semble optimiste.

Par Sébastien Tribot

Les premiers trophées solutions climat de la COP21

Sur les 171 entreprises qui ont présenté leurs candidatures, sept ont été primées. Dans la catégorie atténuation, le prix PME va à PowiDian pour sa station de production d’hydrogène en site d’altitude qui équipe le refuge du Col du Palet dans le parc national de la Vanoise. Le prix Grand Groupe récompense General Electric pour son moteur équipant l’éolienne offshore de 6 mégawatts « Haliade 150 », éolienne produite par ailleurs par Alstom. Dans cette catégorie, deux coups de coeur ont été décernés. Le premier, au restaurant parisien l’Epi Dupin qui propose une cuisine durable et des plats « Bon pour le climat » émettant moins de gaz à effet de serre. Le deuxième, à Colas, pour la mise au point de Wattway, premier revêtement routier photovoltaïque au monde. Constituée de cellules photovoltaïques enrobées dans un substrat multicouche composite de quelques millimètres d’épaisseur, cette route produit de l’électricité d’origine solaire tout en supportant le passage des véhicules, même des poids lourds ! Ces dalles peuvent directement se coller sur les chaussées existantes, sans travaux supplémentaires.

Dans la catégorie adaptation, le prix PME est remporté par Environmental Sediment Treatment qui commercialise un « Robot Dévaseur », solution environnementale et économique pour le traitement des sédiments. Le Prix Grand Groupe est quant à lui décerné à EDF pour l’adaptation du parc hydraulique grâce à sa technologie Piano Key Weir. Ce dispositif, en forme de touches de piano, permet d’évacuer les crues exceptionnelles grâce à des bacs d’alimentation et d’évacuation. Un seul coup de coeur a été décerné dans cette catégorie à Bouygues Immobilier pour Hikari, le premier îlot mixte à énergie positive en France. Situé à Lyon Confluence, son architecture bioclimatique, la production d’énergie renouvelable sur le site et la gestion énergétique mutualisée constituent sa performance.

La Galerie des Solutions, par WE

Du 2 au 9 décembre, la Galerie des solutions présente, au Musée de l’air et de l’espace du Bourget, une centaine de solutions internationales pour la croissance verte portées par des start-up, des PME ou des grands groupes. De nombreuses conférences sont proposées aux professionnels.Il est possible de s’accréditer gratuitement, 48h à l’avance, jusqu’au 7 décembre, sur le site http://www.lagalerie-cop21.com/.

Par Matthieu Combe, journaliste scientifique

Guêpe parasite Venturia : le complice viral démasqué

Dans la série de films fantastiques « Alien » de Ridley Scott, les héros sont décimés par des créatures monstrueuses dont les larves détruisent le corps humain de l’intérieur en quelques jours. Ces créatures sont directement inspirées des guêpes parasites qui sont omniprésentes dans la nature mais limitent fort heureusement leurs attaques à d’autres insectes. Les guêpes parasites constituent une part importante de la biodiversité et jouent un rôle majeur dans le contrôle des populations d’insectes, notamment celles des ravageurs de cultures. Un grand nombre de ces espèces pondent et se développent au stade larvaire à l’intérieur de chenilles hôtes. Pour cela, elles utilisent des stratégies originales faisant intervenir des virus, qui leur permettent de contrer les défenses immunitaires des chenilles.

ENNiKVu0iQM2GHCzvttYHTl72eJkfbmt4t8yenImKBVvK0kTmF0xjctABnaLJIm9

Un consortium de chercheurs français* animé par des entomologistes de l’Inra et du CNRS, en collaboration avec des généticiens du Génoscope (CEA-Institut de génomique), vient de montrer que les guêpes parasites ont intégré plusieurs fois au cours de l’évolution le même type de virus dans leur ADN. A chaque fois, le virus est transformé en « arme biologique » dirigée contre l’immunité de l’hôte. Dans le cas nouvellement élucidé, chez une guêpe nommée Venturia canescens, le virus domestiqué est utilisé exclusivement pour sa capacité à former des enveloppes virales. Ces enveloppes, sortes de liposomes naturels, servent à la guêpe pour empaqueter des protéines immunosuppressives qu’elle-même synthétise, et à les introduire ensuite dans les cellules immunitaires de la chenille afin de les inactiver.

La présence de particules immunosuppressives, qui ressemblent à de petits cristaux, a été décrite chez la guêpe Venturia pour la première fois il y a plus de 50 ans. Ces particules produites par les ovaires accompagnent les œufs de la guêpe et les protègent contre les défenses immunitaires de la chenille dans laquelle ils sont pondus. Par contre, la nature de ces particules était restée un mystère jusqu’à présent.

En combinant les approches les plus récentes de décryptage des génomes et d’identification des protéines, les chercheurs viennent de lever le voile sur cette question en montrant que les particules sont produites par un virus dont le génome est réparti en plusieurs fragments dans l’ADN de la guêpe. Ainsi, un virus de type nudivirus (virus d’insectes proches des baculovirus utilisés en lutte biologique contre les chenilles) a d’abord été capturé dans le génome de la guêpe Venturia et par la suite seule la capacité de former des enveloppes a été conservée du virus initial. Les scientifiques doivent maintenant déterminer finement comment les particules sont produites et comment elles rentrent dans les cellules de l’hôte.

Ce scénario de domestication d’un virus par un organisme eucaryote, bien qu’il semble extraordinaire au premier abord, s’est en fait reproduit plusieurs fois au cours de l’évolution des guêpes parasites. On savait depuis quelques années que les bracovirus, des virus symbiotiques associés à un autre groupe de plus de 17 000 espèces de guêpes parasites, étaient également issus d’un nudivirus capturé il y a 100 millions d’années par la guêpe ancêtre du groupe. Cependant, la stratégie utilisée pour contrer l’immunité de l’hôte est sensiblement différente dans les deux cas puisque les particules de Venturia délivrent des protéines tandis que les bracovirus sont utilisés pour transférer des gènes

En plus de leur intérêt pour les sciences de l’évolution, les connaissances acquises sur ces systèmes pourraient avoir des retombées dans la conception de nouveaux vecteurs thérapeutiques servant à délivrer des molécules chez l’homme. En effet, on peut supposer que l’efficacité des systèmes viraux des guêpes parasites pour le transport de molécules a été améliorée par des millions d’années de sélection, contribuant à la réussite du parasitisme – des optimisations dont les biotechnologies pourraient tirer profit.

 Source : CNRS

Les pesticides affaiblissent définitivement les abeilles

« Les experts soulignent le caractère souvent multifactoriel des causes de mortalités des colonies d’abeilles mais insistent tout particulièrement sur l’importance de leur co-exposition aux pesticides et aux agents biologiques dans le déterminisme de leur effondrement », conclue l’Anses dans son avis. « La présence de nombreux agents infectieux (parasites dont Varroa en tout premier lieu, bactéries, champignons, virus) au sein des colonies, souvent asymptomatiques au départ, et leur exposition aux pesticides de diverses origines et mécanismes d’action (insecticides, fongicides et acaricides en particulier) entraînent selon toute vraisemblance le passage d’un état de santé normal à l’expression de pathologies conduisant à l’effondrement de la colonie.» prévient l’agence.

Vraisemblablement, les colonies d’abeilles sont désormais très largement porteuses de différents agents infectieux, même lorsqu’elles ne présentent aucun symptôme. Les pesticides apporteront le dernier élément de stress nécessaire pour les destabiliser, faisant apparaître des troubles, en abaissant l’immunité individuelle ou sociale de la colonnie, ou en diminuant les mécanismes de détoxication des abeilles. « Certaines substances, comme des néonicotinoïdes ou des acaricides, peuvent avoir un effet sur la cohésion de la colonie et le comportement hygiénique des ouvrières, et donc sur les risques infectieux et parasitaires », résument les experts.

Vers la mise en place d’un rucher de référence ?

Le groupe de travail souligne qu’il est extrêmement difficile de définir un « état de santé normal » pour les abeilles ou leurs colonies. De nombreux facteurs entrent en jeu, notamment la région géographique et son climat, l’environnement agricole et floristique. Les facteurs de stress sont eux aussi multiples et peuvent interagir entre eux. « Facteurs biologiques, chimiques, alimentation, pratiques apicoles, conditions métérologiques, facteurs physiques », pour citer les principaux. L’abondance et la diversité de l’alimentation et des ressources environnementales jouent un rôle important sur la santé et la tolérance des abeilles à d’autres facteurs de stress, notamment chimiques et biologiques.

L’Anses recommande donc la mise au point d’études épidémiologiques sur les interactions entre les différents facteurs de stress en situation naturelle, notamment la création d’un réseau de ruchers de référence, qui maillerait au mieux le territoire. « Ces ruchers permettraient sur la base d’une collecte standardisée de données de population et de production, de définir des référentiels régionaux pour les différents acteurs », notent les experts. Dans chaque région, ces ruchers de référence permettraient de définir un état de santé moyen « normal » des colonies d’abeilles en fonction du temps et de l’environnement, afin de définir des facteurs de risques propres à chaque région. Ces ruchers de référence permettraient de mieux documenter et comprendre le « portage asymptomatique des colonies », ces colonies qui semblent saines malgré les nombreux facteurs de stress qu’elles subissent. Il sera ainsi possible de comparer les niveaux d’agents infectieux présents dans les ruchers asymptomatiques avec les niveaux observés dans les colonies affaiblies, pour mieux comprendre le rôle de chaque agent infectieux dans l’apparation de troubles. Dans ce cadre, l’agence souligne également l’intérêt d’utiliser et de maintenir des populations d’abeilles adaptées aux conditions locales. Cette proposition est saluée par l’ensemble des acteurs.

Une évolution des AMM des pesticides?

Les experts recommandent de revoir les procédures d’évaluations pré et post autorisation de mise sur le marché (AMM) des pesticides. Ils proposent notamment l’intégration systématique de tests pour évaluer les effets de co-exposition possibles du pesticide testé avec une molécule acaricide anti-Varroa et un fongicide connu pour inhiber les mécanismes de détoxication des abeilles. Si le pesticide est un insecticide, ils recommandent en plus de tester la co-exposition avec un autre insecticide ayant un même mode d’action. L’anses recommande aussi un suivi pesticides – pesticides après mise sur le marché. « Ces propositions devraient être discutées au niveau européen, leur mise en oeuvre effective nécessitant leur intégration au cadre réglementaire européen », soulève l’Anses.

Mais ce n’est pas tout. Dans le cadre de la phytopharmacovigilance post-AMM, l’Anses propose d’utiliser les données issue du rucher de référence pour identifier les pesticides favorisant le développement de certains agents infectieux et parasitaires ou modifiant le caractère des abeilles. Dans le cadre de chaque procédure de rééxamen des conditions d’autorisation, il conviendra alors de tester le pesticides en question en co-exposant les abeilles à ce pesticide et à des agents infectieux et parasitaires répandus pour identifier les effets potentiels.

Lors du colloque de l’Anses, Ronan Vigouroux, Responsable environnement de l’Union des industries de la protection des plantes (UIPP) s’est opposé à ces propositions. « Nous ne sommes pas d’accord avec cette co-évaluation […] parce qu’elle va entraîner un nombre très très important de combinaisons possibles». « Nous nous opposons à une surenchère réglementaire européenne et française qui va bloquer le système d’innovation», affirme-t-il. De leur côté, les apiculteurs et les associations environnementales la plébiscitent.

Par ailleurs, pour préserver la santé des abeilles, l’Anses recommande de maintenir la biodiversité, respecter les bonnes pratiques apicoles, minimiser les traitements chimiques grâce à l’agro-écologie et la zootechnie.

Par Matthieu Combe, journaliste scientifique

Quantified self au travail : quand le salarié est pisté par son employeur

Le marché du “quantified self” (QS), en français “mesure de soi”, se développe, peu à peu, jusque dans le monde du travail. Mais de quoi s’agit-il, à la base ? A l’origine, il s’agit d’un mouvement né en Californie en 2007, regroupant des “makers”, des geeks et autres individus cherchant à vivre mieux en mesurant leurs activités (nutrition, sport, sommeil).

Au départ, les “quantifiés” étaient, explique Internet Actu, des “cobayes d’eux-mêmes“ dont le but était “d’accumuler des données grâce à des capteurs, pour mieux comprendre leur propre métabolisme”. Puis l’Internet des objets s’est démocratisé, et est arrivé le consommateur lambda.

Désormais, les “gadgets de la mesure” ne manquent pas. Les bracelets connectés Fitbit, Nike+ et Jawbone, les balances ou les tensiomètres de Withings, permettent de surveiller votre sommeil, le nombre de pas effectués par jour, votre rythme cardiaque, votre tension ou les calories que vous brûlez. Et selon un rapport d’ABI Research, le marché du “sensing wearable” (les objets de quantification connectés que l’on porte sur soi) devrait représenter quelque 485 millions d’objets achetés en 2018.

Les assureurs en première ligne

Avec le QS, grâce à des objets munis de capteurs connectés, ou à des applications mobiles, n’importe qui peut collecter des informations sur son propre corps, d’une façon de plus en plus automatisée, puis les partager avec d’autres. Et ce phénomène ne se limite plus à un usage personnel : des assureurs et des hôpitaux américains ont ont ainsi commencé à conditionner leurs offres selon l’utilisation ou non d’objets de mesure.

En France, AXA a signé un partenariat avec Withings, et propose aux clients de sa complémentaire santé, Modulango, de s’équiper du Pulse, le podomètre de Withings, contre 50 euros de « chèques de médecine douce”. En Suisse, la mutuelle “Groupe Mutuel” rembourse à hauteur de 25 % l’achat par ses assurés d’un produit de la gamme Fitbit.

Surveiller pour “booster la productivité” du salarié

Quid du monde de l’entreprise ? Les données quantifiés (les informations collectées par les objets connectés) intéressent fortement les employeurs. Car elles permettent d’en savoir beaucoup sur leurs salariés.

“Il est possible, grâce aux objets connectés de mesure, d’avoir une connaissance très fine de l’utilisateur : en ayant accès à la courbe de pas, de poids, et aux activités sportives de l’individu sur plusieurs mois ou années, cela permet par exemple de connaître son mode de vie et son état de santé potentiel, actuel ou futur…”, indique Olivier Desbiey, chargé d’études prospectives à la CNIL, qui a signé en 2014 un livret (Cahiers IP n°2) intitulé “le corps, nouvel objet connecté”.

Résultat, dès 2013, CVS Pharmacy, une grande chaîne de pharmacie américaine, demandait à ses employés de mesurer leur poids, leur glycémie, et d’autres signes vitaux pour bénéficier (ou non) de primes d’assurance-maladie.

Depuis un an, Biosyntrx, une société américaine qui commercialise des suppléments nutritionnels, équipe ses employés d’un Fitbit. Les données de ces derniers apparaissent sur le site de la société. Une façon de “motiver” les salariés à “prendre soin de leur santé” malgré eux, à travers un “challenge” interne – tout en surveillant leur “niveau d’engagement”. Une façon, pensent les employeurs optant pour ce genre de programme, de “booster” la productivité du salarié.

Cette technique utilisée pour “motiver” les employés est-elle efficace ? Dans FastCompany, Jeff Margolis, CEO de Welltok, une plateforme de santé qui travaille avec des mutuelles, estime que ce genre de “dispositif unique pour tous” est efficace, car il ne “cible pas les besoins spécifiques des individus”. Ainsi, mesurer le nombre de pas fonctionne très bien pour nombre d’employés, mais pas pour tous, notamment ceux souffrant de mal de dos, ou de problèmes de santé les empêchant de marcher beaucoup. Pire, cette façon de mettre les salariés en concurrence risque même de saper la motivation, au lieu de l’encourager.

Mesurer la “bonne santé”

L’idée partagée par toutes les entreprises ayant recours au Quantified Self en interne est de garder les salariés en bonne santé, pour qu’ils soient plus productifs. Et rapportent donc plus d’argent – en produisant plus, mais aussi en coûtant moins cher en primes d’assurances. Selon ABI Research, 13 millions d’objets connectés wearables, tels des dispositifs de “remise en forme”, devraient être intégrés dans des programmes de suivi du bien-être des employés au travail, d’ici à 2019.

Le QS a été porté à l’extrême chez Citizen, une société de technologie mobile de l’Oregon. Selon InternetActu, qui a dévoilé en septembre dernier les réflexions du groupe de travail “Bodyware ” de la Fing (Fondation internet nouvelle génération) sur “le corps au travail”, cette entreprise invite ses employés à “télécharger des données” sur ce qu’ils mangent, sur leurs activités sportives et sur leur sommeil, dans le cadre d’une étude qui vise à “mesurer si la bonne santé les rend plus heureux et productifs”.

Les employés sont équipés de “traceurs” Fitbit ou Runkeeper, dont les données collectées sont ajoutées à d’autres, notamment celles de “Happiily, un système d’enregistrement d’humeur”, pour être analysées en interne.

Le droit de contrôle

Mais qu’en est-il de l’employé qui refuse de s’équiper et de se “quantifier” pour sa boîte ? Selon Antoinette Rouvroy, chercheur en philosophie du droit, membre du Comité de la Prospective de la CNIL, un tel refus “pourrait être interprété par l’employeur comme un indice de ‘mauvais risque’”. Donc paraître suspect. Le QS à l’entreprise pourrait ainsi créer une nouvelle forme de discrimination – contre ceux qui sont, notamment, “pas assez performants”.

En 2014, aux USA, un employé a été licencié pour avoir refusé de participer à un programme de ce type proposé par sa société, Orion Energy Systems. Il a finalement gagné le procés mené contre son entreprise – le droit du travail américain n’autorisant pas un employeur à rendre obligatoire un tel programme.

Selon l’avocate de cet employé, Tiffani McDonough, les données n’étaient d’ailleurs pas “confidentielles”, mais collectées par le service des ressources humaines, sans être anonymisées. En marge du procès, les hommes de loi ont conseillé aux entreprises ayant recours au QS, d’opter pour une collecte par un “tiers” plutôt que par les RH, et d’utiliser des données “agrégées”, au lieu d’être individualisées – de façon à obtenir des statistiques générales, non discriminantes.

Pour Tiffani McDonough, le QS pourrait toutefois être utile dans certains cas : “Si la majorité de la main-d’oeuvre se révèle avoir un taux de cholestérol élevé, l’entreprise peut décider de faire effort pour aider ses employés à manger plus sainement”, explique-t-elle. S’il s’agit d’une compagnie de transports, le Quantified Self peut permettre de connaître le possible manque de sommeil des chauffeurs, et d’agir pour améliorer la situation.

Selon la Fing, la surveillance de la productivité serait en réalité contre-productive. “Mise au service de la productivité, l’extrême surveillance se révèle bien souvent décourageante, démotivante. Par principe, elle casse le contrat de confiance entre employeurs et employés et peut se révéler au final beaucoup moins productive qu’escomptée”, écrit ainsi InternetActu. Le risque, en outre, serait de “développer des indicateurs qui mesurent la réduction du niveau d’implication des gens plutôt que de mesurer la qualité de leur environnement de travail pour étendre cette implication”. Ainsi, explique la Fing, “le risque est de développer du stress et de l’angoisse, plus que de promouvoir le bien-être au travail.”

Pour Olivier Desbiey, de la CNIL, qui indique que le quantified self au travail n’a pas encore gagné la France mais devrait bientôt débarquer sur nos côtes, “le consentement du salarié constituera une condition cruciale”. Ainsi, explique-t-il, le seul moyen de s’en sortir serait de “placer l’utilisateur d’objets de mesures, en particulier les employés, en situation de contrôle de leurs propres données”. Avec le droit de refuser, à tout moment, le quantified self.

Par Fabien Soyez