Les salariés de l’industrie prennent-ils des risques en travaillant ?

Voilà une enquête qui met à jour de nombreuses inégalités. Le projet Sumer s’est appuyé sur 2400 médecins du travail pour sonder et cartographier les risques professionnels des salariés français du privé et du public. Il ressort que les salariés sont exposés à des risques de différentes natures, pouvant être physiques ou psychologiques. Ainsi, certains sont mieux lotis que d’autres.

Le rapport, réalisé conjointement par la direction générale du travail (DGT) et la direction de l’animation de la recherche, études et des statistiques (DARES), chiffre à un salarié sur trois le nombre de personnes exposées à des risques chimiques ! Dans l’industrie, cela concerne  45% des employés. 17% des salariés de l’industrie sont en contact avec au moins un agent chimique cancérogène (gaz d’échappement diesel, huiles minérales, poussières de bois, silice cristalline…), contre seulement 10% des salariés en général. De plus, ces expositions peuvent être prolongées sur une période de plus de 10 heures par semaine.

Les risques de se retrouver exposé à des produits toxiques ne sont pas les seuls rencontrés. Cette notion s’étend à la psychologie des salariés ainsi que leur bien-être au travail. Sumer s’est donc aussi intéressé au ressenti des travailleurs. Dans l’industrie, les salariés subissent des contraintes de type organisationnelle, c’est-à-dire qu’ils n’ont pas le loisir d’organiser leurs tâches eux-mêmes ni de faire varier les délais, leur travail étant borné par des contraintes logistiques principalement. Ils ne peuvent pas non plus prendre leur pause quand ils le souhaitent. Les salariés du commerce et des transports souffrent d’ailleurs des mêmes « risques ».

De plus, les salariés de l’industrie sont aussi ceux qui craignent le plus de commettre une erreur, non pas par peur de se faire taper sur les doigts, mais car ils sont conscients des conséquences financières que cela pourrait engendrer pour leur entreprise. En toute logique, les salariés de l’industrie sont les plus nombreux, 76% contre 47% pour l’ensemble des salariés, à respecter scrupuleusement les procédures de qualité. Ce sont aussi ceux soumis le plus souvent à des objectifs chiffrés précis, évalués lors des entretiens annuels. L’enquête Sumer fait aussi ressortir l’émergence de comportements violents au travail. 24% des salariés de l’industrie en ont été victime au moins une fois, qu’il s’agisse d’une humiliation en public, d’un déni de reconnaissance ou de propos dégradants.

En revanche, les salariés de l’industrie sont beaucoup moins exposés aux risques biologiques, au bruit ou encore aux contraintes physiques intenses. Ils échappent aussi aux dangers de travailler sur un écran trop longtemps.

Par Audrey Loubens, journaliste scientifique

Le réchauffement climatique rend les poissons plus toxiques

Des américains viennent de publier dans PLos ONE leurs travaux sur les poissons et le taux de mercure accumulé dans leur corps. Leur conclusion est que plus les températures sont importantes, plus les poissons sont toxiques. En cause, un mécanisme finalement assez simple. La chaleur creuse l’appétit des poissons, ils mangent plus et accumulent d’autant plus de polluants dans leur corps. 

L’équipe rassemblant notamment des chercheurs de la Wells National Estuarine Research Reserve, du Dartmouth College et de la National Oceanic and Atmospheric Administration s’est tout particulièrement intéressée au mercure. Ils ont étudiés deux populations de choquemort, un poisson d’estuaire, l’une vivant en laboratoire et l’autre évoluant dans des marais salants côtiers.

Dans les deux cas, les observations sont identiques. Les poissons se retrouvent avec un taux plus élevé de méthylmercure dans le corps dans les eaux les plus chaudes. 

Cette étude vient renforcer la méfiance que le consommateur doit porter vis-à-vis du poisson, un aliment en voie de disparition et de plus en plus toxique pour l’homme. Cet été déjà, l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (ANSES) mettait en garde contre une consommation excessive de poissons, plus particulièrement ceux qui se nourrissent d’autres poissons, accumulant alors les produits toxiques ingérés par leurs proies. L’espadon, le marlin, le siki, le requin et le lamproie étant fortement déconseillés à la consommation.

Par Audrey Loubens, journaliste scientifique
 

Et aussi dans les
ressources documentaires :

L’ASN classe au niveau 1 un incident de transport au site Areva de La Hague

« Le 27 mars 2013 à 19H00, un incident lors d’un transport interne à l’établissement a conduit à la perte du confinement d’une pièce contaminée » lors du renversement d’une remorque, indique l’ASN dans un communiqué.

Ce renversement s’est traduit par « le glissement partiel de la pièce hors du conteneur et la perte du confinement de la pièce par déchirement limité de sa triple enveloppe de vinyle », est-il souligné.

L’événement, pour lequel Areva avait proposé un classement de niveau 0, « n’a pas eu d’incidence sur la radioprotection des travailleurs et ses conséquences sur l’environnement sont restées très faibles et localisées sur le site industriel », relève l’ASN.

Un défaut de « culture de sûreté »…

Il a toutefois été classé au niveau 1 par l’Autorité « en raison d’un défaut de culture de sûreté » sur le site, qui concentre le plus de matière radioactive en Europe.

Le 7 octobre, l’ASN avait déjà annoncé avoir classé au niveau 1 un incident survenu dans un atelier de plutonium de l’usine Areva de Beaumont-Hague (Manche), lié à « une valeur anormale de l’hygrométrie ».

Source : AFP

Et aussi dans les
ressources documentaires :

Microsoft sort une mise à jour de Windows 8 avec un bouton « démarrer »

La mise à jour peut être téléchargée gratuitement dans la boutique en ligne Windows Store par les utilisateurs de la version Windows 8, et sera commercialisée à partir de vendredi en DVD et sur les nouveaux appareils électroniques de toute une série de marques.

« Windows 8.1 démontre notre engagement à améliorer continuellement le produit pour enrichir l’utilisation des consommateurs », a commenté Brandon Leblanc, un responsable marketing de Microsoft, sur le blog officiel du groupe.

Pour certains analystes, cette mise à jour est une réaction à l’adoption de la version précédente, jugée trop lente par les consommateurs de Windows 8, qui avait été lancée fin octobre 2012 et était censée réinventer le logiciel vedette de Microsoft pour l’adapter aux appareils mobiles, sur lesquels le groupe s’est fait distancer par Apple et Google (Android).

Le traditionnel menu « démarrer » avait en particulier été supprimé et remplacé par un écran d’accueil à gros boutons, adapté aux écrans tactiles des tablettes et des smartphones. Cette mesure était symbolique, mais très critiquée par de nombreux fidèles de Windows.

Outre la crise actuelle sur le marché des PC, cannibalisé par l’essor des tablettes informatiques, Microsoft est confronté selon certains analystes à une offre insuffisante de bons produits hybrides à écran tactile, à mi-chemin entre tablette et ordinateur, pour lesquels Windows 8 a été plus particulièrement conçu.

Source : AFP

Les nanoparticules sont-elles toxiques ? Le débat est relancé !

Les nanoparticules sont-elles toxiques ? Le débat fait rage depuis maintenant plusieurs années, avec comme effet bénéfique le lancement d’études ciblant précisément les effets de nanoparticules sur l’environnement. Parmi celles-ci, le projet européen Nano-Ecotoxicity  s’est focalisé sur les nanoparticules de métaux qui s’accumulent dans les sols de façon à mesurer les conséquences sur les organismes  y prospérant. 

Les équipes du Docteur Maria Diez-Ortiz ont donc étudié de près deux sortes de vers de terre, les Eisenia andrei et Lumbricus rubellus, et la façon dont ils cohabitent avec les nanoparticules d’oxyde de zinc et d’argent.  « Nous avons conduit une étude à long terme consistant à stocker des sols contenant des nanoparticules d’argent et à les laisser vieillir plus d’un an. Leur toxicité a été testée au début et au bout de 3, 7 et 12 mois. Les résultats ont montré que la toxicité de l’argent augmentait avec le temps » explique Maria Diez-Ortiz. 

Des résultats qui remettent en question l’efficacité des tests de toxicité, les tests standards à court terme ne pouvant mesurer cette évolution négative à long terme. Néanmoins, ces observations découlent d’une concentration de nanoparticules très supérieure à celle existant « naturellement » dans  la nature. Ouf. Maria Diez-Ortiz joue la carte de la modération en résumant que « Les systèmes et les protocoles actuels d’évaluation des risques chimiques ont été mis au point au cours de dizaines d’années. En l’absence de nouveaux mécanismes toxiques, nos travaux tendent à montrer qu’ils conviennent aux nanoparticules, pour autant que nous mesurions les bonnes variables et que nous caractérisions correctement des expositions réalistes. ». 

Pour mener à bien sa mission, le groupe de recherche a dû élaborer ses propres protocoles d’étude. En effet, les nanoparticules ont une fâcheuse tendance à se modifier dès qu’elles changent d’environnement. Les échantillons de sol ont été soumis à des  techniques douces d’extraction aqueuse, puis analysés par fractionnement par couplage flux-force puis par spectroscopie afin de déterminer l’état des nanoparticules. Puis, après un minutieux découpage en rondelles des malheureux cobayes, il aura fallu pas moins qu’un synchrotron pour déterminer à quel endroit et sous quelle forme se trouvaient les nanoparticules de métaux dans les tissus.

L’étude Nano-Ecotoxcity a aussi révélé que la toxicité des nanoparticules était modulée par différents facteurs, comme  leur revêtement ou encore l’acidité du sol.  « Les vers de terre exposés aux nanoparticules d’argent pendant 28 jours accumulaient plus d’argent que les vers exposés à des ions argent, sans pour autant que ce supplément d’argent ait un effet toxique. » précise encore Maria Diez-Ortiz.

Une étude dont la complexité, la durée et le coût expliquent le peu de travaux menés sur la toxicité des nanoparticules.

Par Audrey Loubens, journaliste scientifique

Notre planète va-t-elle subir des changements climatiques apocalyptiques ?

Les ouragans deviennent-ils plus fréquents à l’échelle du siècle ?

Pour les auteurs de l’AR5  « les bases de données existantes ne montrent aucune tendance significative dans la fréquence des cyclones tropicaux durant le siècle dernier » et « aucune tendance robuste dans le nombre des cyclones tropicaux, des ouragans et des ouragans les plus forts, n’a été identifiée lors des 100 dernières années dans le bassin Nord Atlantique ». Les experts du GIEC ajoutent que « la confiance est faible dans des changements à grande échelle de l’intensité des cyclones extra-tropicaux extrêmes depuis 1900 ».  

Va-t-on subir une montée apocalyptique du niveau marin, comme dans le film d’Al Gore ?

Le film « Une vérité qui dérange », dont le visionnage conduit les spectateurs à frémir d’angoisse et à sombrer dans une grave dépression devant les conséquences d’une hausse catastrophique de 6 mètres du niveau marin, c’est-à-dire 35 fois plus que durant tout le XXème siècle, du jamais vu depuis plus de 10 000 ans, est-il scientifiquement fondé ?  

Après tout, c’est mathématique, une fonte de la calotte de l’Antarctique-ouest conduirait à une élévation d’environ 6 mètres du niveau marin, et celle du Groenland d’environ 7 mètres. Mais « il est exceptionnellement improbable qu’aussi bien les calottes glaciaires du Groenland et de l’Antarctique Ouest subiront une désintégration complète (Confiance élevée) » peut-on lire dans l’AR5 (chapitre 12. Table 12.4 page 78, rapport disponible librement en ligne depuis le site www.ipcc.ch). Ce point est très important du fait de ses conséquences sur le niveau marin, car ce sont les calottes polaires qui feront toute la différence.

Selon les scientifiques du programme Ice2sea (2013), dont les travaux n’ont pas pu être intégrés par le GIEC car parvenus trop récemment, le niveau marin pourrait monter entre 16,5 et 69 centimètres d’ici 2100, hypothèse haute qui ne fait pas consensus au sein de la communauté scientifique.

Entre d’une part 69 cm (au pire), soit la longueur d’une raquette de tennis standard ou 20 fois moins que l’amplitude des marées naturelles dans la baie du Mont Saint Michel et d’autre part l’amplitude retenue dans le film holywoodien d’Al Gore, il y a vraiment la marque du coefficient amplificateur des marchands de la peur. Le film de science-fiction de cet homme politique et businessman américain est d’ailleurs interdit de projection dans les écoles et les universités en Grande-Bretagne (et malheureusement pas en France), sauf si est indiquée au prélable aux jeunes esprits la liste des nombreuses affirmations non scientifiquement fondées qu’il comporte.

Va-t-on vers un arrêt du Gulf Stream, thème du film « Le jour d’après » ?

Absolument pas selon les scientifiques: « il est extrêmement improbable que l’AMOC (Atlantic Meridional Overturning, courant majeur lié à la circulation thermohaline et dont le Gulf-Stream est une branche) subira une transition rapide (Confiance élevée) » affirment-ils, toujours dans le chapitre 12.

Le GIEC estime en outre « faible » la probabilité « que le pergélisol devienne une source nette de gaz à effet de serre atmosphérique » et qu’ « il est très improbable (confiance élevée) que le méthane issu des clathrates subira un relargage catastrophique »

Voilà de quoi rassurer les plus angoissés. « Le sujet le plus intéressant du changement climatique du point de vue scientifique et le plus important du point de vue sociétal est la possibilité de changements climatiques brutaux avec des conséquences sociétales véritablement massives  » commente Judith Curry, climatologue du Georgia Institute of Technology.  « Le GIEC a une grande confiance dans le fait que nous n’avons pas de soucis à nous faire pour ces scénarios réellement dangereux (par exemple, la fonte des continents englacées et l’effondrement de l’AMOC) sur un échelle de temps du siècle » souligne cette experte indépendante de l’organisme onusien. Elle souligne en outre que le changement du climat n’est pas nouveau et est éternel: « ces catastrophes ont eu lieu dans le passé, sans intervention du réchauffement climatique anthropique, et elles se produiront inévitablement dans le futur, avec ou sans réchauffement climatique anthropique »

La banquise Arctique d’été va-t-elle disparaître dès 2016 ?

Après un article daté du 18 septembre 2012 intitulé « La banquise arctique pourrait complètement disparaître d’ici à quatre ans », dans un nouvel article du Monde paru le 12 septembre 2013 et intitulé « Polémique sur la fonte de la banquise arctique en 2013 », une journaliste du Monde met en avant, en conclusion de son exposé, les propos d’un scientifique qui prophétise une disparition totale de la banquise Arctique dès 2016. L’objectif de la journaliste était , selon-elle, de corriger le traitement du dossier banquise dans la presse anglophone suite au boom spectaculaire de la surface de la banquise Arctique d’été en 2013.

Pour de nombreux climatologues, au contraire, compte-tenu des oscillations naturelles du couple océan-atmosphère, la banquise Arctique pourrait voir sa surface augmenter durant les deux à trois décennies à venir. Il est pour ces chercheurs très improbable que la banquise Arctique d’été devienne libre de glace avant 2050. La théorie de « l’onde de stade [Stadium Wave Hypothesis] permet de prévoir que la banquise Arctique va se remettre de son minimum actuel, d’abord dans sa partie eurasiatique, puis ensuite dans la région sibérienne » affirme Marcia Wyatt , climatologue de l’université du Colorado. « Par conséquent, le minimum de banquise observé en 2012, suivi d’une augmentation de la banquise en 2013, est suggestif et cohérent avec le timing de l’évolution du signal de l’onde de stade ».  La tendance est d’ailleurs clairement à la décélération depuis 2007, c’est à dire depuis 7 ans.

Il n’y a ainsi pas du tout consensus à ce sujet entre les scientifiques. Dans l’AR5, les auteurs affirment avoir une « confiance moyenne »  sur l’hypothèse que « l’Océan Arctique devienne presque libre de glace en Septembre avant 2050 dans le cas des scénarios à forçage élevé comme ceux du RCP8.5 ». Il s’agit de 2050, pas de 2016, de « presque libre de glace » et non pas «complètement disparaître» et enfin cela ne fait pas consensus. Une confiance moyenne signifie que les avis sont partagés (Lire à ce sujet : La longue pause du réchauffement qui dure depuis plus d’une décennie et demie à l’échelle globale pourrait se prolonger jusqu’à la décennie 2030).

En 2007, la BBC, information reprise sans aucune réflexion par de nombreux médias francophones, faisait écho d’une étude prophétisant la disparition totale de la banquise d’été dès 2013. Cela ne s’est pas du tout produit, au contraire, on assiste depuis 2007 à une décélération du rythme du déclin de la banquise d’été, et le boom de 2013 est spectaculaire (+ 60% comparativement à 2012). Il était donc légitime que les journalistes anglais bien informés réagissent et ironisent. Il est regrettable que cela n’ait pas servi de leçon aux prophètes de malheur français qui croient bon exagérer systématiquement pour effrayer leurs lecteurs.

Va-t-on subir des sécheresses intenses ?

C’est un point qui inquiète en particulier les agriculteurs. Selon le GIEC,  il y a une  « faible confiance dans les projections des variations de la fréquence et la durée des méga-sécheresses. Faible confiance dans les projections d’un effondrement de la circulation des moussons. Faible confiance dans les projections qui prévoient un effondrement de grandes zones des forêts tropicales. Faible confiance dans les projections qui prévoient un effondrement de grandes zones des forêts boréales. »  En résumé, on ne sait pas. Il n’est pas scientifiquement fondé d’affirmer que nous allons subir des méga-sécheresses plus fréquentes et plus intenses. Ceux qui affirment le contraire sont des militants qui ne respectent pas l’éthique scientifique.

A propos des inondations les experts du GIEC considèrent qu’ « en résumé, le manque de preuve persiste en ce qui concerne le signe et la grandeur et/ou la fréquence des inondations à l’échelle globale, ce qui se traduit par un indice de confiance faible ». Il ajoutent qu’« en résumé, il y a une faible confiance dans les tendances observées pour les phénomènes météorologiques violents à petite échelle tels que les grêles, les orages, à cause de l’inhomogénéité des données et de l’inadaptation des systèmes de suivi ».

Les scientifiques reconnaissent d’ailleurs avec honnêteté, mais ces propos sont perdus au milieu de deux milliers de pages, qu’« au vu des études mises à jour, les conclusions de l’AR4 (Le rapport 2007 du GIEC ndlr) concernant une augmentation des sécheresses depuis les années 1970, ont été probablement surestimées ».

Séparer le bon grain de l’ivraie et de l’ivresse catastrophiste

Le décalage est déjà appréciable entre les conclusions des scientifiques dans le volumineux AR5 et le petit résumé destiné aux décideurs, dont chaque phrase est destinée à être techniquement relativement exacte mais tournée de façon à ce que l’effet sur les lecteurs soit le plus amplifié possible.  

Mais l’écart avec ce qui est transmis par les grandes agences de presse, puis dans une bonne partie des grands médias français, dont les journalistes bien souvent sans formation scientifique sont parfois aidés de climatologues politisés qui acceptent de sacrifier l’esprit scientifique au nom d’une conception personnelle de l’éthique environnementale, est encore plus grand.

« Ce tableau [du rapport scientifique du GIEC, ndlr] devrait vous permettre d’apaiser les angoisses des nombreux alarmistes du pergélisol, des clathrates, de l’arrêt du Gulf-Stream, du dépérissement des forêts, des sécheresses à répétition, des moussons interrompues etc. qui s’expriment fréquemment dans les médias et sur la toile » estime Jacques Duran, ancien Vice-Président, Chargé de la Recherche, de l’Université Pierre et Marie Curie, qui, à présent à la retraite, est devenu spécialiste en correction des propos tenus par les exagérateurs climatiques.

« Quelle meilleure réponse peut-on leur apporter que le rapport AR5-2013 du GIEC lui-même ? » s’interroge le Professeur, soulignant l’écart considérable dans le traitement du dossier climatique entre d’un côté la France et de l’autre la Grande-Bretagne et l’Allemagne, où les citoyens ont accès à une information bien plus complète et équilibrée. « Il se pose un problème de déontologie journalistique » a estimé récemment Vincent Courtillot, Directeur de l’Institut de Physique du Globe de Paris et membre de l’Académie des Sciences.

L’espèce humaine est-elle « menacée de disparition » ? Allons nous « droit dans le mur ? » Les mots sont violents.  Il est essentiel, pour tout citoyen éclairé, de distinguer ce qui relève de la science climatique, jeune et balbutiante, de ce qui relève de considérations politiques personnelles. Fussent-elles diffusées par des journaux dits « de référence ». Si la science «  ne ment pas »,  la politique, elle, fait du biais, de l’approximation, voir du mensonge éhonté, notamment par omission, un véritable art. Al Gore en est l’une des illustrations les plus caricaturales.

Par Olivier Daniélo

Et aussi dans les
ressources documentaires :

Un institut lancé pour la transition énergétique dans les villes

Installé à Marne-la-Vallée (Seine-et-Marne), il réunira notamment EDF, Veolia Environnement, GDF Suez, la RATP, Vinci et IBM, précise le ministère de l’Ecologie et de l’Energie dans un communiqué.

« Financés par l’Etat dans le cadre du programme Investissements d’avenir à hauteur de 15 millions d’euros, les travaux de recherche d’Efficacity viennent d’être lancés », précise le ministère.

Ces travaux « visent à développer des outils permettant d’améliorer l’efficacité énergétique et l’empreinte carbone de la ville à ses différentes échelles (bâtiment, quartier, ville) ».

Outre les grands groupes, le projet réunit aussi sept sociétés d’ingénierie (ABMI, Arcadis, Assystem, Ingérop, Safege, Setec et Beterem) et 15 structures académiques.

Source : AFP

La pollution de l’air extérieur classée comme cancérigène (OMS)

« Les experts ont conclu (…) qu’il existe des preuves suffisantes pour dire que l’exposition à la pollution de l’air extérieur provoque le cancer du poumon. Ils ont également noté une association positive avec un risque accru de cancer de la vessie », a précisé l’IARC dans un communiqué.

Telles sont les conclusions auxquelles sont parvenus les experts, réunis pendant plusieurs jours à Lyon pour analyser des études portant sur des milliers d’hommes et de femmes suivies pendant plusieurs décennies, a précisé le docteur Dana Loomis, lors d’une conférence de presse à Genève.

Pour l’instant, les données n’ont pas permis d’établir si un groupe particulier de la société (femmes ou hommes, jeunes ou âgés) était plus vulnérables. Mais « les personnes les plus exposées (à l’air polluée, ndlr) sont les plus vulnérables », a relevé pour sa part le docteur Kurt Straif du IARC.

« L’air que nous respirons a été contaminé par un mélange de substances qui provoque le cancer », a-t-il ajouté.

Les données les plus récentes dont disposent l’IARC montre qu’en 2010, 223.000 personnes étaient décédées d’un cancer du poumon en lien avec la 
pollution de l’air.

L’IARC publiera ses conclusions de façon plus détaillée la semaine prochaine dans la célèbre revue médicale britannique The Lancet.

Source : AFP

Et si les ondes des portables n’étaient pas dangereuses ?

Les antennes relais, smartphones, tablettes, téléphones sans fils sont sans risque. Voilà qui ne va pas faire plaisir aux électro-sensibles, c’est pourtant ce qu’indique l’analyse des études existantes sur ce sujet. Pour en arriver à cette conclusion, l’Agence nationale de sécurité sanitaire alimentation, environnement, travail a mis à jour son expertise concernant les effets des ondes sur le corps. Ils ont synthétisés tous les travaux ayant étudié l’influence des ondes. Cette synthèse les a conduit à conclure que les données sont insuffisantes pour établir un lien entre les téléphones portables, tablettes et autres émetteurs et des effets sanitaires. Autrement dit, aucun danger ! Des conclusions qui confirment celles du premier rapport établi en 2009. 

Les études analysées portaient sur de multiples effets possibles. Que la population soit donc rassurée, aucun effet n’a été mis en évidence concernant la fertilité masculine, le système immunitaire, le système endocrinien et même le  bien-être. Idem du côté des fonctions cognitives et auditives, du sommeil, ou encore des maladies neurologiques.

Seule influence notable, les ondes électromagnétiques peuvent provoquer à court terme des modifications des cycles nocturnes. Des changements sans conséquences puisqu’aucune dégradation de la qualité du sommeil n’a été observée.

Plus étonnant, une exposition chronique aux radiofréquences pourrait rendre plus intelligent. C’est en tout cas ce qui a été noté pour des souris âgées.  Mais attention, il a aussi été observé qu’une exposition intensive pourrait augmenter le risque de développer  un gliome, une tumeur du système nerveux.  L’exposition est dite « intensive »   pour des utilisateurs ayant cumulé plus de 1640 heures d’exposition. Cela correspond par exemple à téléphoner deux heures par jour pendant plus de deux ans.

L’Anses, malgré un avis plutôt rassurant, souligne toutefois l’absence d’étude prenant en compte les nouveaux usages de terminaux portables. Par exemple, aucune étude ne s’intéresse à l’effet des radiofréquences sur les mains des adeptes de tablettes.

Par Audrey Loubens, journaliste scientifique

Curiosity identifie la nature de l’hydratation du sol martien

Ces premières analyses effectuées par des chercheurs de l’IRAP (OMP – Université Toulouse III – Paul Sabatier / CNRS) en collaboration avec les équipes franco-américaines de ChemCam ont révélé une grande diversité chimique du sol martien, mais surtout le fait que les grains les plus riches en fer et magnésium sont hydratés. Pour les auteurs, cette hydratation pourrait constituer une partie importante du réservoir d’eau présente à la surface de Mars et observée lors des missions orbitales précédentes. L’origine de ce réservoir est l’une des clés de la compréhension de l’évolution du climat martien. Ces travaux sont publiés dans la revue Science du 27 septembre 2013, dans une série de cinq articles dédiés aux premiers résultats de Curiosity.

La composition chimique, la minéralogie et les propriétés physiques du sol martien sont des indicateurs des processus d’érosion, d’altération et de transport qui ont modifié la surface de la planète au cours des temps géologiques. L’analyse du sol martien permet donc d’étudier l’évolution de l’environnement et du climat de la planète, lui-même étroitement lié à l’évolution du cycle de l’eau dont dépendent les conditions d’habitabilité de la planète. De plus, le bombardement météoritique et l’érosion éolienne ayant également contribué à homogénéiser la composition de la surface, l’analyse des sols permet peut-être d’accéder à la composition moyenne de la croûte de la planète.

Images du sol martien avant et après les tirs lasers de ChemCam.
1 : image Mastcam ©NASA/JPL-Caltech
2 : images RMI ChemCam ©NASA/JPL-Caltech/LANL/CNES/IRAP/IAS

Le rover Curiosity, qui arpente le fond du cratère Gale depuis le 6 août 2012, possède à son bord des instruments inédits pour caractériser le sol martien, dont l’instrument ChemCam. Ce spectromètre de plasma induit par laser (Laser Induced Breakdown Spectrometer) couplé à une caméra (Remote Microscopic Imager) permet d’effectuer des analyses d’échelle submillimétrique de la composition chimique du sol martien, et ainsi de révéler de possibles mélanges entre pôles chimiques différents et de déterminer sa genèse.

Au cours des 100 premiers jours de la mission, ChemCam a analysé à distance environ 140 échantillons de sol, le long d’une traverse de près de 400 mètres. Ces analyses révèlent une grande diversité chimique associée à des tailles de grains différentes. Les graviers les plus grossiers (quelques millimètres) sont riches en silicium, aluminium et en alcalins (composition felsiques). Cette première catégorie, à proximité du site d’atterrissage, semble résulter de l’érosion mécanique de conglomérats d’origine fluviatile, vraisemblablement charriés depuis les bords du cratère Gale par la rivière Peace River. Ce type de composition n’avait pas encore été rencontré par les missions précédentes.

Le deuxième pôle chimique analysé, plus riche en fer et magnésium (composition mafique), est quant à lui associé aux grains de sable les plus fins, que l’on retrouve incorporés dans tous les sols analysés, et particulièrement dans les formations éoliennes. Les instruments ChemCam et APXS (Alpha Particle X-ray Spectrometer) ont montré que sa composition chimique était proche de celle des sols analysés dans d’autres régions par les rovers Sojourner, Spirit et Opportunity, et proche de la composition de la poussière atmosphérique. Néanmoins, cette composition diffère de celle des roches alentours. Ces résultats suggèrent soit des processus de mélange à l’échelle globale ayant homogénéisé les grains les plus petits du sol martien, soit la prépondérance de régions de composition basaltique similaire.

Par ailleurs, les analyses effectuées par ChemCam ont révélé que cette fraction fine des sols et la poussière atmosphérique étaient hydratées. Curiosity s’est immobilisé plusieurs semaines pour analyser plus finement une petite dune de sable appelée Rocknest sand shadow. Cette étape a été l’occasion d’utiliser les capacités d’analyse des deux instruments CheMin (diffraction X) et SAM (Sample Analysis on Mars, mesure des composés volatiles organiques et inorganiques). Leurs analyses combinées indiquent que l’hydratation du sol fin est associée à une phase amorphe, et non pas à des phases cristallines hydratées. La similarité chimique entre ces échantillons et ceux analysés en d’autres endroits de la planète permet probablement d’extrapoler les résultats obtenus par Curiosity à une échelle plus globale. Ainsi, les variations de la teneur en hydrogène de la surface de Mars, mesurée depuis l’orbite pas la sonde Mars Odyssey, pourraient s’expliquer par des proportions différentes de ce type de sol et de cette phase  hydratée.

Enfin, les analyses réalisées par ChemCam suggèrent que les échanges diurnes de vapeur d’eau avec l’atmosphère sont limités.

Les mesures effectuées par ChemCam, couplées aux analyses des autres instruments de Curiosity, permettent donc de mieux comprendre la diversité chimique du sol martien, son hydratation, et sa relation avec le contexte géologique du cratère Gale et de Mars dans sa globalité.

Liste des laboratoires français partis prenants dans le projet Mars Curiosity :

  • Institut de Recherche en Astrophysique et Planétologie (CNRS/Université Toulouse III – Paul Sabatier)
  • Laboratoire atmosphères, milieux, observations spatiales (CNRS/Université Versailles Saint-Quentin-en-Yvelines/Université Pierre et Marie Curie, IPSL)
  • Laboratoire Interuniversitaire des Systèmes Atmosphériques (CNRS/Université Paris-Est Créteil/Université Paris Diderot, IPSL)
  • GéoRessources (CNRS/Université de Lorraine, Nancy)
  • Géosciences Environnement Toulouse (CNRS/Université Toulouse III – Paul Sabatier, CNES, Institut de Recherche pour le Développement)
  • Institut d’Astrophysique Spatiale (CNRS/Université Paris Sud, Orsay)
  • Institut de Physique du Globe de Paris (CNRS/Universités de Paris-Diderot, Paris)
  • Institut des Sciences de la Terre (CNRS/Universités de Savoie/Université Joseph Fourier, Institut de Recherche pour le Développement, Institut Français des Sciences et Technologies des Transports, de l’Aménagement et des Réseaux, Grenoble)
  • Laboratoire de Géologie de Lyon, Terre, Planètes, Environnement (CNRS/Université Claude Bernard, ENS Lyon)
  • Laboratoire de Planétologie et de Géodynamique de Nantes (CNRS/Université de Nantes, Nantes)
  • Laboratoire de Minéralogie et Cosmochimie du Muséum (CNRS, Muséum National d’Histoire Naturelle)

Référence

Soil Diversity and Hydration as Observed by ChemCam at Gale Crater, Mars

P.-Y. Meslin, O. Gasnault, O. Forni, S. Schröder, A. Cousin, G. Berger, S. M. Clegg, J. Lasue, S. Maurice, V. Sautter, S. Le Mouélic, R. C. Wiens, C. Fabre, W. Goetz, D. Bish, N. Mangold, B. Ehlmann, N. Lanza, A.-M. Harri, R. Anderson, E. Rampe, T. H. McConnochie, P. Pinet, D. Blaney, R. Léveillé, D. Archer, B. Barraclough, S. Bender, D. Blake, J. G. Blank, N. Bridges, B. C. Clark, L. DeFlores, D. Delapp, G. Dromart, M. D. Dyar, M. Fisk, B. Gondet, J. Grotzinger, K. Herkenhoff, J. Johnson, J.-L. Lacour, Y. Langevin, L. Leshin, E. Lewin, M. B. Madsen, N. Melikechi, A. Mezzacappa, M. A. Mischna, J. E. Moores, H. Newsom, A. Ollila, R. Perez, N. Renno, J.-B. Sirven, R. Tokar, M. de la Torre, L. d’Uston, D. Vaniman, A. Yingst, MSL Science Team.

Science, Vol. 341, dx.doi.org/10.1126/science.1238670

Des scientifiques de l’Académie des sciences chinoise annoncent un refroidissement du climat

« La température dans l’hémisphère nord sur la période 2012-2027 va selon notre prédiction baisser doucement au cours des prochaines décennies, ceci grâce à l’affaiblissement de l’oscillation nord-atlantique qui efface le réchauffement anthropique » annonce le Dr Jianping Li de l’Académie des sciences chinoise dans un papier qui vient d’être publié dans la revue Geophysical Research Letters, et dont les Dr Cheng Sun et Fei-Fei Jin sont également co-auteurs.

Voici donc que les scientifiques chinois s’en mêlent. L’étude des climatologues américaines Marcia Wyatt et Judith Curry sur la théorie de l’onde de stade (« Wave Stadium Hypothesis »), papier publié dans la revue Climate Dynamics, avait déjà sonné comme un coup de tonnerre dans la sphère climato-exagératrice euro-américaine lors de sa parution le 10 octobre 2013.

Reprenant notamment les riches travaux de l’école climatique russe sur les cycles climatiques à l’échelle multidécennale (travaux d’Ogurtsov, Klyashtorin et Lyubushin en particulier), ce papier peer reviewed, c’est-à-dire relu par des experts avant d’être validé, annonce que la pause du réchauffement va probablement durer jusqu’à la décennie 2030 et que la banquise Arctique va connaître une croissance de sa surface durant les décennies à venir.

Pas seulement une pause, mais un léger refroidissement

Mais l’équipe scientifique chinoise estime non seulement que la pause va durer mais qu’en plus la température pourrait légèrement baisser, au moins dans l’hémisphère nord, c’est-à-dire où vit la grande majorité de la population mondiale.

L’auteur principal de l’étude n’est pas un hurluberlu. Le Docteur Jianping Li est Directeur du State Key Laboratory de Modélisation Numérique pour les Sciences atmosphériques et les Dymaniques Géophysiques des Fluides à  l’Institut des Sciences Atmosphérique de l’Académie des Sciences Chinoise à Pékin. Il a publié 140 papiers dans des revues scientifiques, dirige deux importants programmes nationaux chinois de recherche sur le climat, est membre plusieurs commissions internationale sur le climat, notamment sur la Mousson, et est lead author au sein du GIEC (WGII).

« La température moyenne de surface de l’hémisphère nord durant le 20ème siècle  est caractérisée par une alternance de phases de réchauffement et de refroidissement, suivie par une période plate depuis environ l’an 2000 (le récent hiatus du réchauffement » constatent objectivement et sans tabou les scientifiques. « Nous démontrons dans notre étude que l’oscillation Atlantique nord (NAO) est impliquée et peut servir d’indicateur très utile pour la variabilité multidécennale de la température de l’hémisphère nord. »

L’oscillation nord Atlantique repose sur un changement de la pression atmosphérique près de la surface océanique, elle-même liée à un changement de régime des vents. La NAO se mesure généralement comme la différence de pression atmosphérique entre l’Anticyclone des Açores et la dépression d’Islande. Les climatologues italiens Adriano Mazzarella, Nicola Scafetta ont montré que la NAO montre une période d’oscillation d’environ 60 ans depuis au moins 1700. Ces changements de régime de la NAO ont par exemple des conséquences sur les pluies au niveau du Sahel.

Un modèle basé sur les observations

 « Une analyse basée sur les observations montre que la NAO devance tout autant la température (température « detrended », c’est-à-dire quand on a supprimé la tendance de fond linéaire au réchauffement ndlr) de l’hémisphère nord que l’Oscillation Multidécennale de l’Atlantique (AMO) de 15 à 20 ans. Une analyse théorique illumine le fait que la NAO précède la variabilité multidécennale de la température nord-hémisphérique à travers son effet sur l’AMO après un certain délai, ceci étant du à une large inertie thermique des processus océaniques. »

Ces considérations permettent aux scientifiques d’établir des prédictions reposant sur une base très sérieuse concernant l’évolution de la température de l’hémisphère nord dans les décennies à venir. « Un modèle linéaire basé sur la NAO est ainsi établit pour prévoir la température nord-hémisphérique, et ce modèle donne une excellente prédiction pour la période de1971-2011, avec la récente période plate (pause) également bien prédite. »

Ceci permet aux chercheurs de prévoir que la température de l’hémisphère nord va baisser de quelques dixièmes de degrés dans les décennies à venir.

D’après le Bulletin (page 6) du Ministère fédéral allemand de l’éducation et de la recherche, l’Institut Max Planck de Météorologie à Hambourg prévoit un refroidissement imminent de l’Atlantique nord.

Le soleil n’a pas dit son dernier mot

Etant donné que l’activité solaire baisse, comme confirmé par la NASA le cycle 24 actuel est très peu intense, il est possible que la température dans les décennies à venir soit encore un peu plus fraîche qu’estimée par cette équipe chinoise. Selon les scientifiques russes de l’observatoire Pulkovo, après une phase de croissance de l’activité solaire depuis environ la révolution française (sortie du « petit âge glaciaire »), nous sommes en train d’entrer dans une phase froide du cycle solaire de 200 ans, et le plus froid va probablement commencer vers 2030-2040. « Mais cette période froide ne sera pas aussi intense que dans la fin du 17e siècle » a néanmoins pondéré le chercheur Yuri Nagovitsyn.

Le forçage anthropique n’a pas disparu pour autant

Bien entendu, le forçage anthropique reste présent, mais il est sans doute moins puissant qu’estimé auparavant étant donné que la variabilité interne multidécennale est capable de l’effacer. Le réchauffement relativement important qui a eu lieu entre les années 80 et 90 s’explique ainsi en bonne partie par cette variabilité naturelle, et en partie par les gaz à effet de serre et le carbone-suie.

Selon plusieurs études récentes, un doublement de la concentration en CO2 atmosphérique (par exemple passer des 0.04% actuels à 0.08%) pourrait conduire à un réchauffement moyen global en surface de l’ordre  d’1,5 °C, et non de 3°C. Et cela change tout.

Dans le résumé à l’attention des décideurs (SPM) du rapport du GIEC AR5-2013, les auteurs ne sont pas parvenus à se mettre d’accord sur la meilleure estimation (« best estimate ») de sensibilité climatique. « Aucune valeur de l’estimation de la sensibilité climatique d’équilibre ne peut être donnée maintenant à cause d’une absence d’accord sur les valeurs provenant des différentes études » peut-on lire dans ce résumé page 11, en note de bas de page.

Plus que jamais les débats d’une part sur le réchauffement climatique, c’est-à-dire par définition de l’atmosphère, et d’autre part sur le réchauffement océanique, sont libres et ouverts.

Par Olivier Daniélo

A LIRE AUSSI : Etude américaine : la longue pause du réchauffement qui dure depuis 17 ans pourrait se prolonger jusqu’à 2030-2040

Climat – La pause pourrait se prolonger jusqu’aux années 2030

Le boom spectaculaire de la surface de la banquise Arctique d’été en 2013 pourrait être le signe avant-coureur d’une inversion de tendance. La surface de la banquise Arctique va probablement augmenter dans les deux décennies à venir. Et la longue pause du réchauffement qui dure depuis plus d’une décennie et demie à l’échelle globale pourrait se prolonger jusqu’à 2030-2040.  Ce sont les conclusions d’une étude scientifique qui vient d’être publiée dans la revue Climate Dynamics (online) par les climatologues Marcia Wyatt et Judith Curry. Un papier peer-reviewed incontournable dans le débat climatique actuel et qui suscite dès à présent des agitations dans la sphère climato-exagératrice.

Cette étude « changera la façon dont vous concevez  la variabilité climatique naturelle » a estimé Judith Curry, Chaire de la School of Earth and Atmospheric Sciences au Georgia Institute of Technology (GIT), l’équivalent géorgien du MIT.  

Roger Pielke (Sr), climatologue dont les travaux sont hautement cités selon l’indice ISI (Institute for Scientific Information),  a déclaré que Dr Marcia Wyatt a fait preuve d’une « pensée innovante dans le cadre de son doctorat, et elle est parvenue ensuite à la faire mûrir jusqu’à un niveau de recherche de très haut niveau, de classe mondiale. ». Marcia Wyatt est une chercheuse indépendante.

L’un des 5 éditeurs en chef de la revue Climate Dynamics, Jean-Claude Duplessy, Membre de l’Académie des sciences et spécialiste du fonctionnement des océans, travaille dans le même laboratoire (LSCE) que la paléoclimatologue Valérie Masson-Delmotte, laboratoire dirigé par Jean Jouzel, Vice-Président du GIEC.

Quand les oscillations des océans Atlantique et Pacifique ont rendez-vous avec la banquise Arctique

Le GIEC, panel intergouvernemental des experts au service de la politique climatique de l’ONU, vient de publier son 5ème rapport (AR5). L’une des questions les plus controversées au sujet de l’AR5 est l’échec des modèles climatiques à prévoir la pause des températures globales de surface depuis 1998. Plusieurs hypothèses ont été proposées pour expliquer cette pause, y compris ce que le GIEC considère comme être une « variabilité climatique imprévisible », et qui est associée avec des régimes de circulation à grande échelle dans l’atmosphère et l’océan. Le plus connu de ces régimes est El Niño/La Niña, qui fait partie d’une oscillation du système océan-atmosphère à très court-terme. Mais à une échelle de temps multidécennale, il y a un réseau de régimes de circulation atmosphériques et océaniques, incluant l’Atlantic Multidecadal Oscillation (AMO) et la Pacific Decadal Oscillation (PDO).

Le nouveau papier publié dans le journal Climate Dynamics (online), suggère que « la variabilité climatique imprévisible »  se comporte en réalité d’une manière plus prévisible que supposé auparavant. Les auteurs de l’étude, Marcia Wyatt et Judith Curry ont développé une théorie qu’elles ont baptisée l’hypothèse de l’onde de stade (The stadium wave hypothesis), en référence aux spectateurs qui se lèvent et applaudissent dans les gradins des stades sportifs, imitant une vague marine oscillatoire, la Ola ou  mexican wave née au Mexique lors du mondial de football de 1986.

Le signal de l’onde de stade climatique se propage à travers l’hémisphère nord par l’intermédiaire d’un réseau océan-banquise-atmosphère interconnecté qui s’auto-organise dans un tempo collectif.

L’hypothèse de l’onde de stade fournit une explication plausible concernant la pause du réchauffement et aide à expliquer pourquoi les modèles informatiques actuels ne sont pas parvenus à prévoir la pause du réchauffement. En outre, la nouvelle hypothèse suggère combien de  temps va durer cette pause.

L’oscillation multidécennale de l’Atlantique, un véritable chef d’orchestre du climat global

Wyatt et Curry ont identifié deux ingrédients clés pour la propagation et le maintien du signal de l’onde de stade : l’oscillation multidécennale de l’Atlantique (AMO) et la surface de la banquise dans les mers eurasiatiques de l’Arctique. Telle la grosse caisse d’une samba brésilienne, l’AMO (liée à la circulation thermohaline, le tapis roulant dont fait partie le fameux Gulf Stream) donne le tempo, et la banquise sert de trait d’union, de pont de communication entre l’océan et l’atmosphère. La nature oscillatoire du signal peut être pensée en termes de freinage/accélération, les rétroactions positives et négatives interagissent pour supporter l’inversion des régimes. Il en résulte que les régimes climatiques, des intervalles multi-décennaux de réchauffement et de refroidissement, évoluent d’une manière ordonnée tant sur le plan spatial que temporel.

Bien que non parfaitement périodiques, les répétitions sont très régulières, il y a bien une oscillation quasi-périodique. Dans le cadre de sa thèse de doctorat, Wyatt a démontré que l’onde de stade existe depuis au moins 300 ans.

La nouvelle étude analyse des indices dérivés de l’atmosphère, de l’océan et de la banquise depuis 1900. La tendance linéaire a été enlevée afin de mettre le focus sur la composante multidécennale de la variabilité naturelle. Une technique statistique multivariée appelée Multi-channel Singular Spectrum Analysis (MSSA) a été utilisée pour identifier les profils de variabilité partagés par tous les indices et qui caractérisent l’onde de stade.  La suppression de la tendance linéaire à long-terme élimine de manière efficace les forçages climatiques tels que les gaz à effet de serre anthropiques.

Une hypothèse qui conduit à relativiser les prophéties du GIEC pour les deux décennies à venir

L’onde de stade renforce ou abaisse de manière périodique la tendance à long-terme de la hausse des températures, ce qui pourrait expliquer la pause récente du réchauffement global de surface. « Le signal d’onde de stade prédit que la pause actuelle du réchauffement global pourrait durer jusqu’à la décennie 2030  »  a déclaré Marcia Wyatt.  Judith Curry ajoute « cette prédiction est en contraste avec le récent rapport du GIEC qui projette une reprise imminente du réchauffement, et prévoit une hausse de la température globale de surface comprise probablement entre 0.3 et 0.7°C de 2016 à 2035. »

Des travaux antérieurs réalisés par Wyatt montrent que les modèles climatiques actuels échouent à capturer le signal de l’onde de stade.  Le fait que ce signal ne soit pas vu dans les simulations des modèles peut expliquer en partie l’incapacité des modèles à prévoir la stagnation actuelle de la température global de surface.

 « Les modèles actuels sont trop déterministes, focalisant sur les impacts des forçages externes plutôt que simulant la variabilité naturelle interne associée aux interactions non-linéaires du système couplé océan-atmosphère » a déclaré Judith Curry.

 La banquise Arctique pourrait voir sa surface augmenter durant les deux décennies à venir  

L’étude fournit aussi une explication à une tendance climatique a première vue incongrue, à savoir combien de temps la banquise Arctique continuera à décliner durant cette période de températures globales au point mort, et quand pourrait se produire une inversion de tendance.

Après le pic des températures à la fin de la décennie 90, la température de surface hémisphérique a commencé à décliner, mais  les hautes latitudes de l’océan Atlantique nord ont continué à se réchauffer et la surface de la banquise  a continué à décliner. D’après l’hypothèse de l’onde de stade, cette tendance marque une période de transition à l’issue de laquelle les futures décennies verront l’océan nord-Atlantique commencer à se refroidir et la banquise de la région eurasiatique de l’Arctique commencera a rebondir.

La plupart des interprétations concernant le déclin de la surface de la banquise Arctique ont focalisé sur le forçage des gaz à effet de serre, avec un peu d’indulgence vis à vis de la variabilité naturelle. Le déclin de la banquise durant la dernière décennie est cohérent avec le signal de l’onde de stade, et la poursuite de la propagation de cette onde permet de prévoir une inversion de cette tendance au déclin de la banquise. « L’onde de stade permet de prévoir que la banquise Arctique va se remettre de son minimum actuel, d’abord dans sa partie eurasiatique, puis ensuite dans la région sibérienne » a déclaré Wyatt. « Par conséquent, le minimum de banquise observé en 2012, suivi d’une augmentation de la banquise en 2013, est suggestif et cohérent avec le timing de l’évolution du signal de l’onde de stade ».

L’onde de stade porte la promesse de mettre en perspective de nombreuses observations concernant le comportement du climat, tels que les profils régionaux de la variabilité décennale de la sécheresse et de l’activité des ouragans ont déclaré les chercheuses. Mais une compréhension complète de la variabilité du climat passé et les projections pour le changement climatique futur requiert d’intégrer le signal d’onde de stade avec les forçages externes solaires, volcaniques et anthropiques.

« Comment les forçages externes se projettent dans l’onde de stade, et s’ils ont une influence sur le tempo du signal ou affectent le timing et la magnitude des changements de régimes est inconnu et requiert de futures recherches »  a déclaré Wyatt. « Alors que les résultats de cette étude apparaissent comme avoir des implications concernant le hiatus du réchauffement, le signal d’onde de stade ne supporte pas, mais ne réfute pas non plus le réchauffement global anthropique. L’hypothèse de l’onde stade vise à expliquer la composante multidécennale de la variabilité climatique naturelle ». 

 

Référence :

> M.G. Wyatt, et al., « Role for Eurasian Arctic shelf sea ice in a secularly varying hemispheric climate signal during the 20th century, » Climate Dynamics, 2013.
link.springer.com/article/10.1007/s00382-013-1950-2#page-1 (accès payant)

> Une version brute (sans mise en page) de l’article est disponible ici :
http://judithcurry.com/2013/10/10/the-stadium-wave/
http://curryja.files.wordpress.com/2013/10/stadium-wave.pdf

 

A LIRE AUSSI : Des scientifiques de l’Académie des sciences chinoise annoncent un léger refroidissement pour les décennies à venir

 

 

Prolongation des centrales nucléaires: « aucune décision n’est prise » (Moscovici)

« Aucune décision de cette nature n’est prise, il y aura des débats qui se dérouleront, qui doivent être fondés sur des données techniques », a répondu M. Moscovici, interrogé  sur France Inter.

« François Hollande pendant la campagne électorale avait dit que d’ici à 2025 nous allions réduire la part du nucléaire à 50% (contre 75% de l’électricité produite aujourd’hui). Les débats qui sont dans la presse ces derniers jours, je ne veux pas les confirmer », a ajouté Pierre Moscovici.

Le Journal du Dimanche a annoncé dimanche que la décision de prolonger de 10 ans la durée de vie des centrales nucléaires était prise et que l’annonce devait se faire bientôt.

Selon une source proche de l’administration citée par le JDD, la décision de prolonger à 50 ans, contre 40 ans, la durée de vie des centrales « est actée » et « le gouvernement cherche juste le bon timing politique ».

Dans un communiqué signé des porte-parole nationaux d’Europe Ecologie-les Verts Jean-Philippe Magnen et Élise Lowy et du député Denis Baupin écrit « qu’une telle décision constituerait une provocation politique, un mensonge économique et une aberration énergétique ».

Source : AFP

 

Y a-t-il accélération ou décélération du niveau des océans ?

Le problème vient d’une analyse superficielle et/ou politisée de la situation, et en outre de la confusion, souvent involontaire mais parfois volontaire, entre vitesse (variation de niveau marin par an) et accélération (dérivée de la vitesse).

En effet, s’il y a bien montée du niveau marin, une analyse plus fine montre qu’il y a une décélération de – 0.06 mm par an carré depuis 2 décennies (Dean et Houston 2013), plus précisément entre -0.04 et -0.08 mm/an2 si l’on se base sur les données des marégraphes ou sur celles des satellites.

Une analyse spectrale singulière de Monte-Carlo permet de plus d’identifier sur les 3 derniers siècles une oscillation très nette dont la période est de six décennies (Jevrejeva 2008), oscillation multi-décennale qui a été mise en relation par Scafetta 2013 avec différentes oscillations océaniques.

Il y a une accélération de 0.01 mm par an carré (Jevrejeva 2008) si l’on considère les trois derniers siècles, mais curieusement on ne trouve pas d’accélération globale à l’échelle du dernier siècle. Comme le souligne Nicolas Scafetta: « parmi 6 enregistrement de marégraphes,  (Sydney, Fremantle, New York, Honolulu, San Diego et Venise) deux  présentent une légère accélération (+ 0:01 mm/an2), alors que les quatre autres présentent une légère décélération (-0:01 mm/an2). »  Les XVIIIème et XIXème (accélération) « noient » le XXème siècle (pas d’accélération) quand on considère les 3 siècles conjointement.

Le 4ème rapport du GIEC (2007) le confirmait: « aucune accélération du niveau de la mer  à long terme n’a été identifiée en utilisant uniquement  les données du XXème siècle » (IPCC 2007). Et dans l’AR5 qui vient d’être publié on peut lire page 3-5: « Il est probable (likely dans le jargon du GIEC ndlr) que le niveau moyen marin global  ait augmenté entre 1920 et 1950 à un taux  identique à celui observé entre 1993 et 2010 »  (IPCC 2013). A l’évidence, le signal anthropique n’est, du moins à ce stade, pas perceptible.

Modestie dans les prophéties

Il est donc difficile d’affirmer de manière catégorique qu’il y a accélération de la montée du niveau marin. Et encore plus difficile, et même impossible à ce stade, d’affirmer péremptoirement que c’est lié à l’homme. Les 5 à 10 années qui viennent permettront sans doute d’y voir plus clair.

En attendant une approche prudente concernant les projections pour le futur semble être l’approche la plus sage, a fortiori quand on sait d’une part que le réchauffement climatique marque une pause (non prévue) depuis 15+ ans, et que d’autre part l’on connait l’importance des incertitudes qui pèsent sur l’origine des variations de volume des calottes polaires (Wouters 2013).  « Il n’existe aujourd’hui aucun consensus concernant les accélérations [au niveau des calottes polaires], à savoir si elles résultent d’une variabilité inhérente aux systèmes climatiques associés aux inlandsis, ou si elles  reflètent une tendance à long-terme permettant alors une extrapolation pour le futur. »

C’est précisément cette modestie qui est mise en avant en France par le thermo-physicien François Gervais, médaille d’or du CNRS, comme par exemple durant l’émission de France Culture du 27 septembre animée par Michel Alberganti et intitulée « Rapport du GIEC: Comment expliquer la stagnation actuelle du réchauffement climatique ? », ou durant l’émission C Dans l’air d’Yves Calvi, émission du 1er octobre intitulée « Le climat, le monde s’en fout !  »

Une étude (Thomas 2013) qui vient d’être publiée dans Geophysical Research Letters montre d’ailleurs que la variation de température au niveau de l’Antarctique Ouest n’excède pas la gamme de variabilité naturelle observée depuis 3 siècles. Et la grande étude internationale NEEM (North Greenland Eemian Ice Drilling) a permis de mettre en évidence la remarquable résistance de la calotte du Groenland durant une période chaude de l’histoire de la Terre, l’Eémien (la température était alors de plusieurs degrés Celcius supérieure à l’actuelle dans cette région du monde), résistance qui a surpris les scientifiques.

Selon les scientifiques du programme Ice2sea (2013), le niveau marin pourrait monter entre 16,5 et 69 centimètres d’ici 2100, soit moins qu’estimé auparavant. L’hypothèse haute repose sur une fonte rapide des calottes polaires, ce qui ne fait pas consensus au sein de la communauté scientifique.

S’il y a décélération du niveau marin, il est peu probable qu’il y ait accélération du contenu énergétique de l’océan

La thématique de la pause (ou hiatus pour faire snob) est, « émergente, intéressante et complexe  » selon Thomas Stocker qui a piloté la synthèse à ce sujet pour le rapport du GIEC.

Si la décélération du niveau marin de -0.06 mm/an2 observée depuis 20 ans se poursuit, voire s’amplifie dans les années à venir, cela enrichira le débat sur les variations de volumes des calottes polaires ainsi que le débat sur l’énergie contenue dans les océans, la fameuse  « chaleur manquante  » que Kevin Trenberth croit avoir retrouvée entre 700 et 2000 mètres sous les mers, ce qui est fortement controversé à ce stade car, il est vrai, très peu convaincant.

Comme le souligne Michel Alberganti dans un article intitulé « L’échec du climato-catastrophisme » et publié sur Slate.fr  quelques jours après le débat sus-mentionné, « au lieu de hurler à une catastrophe qui ne fait pas réagir les foules, au lieu de miser sur la peur pour rêver d’un changement de civilisation improbable, au lieu de l’incantation scientifique, n’est-il pas possible d’analyser ce qui est en train de se produire sur Terre avec moins de passion et plus d’efficacité? Une lueur d’espoir ne peut-elle s’allumer à l’ombre du spectre de la punition divine? »

N’en déplaise aux Tartuffes et autres dévots époumonés de la climato-apocalypse, les débats, d’une part sur le réchauffement du climat, c’est-à-dire par définition de l’atmosphère terrestre, et d’autre part sur le réchauffement de l’océan, sont plus que jamais libres et ouverts.

Par Olivier Daniélo

Et aussi dans les
ressources documentaires :

Gaz de schiste : la décision du Conseil ne met pas fin au contentieux

Interrogé après l’annonce de la décision du Conseil, l’avocat a indiqué qu’elle devait être respectée, tout en soulignant qu’elle ne mettait pas fin à la procédure engagée par Schuepbach.

« Nous sommes dans un état de droit et nous allons continuer notre action en justice. Nous avons un litige pendant devant le tribunal administratif (de Cergy, NDLR) contre l’abrogation de deux permis et il va continuer, cette question prioritaire de constitutionnalité n’était qu’un élément de notre argumentation », a-t-il expliqué.

Concernant la décision en elle-même, « sur la fracturation hydraulique, le Conseil constitutionnel dit que ce n’est pas la même chose lorsqu’elle est utilisée en géothermie que pour extraire du gaz de schiste, c’est une appréciation technique avec laquelle nous ne sommes pas d’accord », a-t-il souligné.

« Et concernant le principe de précaution, le Conseil constitutionnel dit de manière assez lapidaire que ce n’est pas pertinent, il va falloir que j’analyse en détail ce que cela veut dire », a-t-il ajouté.

Le Conseil constitutionnel a validé vendredi la loi de juillet 2011 interdisant la fracturation hydraulique, technique utilisée pour exploiter les gaz et pétroles de schiste.

La fracturation hydraulique, qui consiste à créer des fissures dans les roches riches en hydrocarbures en injectant à haute pression un mélange d’eau, de sable et d’adjuvants chimiques, est décriée en raison de son impact environnemental et ses risques de pollution et d’activité sismique.

La société texane Schuepbach, à l’origine de la question prioritaire de constitutionnalité (QPC) soumise au Conseil constitutionnel, contestait la légalité de l’abrogation de ses deux permis de recherche d’hydrocarbures de Nant (Aveyron) et de Villeneuve-de-Berg (Ardèche), consécutive à l’adoption de cette loi.

L’avocat de la compagnie a par ailleurs refusé de commenter des informations récentes selon lesquelles Schuepbach compterait réclamer plus d’un milliard d’euros d’indemnisation à l’Etat français, dans le cadre de cette procédure.

Source : AFP

REACH : l’actualité d’octobre (1/2)

Redevance pour pollution diffuses : une nouvelle liste de substances

27/09/2013

La mise à jour annuelle de la la liste des substances soumises à la redevance pour pollutions diffuses (arrêté du 19 août 2013 établissant la liste des substances définies à l’article R. 213-48-13 du code de l’environnement relatif à la redevance pour pollutions diffuses), a été publiée au Journal Officiel le 27 septembre. La redevance pour pollution diffuse est un prélèvement sur les ventes de produits phytosanitaires dont les redevables sont les distributeurs agréés.

Substances dans les articles

01/10/2013

Le nouveau guide à destination des fournisseurs d’articles est désormais disponible en Français. Ce guide propose notamment plusieurs exemples permettant aux fournisseurs de s’acquitter de leurs obligations et se concentre également sur le calcul du seuil des 0,1% (position adoptée par la France et 6 autres Etats Membres). Ce guide a été élaboré conjointement par la France, l’Allemagne, la Belgique, le Danemark, la Suède et la Norvège.

Nouvelle consultation pour éviter les tests sur les animaux

04/10/2013

L’ECHA a lancé un appel visant à collecter des informations sur des substances pour éviter les tests inutiles sur les animaux. Trois consultations sont lancées. Les informations relatives à ces substances sont à soumettre pour le 18 novembre prochain.

Entrées harmonisées dans C & L Inventaire traduits maintenant

L’inventaire des Classifications & Etiquetage (C & L – Classification & Labelling) affiche désormais des noms traduits pour les entrées harmonisées dans l’annexe VI du règlement CLP. Quand un utilisateur clique sur le nom dans la colonne international d’identification des produits chimiques sur la page 2 de l’inventaire C & L, les traductions apparaissent dans une fenêtre pop-up.

De nouvelles restrictions de substances en consultation

04/10/2013

L’ECHA a lancé des consultations sur deux projets de restriction dans le cadre du règlement Reach. Les consultations sont ouvertes jusqu’au 18 mars 2014 mais l’ECHA souhaiterait recevoir le maximum d’observations avant le 29 novembre 2013, afin qu’elles soient prises en compte lors des premières discussions par les comités de l’Agence en décembre. Les substances concernées sont : 1-methyl-2-pyrrolidone (NMP), Nonylphenol, ramifié et linéaire et Nonylphenol, ramifié et linéaire, éthoxylé. 

Consultation publique pour une classification et étiquetage harmonisés

09/10/2013

L’ECHA a lancé une nouvelle consultation pour l’harmonisation et l’étiquetage harmonisé du Fluopyram / N-{2-[3-chloro-5-(trifluoromethyl)pyridin-2-yl]ethyl}-2-(trifluoromethyl)benzamide (N° CAS : 658066-35-4). Le fluopyram est un presticide. Les parties intéressées sont invitées à soumettre leur commentaire sur le site de l’ECHA, et ce avant le 25 novembre 2013.

Par Céline GABORIAUD NECTOUX, Ingénieur Environnement aux Ateliers d’Orval

Et aussi dans les
ressources documentaires :

Kem One : un quatrième projet de reprise déposé par un industriel français

Ancien de Rhône-Poulenc, M. de Krassny contrôle et dirige depuis 1997 le groupe chimique autrichien « Donau Chemie ». Il a déposé son offre pour Kem One à titre personnel, selon le quotidien Le Progrès.

« Cette offre porte sur l’ensemble du périmètre de Kem One, comme les autres offres et le calendrier reste inchangé », a précisé la direction de Kem One. Le tribunal de commerce de Lyon doit désigner un repreneur le 12 décembre. 

Outre celle de M. de Krassny, qui intervient après la date-butoir qui avait été fixée pour se porter candidat à la reprise, trois autres offres ont été déposées: deux émanant des fonds américains Sun European Partners et OpenGate Capital, la troisième du syndicat CGT. Selon Franck Zarbo, coordinateur du groupe Kem One pour le syndicat Force Ouvrière, une réunion se tiendra lundi au siège de Kem One avec l’administrateur judiciaire et une rencontre est prévue mercredi avec Alain de Krassny, au siège également.

Son projet, qui a été présenté à Paris au ministère du Redressement productif, s’appuie sur un investissement de 150 millions d’euros, dont il demande à l’Etat de garantir les emprunts pendant cinq ans, selon Le Progrès.

Kem One est né en 2012 de la vente par Arkema, pour un euro, de son pôle vinylique au financier américain Gary Klesch. Le groupe emploie 2.600 personnes dans le monde, dont 1.780 en France, et a réalisé un chiffre d’affaires de 1,1 milliard d’euros en 2012.

Seules ses activités amont (chlorochimie et production de PVC) ont été placées en redressement judiciaire le 27 mars. Mais Gary Klesch s’est engagé à céder l’aval (fabrication de tubes, de composés et de profilés en PVC, la partie la plus rentable) pour un euro en cas d’offre de reprise globale.

Source : AFP

Allemagne: les énergéticiens veulent fermer une trentaine de centrales

« A l’heure actuelle l’Agence des réseaux a reçu des demandes de fermeture pour 28 centrales » fonctionnant au charbon ou au gaz, déclaré au quotidien Rheinische Post Jochen Homann, président de cette autorité chargée des réseaux électriques allemands, et qui doit décider en dernière instance de l’arrêt des capacités de production.

M. Homann a laissé entendre que l’Agence n’accèderait toutefois pas à toutes les demandes, pour des raisons de sécurité de l’approvisionnement. « La plupart des centrales qui posent problème se situent au sud du Main », a dit M. Homann, « mais nous en avons besoin pour un approvisionnement sûr ». 

Le fleuve Main traverse l’Allemagne d’Est en Ouest au niveau de la ville de Francfort. Au Sud, la Bavière et le Bade-Wurtemberg sont parmi les régions les plus peuplées et les plus industrialisées, et gourmandes en énergie, et le régulateur est réticent à les priver du filet de sécurité que sont les centrales conventionnelles, pour les jours où le vent ne souffle pas et où le soleil ne brille pas.

Les autres jours, la production de source renouvelable, essentiellement éolien et solaire, couvre maintenant le gros des besoins de l’Allemagne. Les énergies renouvelables sont fortement subventionnées et sont prioritaires pour alimenter le réseau, ce qui fait que bon nombre de centrales au gaz et au charbon, utilisées seulement à la marge quand la production d’énergie propre ne suffit pas, opèrent à pertes. 

En août, RWE, numéro deux allemand du secteur, avait annoncé la fermeture de plusieurs centrales, son grand concurrent EON prévoyait de faire de même. 

La révision du système de subvention des renouvelables sera l’un des grands chantiers du nouveau gouvernement allemand, toujours en cours de constitution après les élections du 22 septembre. 

Source : AFP

Et aussi dans les
ressources documentaires :

Les boissons énergisantes pointées du doigt par l’Anses

C’est quoi une boisson énergisante ? Il s’agit d’une boisson censée vous redonner la pêche. Elle se consomme en cas de coup de fatigue, en soirée, dans le but de regagner de l’énergie. Pour provoquer ce regain de  vitalité, les boissons énergisantes regorgent de diverses substances excitantes comme de la caféine, de la maltodextrine ou encore de la créatine. 

Attention cependant, si les boissons de ce type (Red Bull, Burn, Darkdog…) sont très à la mode, elles ne sont en aucun cas des boissons sportives, dites boissons énergétiques. Ces dernières ne contiennent que des sucres lents et rapides, des vitamines et des minéraux, mais en aucun cas des excitants. Si la qualification « énergisante » ressemble à « énergétique », ces boissons n’ont rien en commun avec celles permettant de gagner de l’énergie lors d’un effort sportif. Elles sont même fortement déconseillées car elles déshydratent l’organisme, ce qu’il faut évidemment éviter lors d’une activité physique.  

Elles peuvent aussi contenir de la taurine, qui avait été montrée du doigt lors du débarquement très médiatique de Red Bull en France. Rappelons que Red Bull a été interdite pendant des années à cause notamment de la présence de taurine. Cette substance ayant été jugée toxique par les autorités sanitaires françaises, la marque du taureau l’avait remplacé par de l’arginine. Début 2008, Red Bull avait donc pu lancer en France, à grand renfort de publicité et de jolies filles, sa boisson qui donne des aiiiiles. Finalement, Bercy a considéré que la dangerosité de la taurine n’était pas suffisamment prouvée, autorisant du même coup la déferlante Red Bull sur notre territoire, taurine comprise. C’est ce qui s’appelle le principe de précaution inversé ! Problème, certaines personnes sont mortes suite à la consommation de ces boissons. La question mérite donc d’être posée : les boissons énergisantes seraient-elles mortelles ?

Aujourd’hui, l’Agence nationale de sécurité sanitaire tire la sonnette d’alarme dans un avis ambigü. D’après leur enquête, 96% des boissons étudiées comportent de la caféine et plus de la moitié de la taurine. Ces deux substances co-existent dans 50% des cas et le cocktail caféine/taurine/glucuronolactone se rencontre dans un tiers des boissons. L’Anses s’est penché sur les cas d’accidents de santé pour lesquels un doute plane quand à l’implication des boissons énergisantes. Il s’agit principalement de problèmes cardio-vasculaires, d’effets psycho-comportementaux ou encore de réactions d’ordre neurologique. Sur les 212 cas traités, 25 ont été jugés comme étant vraisemblablement ou très vraisemblablement lié à l’ingestion de ces boissons excitantes, soit 12%.  De plus, 54 cas (25%) sont d’imputabilité possible.

Pourtant, l’Anses met des gants en déclarant que « En l’état actuel des connaissances, les effets indésirables […] pourraient être attribués à la caféine, sans spécificité démontrée de la caféine des BDE par rapport à la caféine contenue dans d’autres boissons comme le thé ou le café. Quelques éléments suggèrent néanmoins des effets additionnels possibles d’autres composés des BDE comme la taurine, qui nécessitent d’être mieux documentés. ». 

Finalement, une fois de plus l’Anses ménage la chèvre et le chou. L’Agence liste les populations à risque habituelles, femmes enceintes et allaitantes, enfants et adolescents. Elle préconise aux personnes sensibles à la caféine de ne pas consommer de boisson énergisante, de ne pas associer ces boissons à de l’alcool, et de ne pas faire du sport en en buvant. Soit. Mais de façon générale, les boissons énergisantes sont-elles dangereuses pour la santé ? L’Anses élude, invoquant le besoin de nouvelles études sur d’éventuels effets à long terme.

Red Bull, la boisson qui vous brûle les aiiiles…  !

Lire l’avis de l’Anses ici

Par Audrey Loubens, journaliste scientifique

Le premier parc éolien « citoyen » de France mis en service en avril 2014

Le chantier de quatre éoliennes à Béganne (Morbihan), qui a débuté cet été, devrait être terminé en avril, a indiqué à l’AFP Charlène Suire, une responsable de Bégawatts, la société qui pilote ce projet né il y a près de 10 ans.

La particularité de ce parc est que la majorité des fonds propres mobilisés pour le financement vient de particuliers.

« Sous cette forme là, où il y a majoritairement des citoyens qui financent, c’est le premier de France », a souligné Mme Suire.

Il existe des parcs éoliens en fonctionnement avec des participations citoyennes minoritaires (à Saint-Gouéno dans les Côtes d’Armor notamment) et d’autres projets similaires sont en cours. Mais celui-ci sera le premier à être terminé, a-t-elle expliqué. 

Réunis dans 53 différents « clubs d’investissement », environ un millier de particuliers (essentiellement de la région) fournissent une enveloppe globale de 1,4 millions d’euros, avec une rémunération de 4% pendant les 10 premières années, selon Mme Suire.

Les « membres fondateurs » du projet, notamment l’association Eoliennes en Pays de Vilaine, mettent eux 400.000 euros au pot commun. S’ajoutent une contribution du spécialiste du financement de projets citoyens dans les énergies renouvelables Energie Partagée (500.000 euros) et de la région Bretagne (300.000 euros).

Enfin, comme la plupart des projets éoliens, le parc de Béganne s’appuie aussi sur une large enveloppe d’emprunts bancaires (environ 9 millions d’euros), notamment auprès du belge Triodos et du Crédit coopératif.

C’est le constructeur allemand RePower, filiale de l’indien Suzlon, qui a été retenu avec une éolienne de 2 mégawatts, a-t-il annoncé mercredi dans un communiqué.

Le financement des énergies renouvelables par les particuliers reste balbutiant en France, à la différence de l’Allemagne ou du Danemark (minimum légal de 20% d’investissement « citoyen » dans l’éolien) notamment.

Outre Béganne, Energie Partagée a lui un autre projet éolien autorisé en Haute-Vienne et sept autres en projet, ainsi que six centrales solaires opérationnelles, selon son site internet.

Source : AFP

Levitt récompensé du Nobel pour le travail de ses 20 ans

« J’ai travaillé avant mon post doc quand j’avais 20 ans pour écrire un programme informatique. Je suppose que j’ai écrit un assez bon logiciel », a affirmé l’Américano-britannique, joint depuis Stockholm en Californie.

Il a estimé que c’était « essentiellement » ce logiciel, conçu il y a des décennies mais toujours utile, qui lui valait la consécration à 66 ans.

Il a dit avoir été surpris quand l’appel est venu de Suède vers 2h30. « Je croyais rêver. Mon téléphone portable ne sonne jamais. D’habitude je ne reçois que des SMS ou des mails. Au départ j’ai cru que c’était une erreur de numéro », a-t-il raconté.

Deux autres lauréats, l’Austro-américain Martin Karplus et l’Israélo-américain Arieh Warshel, ont été récompensés en même temps que lui pour leur rôle de pionniers dans la modélisation informatiques des réactions chimiques.

M. Levitt a affirmé vouloir se rendre à Stockholm pour la cérémonie des Nobel en décembre avec sa famille, y compris sa mère de 98 ans, que la nouvelle a laissée « sans voix », et un petit-fils de deux ans.

Source : AFP

Et aussi dans les
ressources documentaires :

Du Round-UP a été retrouvé dans les urines de personnes n’en ayant jamais utilisé

Monsanto encore au cœur des attaques d’écologistes. Cette fois, c’est le désherbant le plus célèbre, Round-Up, qui est en cause. Plus précisément l’un de ses composants, le glyphosate. L’association Les Amis de la Terre a testé 10 Français volontaires censés n’avoir jamais utilisé de substances susceptibles de contenir du glyphosate. D’après les analyses, trois des échantillons contenaient du glyphosate. Cette enquête, bien qu’à très petite échelle, va dans le même sens que d’autres mesures réalisées dans d’autres pays par les versions étrangères de cette association, où du glyphosate a été découvert dans des urines de personnes n’ayant jamais utilisé de désherbant.

« Nous sommes exposés quotidiennement à ce produit, pourtant, on ne sait pas comment il pénètre dans nos corps et peu de choses sont connues sur sa dissémination dans l’environnement ou sur ces conséquences néfastes pour notre santé. Alors que c’est l’herbicide le plus utilisé en Europe, il est scandaleux que les pouvoirs publics ne contrôlent que rarement s’il y a du glyphosate dans nos aliments et dans l’eau potable. Pourtant, quand on fait ces recherches, comme les Amis de la Terre, il s’avère que la contamination humaine est répandue. » s’emporte Christian Berdot, des Amis de la Terre France.

Le glyphosate étant très utilisé, il n’est pas choquant d’en retrouver des traces. D’autant plus qu’il ne s’agit pas d’une molécule biodégradable. Elle reste présente dans le sol plus d’un mois minimum. La question est : dans quelle quantité ? L’effet toxique du glyphosate sur les animaux et sur l’homme reste discuté. Dans les études contradictoires existantes, les unes prouvent sa toxicité, les autres son innocuité. L’Union Européenne doit s’intéresser au glyphosate en 2015.

Par Audrey Loubens, journaliste scientifique

La France se fait livrer en exclusivité l’avion de transport militaire A400M

Le premier A400M vient d’être livrée à la France. Un évènement pour Airbus mais aussi pour l’armée française, auquel ont participé la crème d’Airbus et un grand nombre de responsables politiques. Notre ministre de la Défense, Jean-Yves Le Drian, assistait  à la cérémonie sur le site d’Airbus Military à Séville (Espagne), où il s’est félicité que la France soit la première à bénéficier de cet avion de transport militaire nouvelle génération. C’est peu dire. L’A400M est un avion polyvalent, capable de transporter des charges lourdes sur de longues distances, mais aussi  de faire du transport tactique grâce à ses 4 turbopropulseurs et d’atterrir sur des terrains non préparés, en milieu hostile comme sur le sable dans le désert.

Un avion tout en muscles avec des mensurations impressionnantes : 17.71 m de long, 4 m de large et 3.85m de haut. L’A400M peut donc transporter 37 tonnes de fret et parcourir près de 4500 km de vol avec 30 t de charge utile. Une performance qui peut monter à plus de 6 000 km si sa charge utile est limitée à 20t ! Autres atouts appréciés, l’A400M peut ravitailler en  vol n’importe quel aéronef,  il est habilité à voler dans l’espace aérien commercial, peut voler en très basse altitude comme monter à 11 000 m au dessus des turbulences, limiter sa vitesse à 200km/h ou accélérer jusqu’à Mach 0.72.

Après la cérémonie espagnole, Jean-Yves Le Drian et Denis Mercier, chef d’Etat Major de l’Armée de l’Air, ont eu la chance d’embarquer à son bord pour un vol de deux heures direction Orléans.

L’aventure de cet avion militaire aurait pu virer à la catastrophe tant le dérapage du budget a été colossal. 6.2 milliards d’euros de dépassement (plus de 30%)  et  3 ans de retard n’auront pourtant pas eu raison de ce bijou technologique. Il aura fallu un soutien et une entente solide des différents Etats clients (Allemagne, Belgique, Espagne, France, Luxembourg, Royaume-Uni et Turquie) pour échapper de peu à l’échec… et se répartir la facture ! D’ailleurs, pour rentabiliser cet avion, il va falloir être performant à l’export. A ce jour, Airbus a enregistré 174 commandes, dont 50 pour la France, et table sur 400 de plus dans les trente ans à venir.

Par Audrey Loubens, journaliste scientifique

Gaz de schistes : l’interdiction de la fracturation hydraulique abrogée ?

La compagnie américaine Shuepbach, à l’origine de la saisine, espère invalider la loi et pouvoir reprendre l’exploration. Si la loi était validée, Shepbach serait tout aussi gagnant, puisque l’Etat n’échapperait pas à l’indemnisation de la société. Schuepbach réclamerait plus d’un milliard d’euros suite à l’abrogation de ses permis de Nant (Aveyron) et de Villeneuve-de-Berg (Ardèche), révèle le quotidien spécialisé Bulletin de l’industrie pétrolière (BIP). La somme inclut notamment le bénéfice attendu d’une production de gaz pendant 50 ans, bien qu’aucun forage n’ait encore été lancé sur les concessions en question.

Schuepbach fait savoir qu’après avoir épuisé les procédures françaises, il se tournera vers une cour européenne s’il n’obtient pas gain de cause. De son côté, le Gouvernement a fait savoir qu’un texte empêchant l’exploitation du gaz et du pétrole de schiste en France, en raison de leur impact environnemental, était déjà prêt à être déposé.

Pendant ce temps, le gaz de schiste déçoit aux Etats-Unis

En 2010, ExxonMobil, Shell, Total et BHP Billiton, ont racheté les quelques groupes qui avaient lancé l’es gaz de schiste aux Etats-Unis. En investissant des sommes considérables pour développer l’exploitation, ces groupes ont fait chuter le prix du gaz de schiste à 3 $ par million de BTU (unité énergétique pour quantifier le gaz). À ce prix,

l’exploitation n’est pas rentable. « Selon la société d’analyse financière AlphaValue, 10 milliards de dollars ont été passés en dépréciation pour les seuls groupes européens sur leurs investissements dans les gaz de schiste. Et les dépréciations ont atteint 2,8 milliards de dollars pour BHP Billiton, 2,1 milliards pour BP et 800 millions pour Total », rapporte le webzine Atlantico. En réduisant leurs investissements, ces groupes espèrent faire remonter les prix. Le secteur ne serait rentable que pour des prix aux alentours de 6-7 $. En attendant, certains réfléchiraient même abandonner leurs opérations dans le gaz de schiste américain.

Parallèlement, certains champs ont franchi leur pic de production et la production décline. C’est notamment le cas des champs de Barnett et de Haynesville, dans le Sud des Etat-Unis. Cette baisse de production est pour le moment compensée par le champ de Marcellus dans les Appalaches, explique le blog de Matthieu Auzanneau.

Ce ralentissement de la production a des causes économiques et géologiques. D’une part, la technique de fracturation ne libère le gaz que dans un périmètre restreint autour de la zone fracturée. Par conséquent, la production d’un puits est généralement maximale lors de son ouverture, avant de décliner rapidement.Pour maintenir une production élevée, il est nécessaire de forer sans cesse de nouveaux puits. Mais comme les groupes veulent faire remonter les prix, ils ont plutôt tendance à diminuer leur nombre. C’est la raison économique.

D’autre part, les nouveaux puits sont forés dans des zones moins riches en hydrocarbures, puisque les puits les plus abondants sont forés en premiers. Les nouveaux puits sont donc moins productifs et, a fortiori, moins rentables. C’est la raison géologique. Alors, le jeu en vaut-il vraiment la chandelle en France ?

Par Matthieu Combe, journaliste scientifique

Nymi : le bracelet qui veut rendre les mots de passe obsolètes

Mots de passe, clés, cartes bleues ou identifications en tout genre : tout pourrait peut-être bientôt passer à la trappe, si l’on en croit les têtes pensantes de la jeune société Bionym, une start-up canadienne fondée en 2011 à Toronto. Leur trouvaille ? Imaginer un système de reconnaissance biométrique entrant tout droit dans la gamme du « wearable computing », prenant la forme d’un petit bracelet coloré, baptisé « Nymi ». « Le but n’est pas de gérer les mots de passe, mais bien de remplacer les mots de passe », confie Karl Martin, PDG et fondateur de Bionym.

Le fonctionnement de « Nymi » semble simple : l’identité du porteur du bracelet est authentifiée par la signature (à priori unique) des signaux électriques émis par le cœur de ce dernier, mesurés par un électrocardiographe intégré au bracelet. Se démarquant des autres méthodes d’identification biométrique, telles que le scan d’empreintes digitales, la reconnaissance de l’iris, la reconnaissance faciale ou même l’analyse comportementale, le système mis au point par Bionym ne demande pas à l’utilisateur de s’identifier à chaque fois qu’il veut pouvoir débloquer quelque chose. L’identification de l’utilisateur dure aussi longtemps qu’il porte le bracelet à son poignet.

Et aussi dans les
ressources documentaires :

L’activité électrique du cœur, une signature personnelle et unique

Pour s’identifier via « Nymi », l’utilisateur doit mettre le bracelet, puis toucher d’une main un capteur situé sur le dessus du dispositif pour compléter une boucle électrique avec le capteur situé en dessous, en contact avec le poignet. L’activité électrique du cœur – liée aux variations de potentiel électrique des cellules spécialisées dans la contraction et des cellules spécialisées dans l’automatisme et la conduction des influx – sert alors de signature personnelle et unique permettant de vérifier l’identité du porteur du bracelet. Les données de l’électrocardiogramme, une fois digérées, sont alors transmises via Bluetooth aux applications préalablement installées sur nos smartphones (ou tout autre appareil) se situant à proximité et réclamant une quelconque authentification, afin d’attester de l’identité de l’utilisateur.

Bionym met en avant la sécurisation « à trois facteurs » de son joujou : le possesseur doit avoir le bracelet à son poignet, il doit s’être identifié via son activité cardiaque, et il doit configurer et choisir les appareils pouvant être déverrouillés par ce biais. Le bracelet est en principe constamment activé, tout du moins tant que celui-ci reste sur le poignet de l’utilisateur, permettant de s’identifier autant de fois qu’on le souhaite sans bouger le petit doigt. Il faut toutefois réactualiser l’authentification au minimum une fois par jour.

Un bracelet complet

En plus des capteurs servant à réaliser l’électrocardiogramme et de l’émetteur Bluetooth, le bracelet est également doté d’un gyroscope et d’un accéléromètre, pour permettre la mise au point d’une gestuelle particulière pour – par exemple – ouvrir la portière de votre voiture. Bien que d’ores et déjà intégrés à notre petit accessoire, une telle utilisation du bracelet n’est pour le moment envisagée que si d’autres développeurs mettent la main à la pâte (une interface de programmation sera pour cela publiée en open-source).

La proximité de « Nymi » avec un récepteur est également un paramètre qui a été pris en compte, comme pour certaines fonctionnalités de paiements visant à détrôner l’indéboulonnable carte bleue, faisant ainsi écho aux recherches effectuées sur la communication en champ proche – une extension de l’utilisation de la RFID permettant la communication sans fil à courte portée et haute fréquence entre une puce et un lecteur NFC (Near Field Communication). On pourrait donc approcher son bracelet du lecteur pour autoriser un paiement. Et ce n’est pas tout : « Nymi » peut aussi servir de capteur d’activité, un podomètre amélioré qui est assez en vogue ces derniers temps.

Reconnaître le propriétaire et sécuriser les informations

En ce qui concerne les questions de sécurité, ou la possibilité d’accéder ou d’utiliser des données sensibles à des fins frauduleuses (usurpation d’identité) ou mercantiles, les concepteurs se réfugient derrière l’encodage des informations, assuré par une puce cryptographique intégrée au bracelet.

On est aussi en droit de se demander si des facteurs extérieurs comme le stress ou l’exercice physique peuvent altérer la capacité du bracelet à reconnaître son propriétaire. Les Canadiens se veulent pourtant rassurants, des altérations mineures du rythme cardiaque n’ayant – à les entendre – que peu d’influence sur la finesse du nez de « Nymi, mais recommandent tout de même aux futurs possesseurs de s’identifier en début de journée, en étant détendu, pour ne plus s’en préoccuper tant que l’utilisateur garde le bracelet à son poignet.

« Nymi » est déjà en prévente ici pour 79 dollars, et une livraison prévue début 2014. L’application dédiée sera initialement disponible sur iOS, Android, Windows et Mac OSX.

Par Moonzur Rahman

Les téléphériques arrivent en ville !

Le transport par câble aérien intéresse particulièrement les collectivités pour franchir les obstacles naturels ou les infrastructures urbaines. C’est notamment le cas pour survoler les cours d’eau, les autoroutes, les voies ferrées ou d’importants dénivelés. Les retours d’expérience internationaux confirment les performances en ville de ces ouvrages qui offrent un niveau de service comparable au métro ou au tramway. Par ailleurs, ils séduisent grâce à une faible durée de chantier comparée à celui d’une ligne de métro ou de tramway.

Les collectivités intègrent désormais ce mode dans l’éventail des transports en commun en milieu urbain. Des territoires lancent des réflexions sur des implantations possibles. Dans le cadre de l’appel à projets 2013 « Transports collectifs et mobilité durable » (un engagement de l’Etat pour subventionner des projets en milieu urbain, hors Ile-de-France) plusieurs projets de transport aérien par câble ont été proposés. L’objectif est de promouvoir et de banaliser ce mode, l’adapter en fonction des topologies urbaines et l’intégrer dans la multi-modalité.

Des inconnues demeurent sur les coûts

Les coûts présentent encore certaines inconnues, puisqu’il n’y a pas encore de précédent en France et donc peu de données disponibles ou exploitables en zone urbaine. Ils sont différents de ceux observés en zone de montagne, puisque les conditions d’insertion des stations dans le tissu urbain sont très différentes : emprise foncière, conception spécifique pour les stations et les pylônes, nuisances sonores et visuelles, période d’ouverture du service élargie, organisation des équipes, de la maintenance, convention collective différente, prise en compte du risque incendie, etc. De plus, pour qu’un téléphérique soit compétitif et présente un intérêt, le nombre de stations doit être limité et donc « il faut avoir des paquets d’urbanisation à desservir au pied des stations », note Laurence Debrincat, responsable de la division études générales du STIF.

Des études restent encore à lancer : une comparaison raisonnée avec d’autres modes de franchissement : câble terrestre ou ouvrage d’art, l’absorption de débits entrants importants par les différents types de systèmes à câble, notamment lors de l’arrivée en masse de clients et les conditions d’exploitation en milieu urbain en France métropolitaine dans le contexte réglementaire actuel.

Des projets français prêts pour la concertation publique

À l’occasion du colloque « Transport par câble aérien en milieu urbain », organisé par Conseil général du Val de Marne le 1er octobre 2013, plusieurs projets français ont été présentés. Le projet brestois est le plus abouti et devrait être le premier téléphérique urbain avec une mise en route en 2015. Pour un montant d’environ 15 millions d’euros et une ligne de 460 mètres, il prévoit le franchissement de la base navale située en plein centre de Brest. Chaque cabine serait disposée sur deux câbles à la fois porteur et tracteur. La concertation publique a eu lieu fin 2012 et il y a eu très peu d’opposition au projet. Le projet entre en phase opérationnelle : 5 candidatures ont été reçues pour réaliser le projet d’une dizaine de cabines.

À Toulouse, le Projet AéroTram est un système à trois câbles comprenant un tracé de 2,6 km. Dans ce type de système, le soutien des cabines est assuré grâce à 2 câbles porteurs et c’est un troisième câble qui trace la structure. L’enjeu est de relier trois pôles d’activités majeurs : l’Oncopole, le CHU de Rangueil et l’Université Paul Sabatier, en franchissant les deux rives de la Garonne et un dénivelé de 100 m. Le budget est de 44 millions d’euros pour une mise en service prévue en 2017.

Le département du Val-de-Marne porte un projet reliant Créteil, Limeil-Brévannes, Valenton et Villeneuve-Saint-Georges et permettant de désenclaver ces territoires pour un investissement estimé à 70 millions d’euros. Grâce à une ligne de 4,4 km de long, il permettra de survoler d’importantes coupures urbaines : voies ferrées, gare de triage, RN 406, entrepôts, lignes à haute tension, etc. Avec 60 cabines de 15 places chacune, il pourrait accueillir 13 000 visiteurs par jour. La consultation publique s’ouvre ce mois-ci, les travaux devraient commencer en 2016 pour une mise en service en 2018. Quand le Téléval aura montré son efficacité, il devrait faire des petits en Ile-de-France !

Enfin, deux projets sont à l’étude à Grenoble. Le premier, de 10 km de long, vise à relier la ville à la montagne grâce à une technologie télécabine monocâble. Son tracé part du terminus du tram A de Grenoble (La Poya), comprend une station dans la ville de St Nizier et finit à Lans-en-Vercors. Aujourd’hui, le projet est estimé à environ 60 millions d’euros. Le deuxième projet de la ville est plus urbain et est indispensable dans le cadre du développement nord-ouest de la ville. Il reliera les 3 lignes de tram. « Dans cette vallée, il y a deux rivières, une voie ferrée et deux autoroutes : il faut franchir toutes ces coupures », explique Michel Gilbert, Chef de projet transport par câble à la Direction de la mobilité et des transports du SMTC-Grenoble Alpes Métropole. 

Par Matthieu Combe, journaliste scientifique

Les peintures végétales ont de l’avenir

Basée à Grasse, la start-up créée en 2011 commercialise des additifs et des résines bio-végétales. Celles-ci remplacent les ingrédients issus de la pétrochimie, de façon à obtenir une peinture de performance égale, mais écolo.  Dans leur besace, Olivier Choulet et Pierre Chevalier disposent de deux gammes de  polymères bio-sourcés, de polyols, de glycérols et d’huiles. La marque Inokem comprend des résines alkydes à base d’eau tandis que celle baptisée Secoia s’appuie sur une fabrication à base d’oléagineux tels que le soja et le tournesol.

Pour doper sa croissance, Ecoat n’a d’autre choix que d’innover en permanence. Et elle l’a bien compris. S’appuyant sur un solide réseau de R&D, la Start-up collabore avec l’Université de Nice pour les matériaux, l’Université Lyon I pour les synthons végétaux, et l’école d’ingénieur Itech pour l’analyse de peintures végétales. Des associations fructueuses qui ont déjà abouti à un dépôt de brevet pour un procédé de réticulation qui permet notamment à la peinture de sécher en 12 minutes, sans catalyseur à base de sel de cobalt. Des innovations récompensées plus  récemment par le prix ChemStart’Up pour ses polymères biosourcés.

Les peintures végétales  semblent séduire le secteur de la peinture puisque Ecoat, avec un chiffre d’affaire de 550 000€ en 2011 et de plus d’une million en 2012, prévoit pas moins de 5 millions de levée de fond.

Par Audrey Loubens, journaliste scientifique

Le GIEC évoque un réchauffement « sans équivoque » et « sans précédent »

« Les données sont claires : pour nous, le réchauffement est sans équivoque et sans précédent depuis des décennies et des millénaires », a affirmé Jean Jouzel, climatologue expert du GIEC, à l’occasion d’une conférence à l’école Sciences Po le 2 octobre. Ce réchauffement climatique ne se limite pas à la hausse des températures qui pourrait atteindre 5,5°C dans le scénario le plus extrême en 2100 : « tous les indicateurs du réchauffement sont au rouge », précise-t-il. 

En effet : le cycle global de l’eau est modifié, les neiges et glaces fondent de plus en plus vite, le niveau moyen des océans augmente, l’acidification des océans augmente, certains phénomènes climatiques extrêmes se multiplient et les températures du pergélisol augmentent, entraînant une diminution de son épaisseur dans certaines régions. Selon le premier volume du cinquième rapport du GIEC, les trois dernières décennies ont été de plus en plus chaudes et la décennie 2001-2010 a été la plus chaude depuis 1850. Dans le scénario d’émissions le plus pessimiste, il n’est pas exclu que la banquise arctique disparaisse totalement en été à partir de 2050.

Selon le rapport, le taux d’élévation du niveau de la mer depuis le milieu du 19e siècle a été plus important que le taux moyen observé au cours des deux millénaires précédents. Entre 1901 et 2010, le niveau moyen de la mer a augmenté de 19 cm. D’ici 2100, il devrait encore augmenter entre 26 cm et 82 cm, avec des inégalités spatiales, en fonction des scénarios d’émissions. Dans le pire des cas, il pourrait même atteindre 98 cm. 

Le tableau peut paraître assez noir, mais la science ne ment pas. Les projections du changement climatique sont basées sur une nouvelle série de quatre scénarios de concentrations futures de gaz à effet de serre, d’aérosols, couvrant un large éventail de futurs possibles. Le Groupe de travail I a évalué le changement climatique à l’échelle mondiale et à l’échelle régionale pour le début, le milieu et la fin du 21e siècle.

Où en sont les émissions ?

Les concentrations atmosphériques de dioxyde de carbone (CO2), de méthane (CH4) et d’oxyde nitreux (N2O) ont toutes augmentées depuis 1750 en raison de l’activité humaine. Elles ont atteint des niveaux sans précédent depuis au moins 800 000 ans. La vitesse d’augmentation de ces concentrations atmosphériques au cours du siècle dernier n’a pas de précédent depuis 22 000 ans.

En 2011, les concentrations de ces gaz à effet de serre étaient respectivement de 391 ppm, 1803 ppb et 324 ppb, dépassant les niveaux préindustriels d’environ 40 %, 150 % et 20 %. L’océan a absorbé environ 30 % du dioxyde de carbone anthropogénique émis, provoquant l’acidification des océans à un niveau probablement au plus fort depuis des millions d’années…

En mai 2013, rappelons que le seuil symbolique des 400 ppm de CO2 dans l’atmosphère était franchi pour la première fois à la station de mesure de Mauna Loa (Hawaï), qui représente une bonne approximation de la concentration moyenne en CO2 dans l’hémisphère Nord. 

Par Matthieu Combe, journaliste scientifique

Et aussi dans les
ressources documentaires :

Techniques de l’ingénieur vous donne rendez-vous les 9 et 10 octobre à Lyon

Chaque visiteur porteur de projets d’innovation est qualifié et orienté vers les exposants susceptibles de leur apporter des réponses. En 2012, la dernière édition avait attiré plus de 2 600 participants et donné lieu à 9 000 rendez-vous d’affaires.

Techniques de l’Ingénieur est partenaire de cet événement. L’édition 2013 aura lieu les 9 et 10 octobre à Lyon (Double Mixte).

Nos chargés d’affaires vous y attendent et sont à votre disposition pour vous présenter les nouvelles ressources documentaires (Systèmes radars et application, Systèmes embarqués, Développement durable…), ainsi que nos programmes de formation ou encore nos prestations de conseil, missions d’audits et de recommandations techniques.

L’inscription est gratuite pour les visiteurs porteurs de projets d’innovation : http://www.rdv-carnot.com

Le Phonebloks, le mobile personnalisable évolutif

Un mobile personnalisable pour s’adapter aux besoins. Comme son nom l’indique, le Phonebloks permettrait d’assembler des composants – les fameux blocs – selon les besoins de son détenteur. Chaque module représentant une fonctionnalité, il ne tient qu’à l’utilisateur de monter son mobile en fonction de ses envies, comme avoir plus ou moins de mémoire, de meilleurs haut-parleurs, capteurs photo… Il n’en fallait pas davantage pour assimiler le principe du Phonebloks au jeu Lego. Le concept est sorti tout droit de l’esprit du designer néerlandais Dave Hakkens, âgé de 25 ans. Ce jeune homme talentueux préoccupé par l’écologie s’était déjà fait remarquer pour ses projets relativement fantaisistes tels que : la presse éolienne pour obtenir de l’huile de noix, le savon en dur et en languettes, la prise à partager et le plugbook destiné à ne plus se prendre les pieds dans les fils électriques.

Tout est remplaçable! Il s’agit d’un des points forts du mobile. En cas de panne d’un composant, que ce soit la batterie, l’écran ou autres, il n’est pas nécessaire d’acheter un nouveau mobile puisqu’il suffit de remplacer la pièce défectueuse par une autre fonctionnelle. Fini l’obsolescence programmée des mobiles, bienvenue vers l’ère évolutive.

L’engouement suscité par le Phonebloks est bien réel. Ce qui n’est encore qu’un projet pourrait bien se concrétiser dans un futur proche tant le concept du Phonebloks semble plaire. De nombreux sites n’ont pas tardé à relayer l’information, les gens n’ont pas hésité non plus à commenter et partager sur les réseaux sociaux. Pour l’heure, plus de 850 000 personnes ont déjà affiché leur soutien via la plateforme Thunderclap. Dave Hakkens lui-même, qui avait pour but d’attirer l’attention, n’avait sans doute pas espéré un tel emballement.

Cependant, le Phonebloks est-il réalisable ? Certains doutent en effet de l’intérêt d’un tel projet. Car là où les smartphones tendent à regrouper le plus de fonctionnalités possible sur une puce, le phonebloks les éclate. Une politique qui va donc à contre-courant du développement des techniques actuelles. Et puis il y a d’autres sujets d’inquiétude… La multiplication des composants interchangeables ne va-t-elle pas faire grimper les prix ? Les modules une fois connectés les uns aux autres fonctionneront-ils correctement ? Les investisseurs, opérateurs et constructeurs vont-ils suivre cette idée au risque de casser le modèle établi dans le cas des smartphones classiques ? Toutes ces réserves laissent dubitatif malgré l’enthousiasme sincère que génère le Phonebloks. Alors patientons encore quelque temps afin de savoir si le Phonebloks dépassera le stade de projet séduisant.

 

Par Sébastien Tribot

 

Et aussi dans les
ressources documentaires :