Les contrecoups de l’affaire Snowden sur le cloud !

Les contrecoups de l’affaire Snowden : Comment le scandale sur la NSA a modifié l’attitude des décideurs envers le cloud !

Cette enquête est basée sur une étude menée auprès de 1 000 décideurs informatiques d’Allemagne, de France, d’Hong Kong,du Royaume-Uni et des Etats-Unis. L’étude met en évidence neuf contrecoups suite à ces révélations, qui obligent les entreprises à sérieusement revoir leurs positions vis-à-vis du cloud.

  • Près de neuf dixième (88 pour cent) des décideurs IT sont en train de changer leur comportement d’achat de solutions de cloud, avec plus d’un tiers (38%) qui modifient les modalités de passation de marchés auprès des fournisseurs de cloud,

  • Seulement 5%des répondants pensent que la localisation du stockage des données n’est pas cruciale,

  • Plus de 30% (31%) des décideurs IT ont déplacé leurs données à des endroits, où l’entreprise sait qu’elles seront en sécurité,

  • Autour de 60% (62 %) de ceux qui n’utilisent pas encore actuellement des solutions cloud affirment que ces révélations les ont empêchés de migrer leur informatique vers le cloud, 

  • Les décideurs IT préfèrent maintenant acheter une solution cloud qui se trouve dans leur propre région, en particulier les européens (97 %) et les américains (92 %),

  • Un peu plus de la moitié (52 %) exigent plus de leurs fournisseurs de cloud,

  • Une personne sur six (16%) annule – ou retarde – la signature des contrats avec des fournisseurs de cloud computing,

  • Plus des quatre cinquièmes (84 %) estiment qu’ils ont besoin de plus de formation sur les lois de protection des données,

  • 82 % de ces décideurs IT approuvent les propositions d’Angela Merkel pour séparer les réseaux de données.

Len Padilla , vice-président de la stratégie Produit chez NTT Communications en Europe , a déclaré: « Nos résultats montrent que les allégations d’Edward Snowden concernant la cyber-surveillance de la NSA ont entaîné de la part des décideurs IT envers le cloud computing un durcissement des politiques d’achat , une hausse des exigences envers les fournisseurs potentiels et une attention très forte porté sur les lieux de stockage des données ».

Len Padilla ajoute : « Malgré ce scandale « NSA »et malgré les menaces de sécurité, les dirigeants d’entreprises doivent se rappeler que les plates-formes de cloud computing aident les entreprises à devenir plus agiles et à favoriser  l’innovation technologique, même dans les sociétés les plus réticentes au risque. Les DSI travaillent dur pour trouver des moyens de conserver ces avantages tout en protégeant les entreprises contre tous les types d’attaques et de risques. Il y a lieu de rester optimiste car l’industrie IT va résoudre ces problèmes en permettant la localisation des données et le cryptage des données. »

Pour télécharger le rapport « Les contrecoups de l’affaire Snowden ou comment le scandale de la NSA a changé l’approche des décideurs envers le cloud », allez sur le site : http://bit.ly/ContrecoupsaffaireSnowden.

Cliquez sur cette infographie des répercussions de l’affaire Snowden pour la visualiser en grand format :

Méthodologie :
NTT Communications a commandité une enquête auprès de la société d’études de marché Vanson Bourne pour mener à bien une vaste enquête auprès de 1000 décideurs informatiques d’Allemagne ( 200 répondants ), de France (200 répondants) ,d’Hong Kong ( 100 répondants ), des Etats-Unis (300 répondants ) et du Royaume-Uni ( 200 répondants ) en Février et Mars 2014. Soixante pour cent des répondants ont été choisis parmi les entreprises de 1000 salariés et plus, représentant les secteurs de la finance, de la distribution, de l’industrie, des services, de l’informatique et de l’énergie.

À propos de NTT Communications :
NTT Communications fournit des services de conseils, d’architecture , de sécurité et de cloud computing pour optimiser l’ informatique et les télécoms des environnements d’entreprises.

Les gens aimables et consciencieux se soumettent plus facilement à l’autorité (étude)

Les auteurs de l’étude ont interrogé 66 participants du « jeu de la mort », un documentaire diffusé en mars 2010 sur France 2, qui avait transposé à l’écran l’expérience menée à Yale par Stanley Milgram en 1963 pour sonder les mécanismes de la soumission aux nazis.

Pour ce documentaire, les volontaires avaient été recrutés pour, leur a-t-on dit, tourner l’émission test d’un nouveau divertissement, « La Zone Xtrême ».

Le but était de soumettre un candidat – en fait un comédien – à une série de questions. La punition se traduisait par une décharge électrique allant crescendo, de 20 à… 460 volts. A certains moments, le public, également recruté sans avoir été prévenu de l’expérience, exhorte au « châtiment » pour inciter le questionneur à administrer une décharge.

Le faux candidat, invisible aux yeux des questionneurs, exprime sa douleur au fur et à mesure de la gradation du dispositif, d’abord par des cris modérés, puis des hurlements, des supplications demandant de cesser le jeu, avant de ne plus donner signe de vie.

80% des questionneurs sont allés jusqu’au bout du jeu malgré la violence des décharges électriques qu’on leur demandait d’infliger au cobaye. Seulement 16 des candidats ont abandonné le jeu.

Huit mois plus tard, les participants ont été soumis par téléphone à un test de personnalité validé scientifiquement au niveau international, et présenté comme un sondage d’opinion sans rapport avec l’expérience. Leur orientation politique a aussi été mesurée à cette occasion.

Les chercheurs ont montré que l’intensité des décharges électriques administrées par les participants ne variait pas significativement en fonction de leur religion, leur classe sociale, leur sexe ou leur âge.

En revanche, les résultats de l’étude ont montré que les participants administrant les chocs électriques les plus élevés étaient aussi ceux qui étaient considérés comme les plus consciencieux et les plus aimables dans le test de personnalité.

A l’inverse, les participants se définissant comme le plus à gauche sur l’échiquier politique étaient aussi ceux qui avaient tendance à davantage contrecarrer l’ordre en infligeant des décharges électriques moins fortes.

« Le paradoxe, c’est que ce sont des traits de personnalité considérés comme socialement désirables qui conduisent à des comportements socialement indésirables dans les circonstances de l’expérience », a commenté Laurent Bègue, professeur de psychologie sociale à l’Université Pierre-Mendès-France de Grenoble et coauteur de l’étude.

Par ailleurs, l’étude tend à montrer qu’au-delà d’un environnement particulièrement contraignant, les traits de personnalité des participants ont eux aussi de l’importance dans la soumission à l’autorité.

L’étude doit être publiée dans la revue scientifique américaine Journal of Personality.

L’étude en intégralité (en anglais):

http://www.researchgate.net/publication/262077560_Personality_Predicts_Obedience_in_a_Milgram_Paradigm

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Nanomatériaux, des matériaux très petits et potentiellement dangereux (rapport)

Les nanomatériaux sont des matériaux naturels ou manufacturés constitués de particules dont la taille se situe entre 1 et 100 nanomètres, soit 1 à 100 milliardièmes de mètre.

Cette taille intermédiaire entre la taille des atomes et celle des matériaux classiques leur confère des propriétés physiques, chimiques et biologiques particulières.

« Les nanomatériaux représentent un domaine de la recherche scientifique et technique en pleine expansion » en raison de ces propriétés et de leurs applications industrielles, explique dans un rapport l’Anses (Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail) .

« L’utilisation des nanomatériaux est en plein essor et désormais, ils entrent dans la composition de nombreux produits de la vie courante disponibles sur le marché : cosmétiques, textiles, aliments, peintures, etc », indique l’agence.

Mais les effets de ces nanomatériaux sur l’homme restent encore largement méconnus, faute d’étude. « Il n’existe pas à l’heure actuelle de données » sur la toxicité directe de ces produits sur l’homme « en raison de l’absence d’études épidémiologiques », relève l’Agence.

Plusieurs éléments plaident pour la prudence vis-à-vis de ces nouveaux matériaux. En premier lieu, la petitesse de leurs particules leur permet de franchir les barrières physiologiques, comme la peau ou les muqueuses qui constituent les protections naturelles du corps.

Ensuite, des tests in vitro et in vivo sur l’animal indiquent une toxicité pour certains d’entre eux.

En particulier, des nanotubes de carbone, utilisés comme additifs ou revêtements dans l’industrie, peuvent entraîner le développement anormal d’embryons, causer des cancers ou bien des maladies respiratoires, souligne le rapport.

Ces mêmes nanotubes de carbone peuvent aussi avoir des effets toxiques sur l’environnement avec par exemple un effet antimicrobien lorsqu’ils sont dispersés dans le sol.

Des études plus approfondies sur ces nanotubes de carbone et sur leurs effets à long terme seraient donc nécessaires, souligne l’Agence.

De manière générale, l’Anses « recommande la mise en oeuvre de projets pluridisciplinaires permettant de développer les connaissances sur les caractéristiques des nanomatériaux et de leurs dangers, tout au long du cycle de vie des produits ».

En attendant, l’Agence recommande la prudence et « appelle, dès à présent, à un encadrement réglementaire renforcé des nanomatériaux manufacturés au niveau européen, afin de mieux caractériser chaque substance et ses usages, en prenant en compte l’ensemble du cycle de vie des produits ».

La règlementation européenne en matière de classification et d’étiquetage (CLP) et celle sur les produits chimiques (REACh) devrait s’appliquer au nanomatériaux afin d’en « renforcer la traçabilité » et de mieux contrôler l’exposition de la population, estime l’Anses.

Selon un premier recensement officiel pour ce type de matériaux, publié en novembre, 282.000 tonnes de nanomatériaux ont été produites en France en 2012 et 222.000 tonnes ont été importées.

Le parti écologiste Europe Ecologie-Les Verts (EELV) a « salué la position responsable de l’Anses ».

Michèle Rivasi, élue au Parlement européen et tête de liste pour EELV dans le sud-est de la France aux élections européennes du 25 mai, appelle dans un communiqué à « l’application du principe de précaution pour les nanotechnologies ».

« Face aux nombreuses inconnues scientifiques sur les nanomatériaux, nous avons deux certitudes : ces particules sont déjà présentes dans notre quotidien et l’innovation technologique devance largement l’encadrement réglementaire », souligne l’élue européenne .

« Avec l’amiante, nous avons un précédent technologique qui a tourné à la catastrophe sanitaire (…) Il s’agit de ne pas recommencer », ajoute-t-elle.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Management : comment rendre votre équipe plus efficace ?

Gérer l’efficacité de l’équipe

Le chef de projet veille, au quotidien, à ce que les ressources qui sont utilisées sur le projet soient les mieux gérées possible. L’économie des ressources humaines a, bien entendu, des conséquences sur le coût du projet mais aussi sur le moral des troupes. En effet, si le chef de projet évite à ses membres de perdre du temps dans des réunions inutiles, par exemple, cela leur permet de se consacrer à d’autres tâches. Les personnes dédiées au projet passent à de nouvelles actions. Les personnes qui travaillent à temps partiel sur le projet, se consacrent alors à leurs autres activités. Dans tous les cas, ces personnes sont reconnaissantes au chef de projet de leur avoir fait gagner du temps et de leur avoir évité, in fine, une surcharge de travail.

Le temps d’une équipe se répartit entre le temps consacré à la partie opérationnelle du projet, à celui employé pour la régulation de l’équipe (voir étape précédente) et à celui investi dans la formation (voir étape précédente). Le temps d’une équipe s’organise comme les autres tâches du projet, selon les besoins réels.

Tirer le meilleur du groupe lorsqu’il est réuni

Il est important de savoir pour quelle raison l’équipe se réunit. Il existe trois grands types de réunion :

  • la réunion d’information ;
  • la réunion de travail ;
  • la réunion de décision.

La réunion d’information

Le groupe est réuni pour être informé. Il n’y a pas de débat. Seules les questions en vue d’éclaircir la compréhension de l’information donnée sont acceptées. La personne en charge de communiquer cette information veille à ce que son message soit bien compris. Il le vérifie au fur et à mesure de son intervention. C’est le cas de la réunion de lancement des tâches opérationnelles, par exemple.

La réunion de travail

Quelques experts se sont regroupés pour travailler à la résolution d’un problème. L’utilisation du partage des représentations, vue à l’étape précédente, est une façon très efficace de résoudre une problématique. Le brainstorming est une alternative pour générer un maximum d’idées. Dans tous les cas, ces personnes font preuve de créativité. C’est le cas des groupes de travail.

La réunion de décision

Une personne rapporte une problématique ET des solutions à un groupe de personnes qui a la capacité de décider. Le rapporteur a l’expertise nécessaire pour trouver des solutions mais il n’a pas le pouvoir de décider. Les décideurs ne se sont pas réunis pour trouver des solutions au problème car ils ne sont plus experts ou sont moins experts que le rapporteur vis-à-vis du problème à solutionner. C’est le cas du comité de pilotage, par exemple. Au-delà des objectifs premiers de ces types de réunions, se réunir permet notamment de :

  • forger l’identité du groupe ;
  • maintenir la cohésion ;
  • développer les sentiments d’appartenance et de paternité de certaines solutions ;
  • renforcer les synergies ;
  • libérer l’énergie créatrice des forces vives qui travaillent sur le projet ;
  • fêter les réussites tout au long du projet et pas seulement à la fin de celui-ci.

Conseils :

  •  Il n’est pas efficace de mélanger plusieurs types de réunion au sein d’une même réunion.
  • Dans une réunion d’information, il faut veiller à ce que le processus de communication ne se fasse pas que dans un sens, de l’émetteur vers le récepteur. L’émetteur doit être impérativement à l’écoute des messages de compréhension ou d’incompréhension émis, en retour, par le récepteur.
  • Une personne qui a un problème ne vient jamais voir son décideur sans solutions (au moins deux, pour que le décideur ait le choix de la solution). Cette règle s’applique à n’importe quel niveau de l’équipe du projet. Ceci permet notamment au chef de projet de ne pas se retrouver noyé par tous les problèmes du projet apportés par les experts alors qu’ils ont les solutions (mais pas le pouvoir de décision).

Rendre les réunions productives

Pour être productive, une réunion est :

  • préparée ;
  • structurée.

Préparée

L’animateur de la réunion veille à ce que les participants soient informés de la date, de l’heure, de la durée, du lieu, des thèmes abordés et de la durée qu’il leur est alloué, du type de réunion et des prérequis. Il vérifie aussi que chacun comprend clairement ce qu’on attend de lui. À partir de ces éléments, chacun des participants prépare sa contribution.

Structurée

Trois rôles doivent être assurés lors de la réunion en plus du rôle de participant : un rôle d’animation, un rôle de gardien du temps et un rôle de rapporteur. Ces trois rôles sont distribués à des personnes distinctes. Cette organisation procure des avantages : meilleure tenue des rôles en comparaison d’une personne « multicasquette » ; responsabilisation des participants ; développement des savoir-faire des individus.

L’animateur stimule l’implication, l’engagement et la responsabilité des participants. Il encourage la réflexion avant de s’exprimer et la concision des propos. Il distribue la parole de façon équitable, reste centré sur l’objectif pour éviter de se disperser, s’assure du niveau de compréhension de tous et effectue une régulation du groupe si nécessaire. Il métacommunique.

Le gardien du temps lance la réunion à l’heure prévue. Il gère le temps alloué à chaque thème en informant régulièrement le groupe du temps restant. Il réserve un temps pour la validation du compte rendu et la prise de dates des prochaines réunions.

Le rapporteur rédige le compte rendu au fur et à mesure de la réunion en y inscrivant les décisions prises, les responsables de celles-ci ainsi que les délais de réalisation. En fin de réunion, il présente son travail à l’ensemble du groupe (vidéoprojecteur ou simple photocopie d’un compte rendu manuscrit) pour validation. Ainsi, chacun en quittant la réunion sait à quoi s’en tenir. Le gain de temps est énorme, comparé à un compte rendu fait après coup notamment s’il y a plusieurs versions du document avant validation unanime. En outre, ceci évite que le compte rendu soit fait juste avant la réunion suivante, ou qu’il ne soit pas rédigé. Enfin, cette façon de procéder démontre une bonne dynamique dans la prise de décisions et permet l’exécution de celles-ci, par les membres du groupe, dès la sortie de réunion.Conseils :

Poser vous la question de savoir si la réunion que vous organisez est réellement nécessaire.

  • Préférer joindre les documents présentés lors de la réunion plutôt que d’essayer de « recopier » ceux-ci dans le compte rendu.
  • Faire endosser chacune des trois responsabilités indispensables à une réunion efficace, à chaque personne du groupe et à tour de rôle.
  • Le chef de projet n’est pas systématiquement l’animateur de la réunion.
  • Une réunion dure une heure et demie au maximum. Au-delà, la fatigue des participants est trop importante pour qu’ils soient productifs et efficaces.

Être efficace avec des équipes à distance

Lorsque les membres du groupe repartent à distance, chacun d’entre eux a bien compris quelles actions il doit mener, dans quels délais et avec quelles ressources. Les relations sont nettoyées. La loyauté et l’engagement de chacun vis-à-vis du projet sont assurés.

Une fois l’équipe dispersée, le chef de projet les défend contre les éléments extérieurs au projet qui détournent leur attention de l’objectif fixé ensemble. Dans le cas de ressources à temps partiel sur le projet, il intervient d’une part, auprès de leur « patron » afin qu’il leur laisse l’espace suffisant pour se consacrer aux tâches prévues. D’autre part, auprès d’eux-mêmes en les stimulant sur le bénéfice qu’ils tirent personnellement du projet.

Lorsque des personnes se réunissent à nouveau après un éloignement physique de quelque temps, leur laisser le temps de se retrouver, de se reconnecter, de se réinclure. C’est un investissement très rentable pour la suite de la rencontre. Les questions suivantes peuvent les y aider :

  • Que s’est-il passé d’important pour vous depuis la dernière fois ?
  • Qu’avez-vous retenu de notre dernière rencontre ?
  • Qu’avez-vous mis en oeuvre depuis ce moment ?
  • Quelles sont vos attentes pour cette réunion ?
  • Comment voyez-vous votre contribution ?

Après quelques instants de réflexion individuelle pour répondre à ces interrogations, chacun partage ses réponses devant le groupe. Conseils :

  • Dans le cadre défini, développez au maximum l’autonomie des équipiers à distance et déléguer des pouvoirs dès que possible.
  • Développez l’autostimulation, l’automotivation envers le projet en fixant des objectifs réalistes. Mettez en valeurs les réussites.
  • Aidez les membres du groupe à distance à définir leurs priorités.
  • Générez du plaisir à se retrouver.

Créer, maintenir et contrôler la communication

Le chef de projet investit une partie de son temps pour construire son réseau d’information auprès de toutes les parties prenantes au projet. Ce réseau est formel et informel.

Le chef de projet exploite les réunions officielles pour créer et entretenir les liens interpersonnels. Il profite de rencontres informelles autour de la machine à café, par exemple. Il entretient ce réseau en saisissant toutes les occasions pour échanger de l’information sur son projet.

Comme l’araignée tissant sa toile, le chef de projet est toujours au centre mais il fait constamment le lien entre un point et un autre.

Le secret de la réussite du fonctionnement d’un bon réseau est d’aller vers l’autre ET de donner. Si vous ne donnez rien, vous ne recevez rien d’utile pour mener à bien votre mission. Même s’il n’est pas certain que cette information est pertinente à son contact, il lui donne. L’interlocuteur est suffisamment « grand » pour savoir s’il peut s’en servir ou non.

En oeuvrant de cette manière, le chef de projet échange des informations utiles au bon déroulement de son projet, des conseils, des noms d’experts ou de ressources disponibles auxquels il n’a peut-être pas pensé.

Le chef de projet s’assure que l’information circule bien au sein de son équipe. Il encourage le développement de ce réseau de communication au niveau de tous les membres du groupe. Conseils :

  • Pour faire vivre un réseau, il faut commencer par donner avant de commencer à recevoir.
  • Au cours du projet, réexaminer l’efficacité du réseau et modifier si nécessaire sa forme et les processus de communication à adopter.
  • Remercier toujours l’interlocuteur qui vous donne de l’information.
  • Rester en contact avec chacun et transmettre de l’information.

Créer des systèmes d’alerte préventive

Lorsque le bilan du projet est réalisé, une des causes de dysfonctionnement ou d’échec relevé est « nous aurions pu éviter ou minimiser les conséquences de ce problème si nous avions été avertis à temps ». En clair, les personnes qui ont détecté les premières le problème n’ont pas osé, pu ou voulu dire ce qui se passait. C’est ce que nous appelons le syndrome du « tout va bien Madame la marquise10 » tiré de la chanson du même nom.

Madame la marquise quitte son château et part en voyage. Quinze jours plus tard, elle téléphone à son valet resté au château, pour prendre des nouvelles. Il lui répond que « tout va très bien » hormis un tout petit rien, un incident, une bêtise : la mort de sa jument grise. Mais, à part ça « tout va très bien ». Au fil de la conversation, la marquise l’interroge pour en savoir un peu plus. Le majordome lui répond inlassablement que « tout va très bien, Madame la marquise » en finissant par préciser que la jument a péri dans l’incendie qui a détruit ses écuries. Mais à part ça, « tout va très bien ». Au fil de la conversation, les précisions sont de plus en plus nombreuses. Madame la marquise finit par apprendre que si l’écurie a brûlé, c’est que le château était en flammes suite au suicide de son mari. Hormis tout ceci, « tout va très bien, Madame la marquise » !

Pour éviter de se trouver dans la situation de Madame la marquise, le chef de projet doit créer un environnement protégé afin que les membres du groupe n’aient pas peur de représailles s’ils s’expriment pour faire remonter une difficulté. Ils ont la permission de faire part de leurs difficultés, de demander de l’aide, de dire qu’ils sont bloqués DÈS que l’événement survient. Cela permet au chef de projet de donner au groupe la puissance nécessaire afin « d’éteindre le feu » et ainsi d’éviter que tout le projet soit « réduit en cendres ».

Une fois que le chef de projet rend possible la remontée d’alertes, si une personne de son équipe l’informe qu’elle n’a pas réalisé, ou que partiellement, la tâche confiée, il doit se poser la question du pourquoi elle ne l’a pas faite. En effet, il est important de prendre conscience que chacun d’entre nous a la volonté de bien faire son travail, sauf à de rares exceptions, et pourtant le résultat n’est pas toujours au rendez-vous ! La cause vient généralement :

  • soit d’une communication imparfaite qui a généré de l’incompréhension. Dans ce cas, reprenez les éléments de communication vus précédemment ;
  • soit la personne ne sait pas accomplir la tâche. Formez-la ou faites-la accompagner par un tuteur qui a le savoir et l’expérience.

Le chef de projet se doit d’être exemplaire sur ce point et montrer qu’il ne laisse jamais un équipier avec ses problèmes. Conseils :

  • Réagir dès que la première alerte survient.
  • Chercher à comprendre pourquoi une personne échoue en totalité ou partiellement dans la réalisation de la tâche confiée.
  • Laisser tomber un membre du groupe est une faute grave.

L’essentiel

  • Il existe trois grands types de réunions pour les projets : les réunions, d’information, de travail et de décision.
  • Les réunions ont des buts secondaires notamment dans le domaine du développement du groupe.
  • Une réunion se doit d’être préparée et structurée pour être productive.
  •  L’animateur de la réunion s’assure de la contribution de chacun. Le gardien du temps le gère du début à la fin de la réunion. Le rapporteur relève les actions à entreprendre au fil de la réunion afin qu’elles soient validées avant le départ des participants de la réunion.
  • Au début de la réunion, offrez un temps pour que l’équipe se reconnecte entre elle.
  • Avant qu’une équipe distante, en réunion, ne se disperse, vérifier que tout soit compris donc sans zone d’ombre aussi bien dans le domaine opérationnel que dans le domaine des relations interpersonnelles.
  • Une fois à distance, aider votre équipe à rester concentrée sur les objectifs sur lesquels elle s’est engagée.
  • Créer et animer un réseau partagé entre chacune des parties prenantes du projet afin de maintenir le sentiment d’appartenance au projet.
  • Donner d’abord pour recevoir ensuite.
  • Ce réseau permet de communiquer et notamment d’alerter immédiatement en cas de problème.
  • Pour que ce réseau performe, ses membres doivent être ouverts, solidaires et faire preuve à la fois d’exigence et de bienveillance.

 

« Management d’équipe projet » par Yves Sotiaux (Gereso Edition)

S’appuyant sur une méthodologie en huit étapes, illustrée de nombreux schémas et documents à personnaliser, l’auteur vous apprend à mobiliser, impliquer et motiver tous les acteurs pour atteindre l’objectif fixé.
Vous découvrirez comment établir des relations positives, révéler les potentiels, et dénouer les situations conflictuelles à l’aide d’une approche simple (mais pas simpliste) et pragmatique, qui repose sur des principes essentiels adaptables à tous types de projets.

Alstom: GE discute avec des investisseurs français de l’éolien et l’hydroélectricité (source proche)

« Des discussions sont en cours » avec « des investisseurs potentiels français », a indiqué cette source à l’AFP, en précisant qu’elles portaient notamment sur la possible cession d’une « participation minoritaire ».

GE a proposé récemment au fabricant français de turbines électriques et de TGV d’acquérir pour 12,35 milliards d’euros sa branche énergie, également convoitée par l’allemand Siemens, mais le gouvernement lui a demandé d’améliorer cette offre qu’il juge insuffisante.

Selon Les Echos de vendredi dernier, qui citait une source gouvernementale, le gouvernement français souhaiterait que les activités d’éoliennes en mer soient récupérées par Areva en cas de succès de l’offre de GE.

Dans une lettre adressée fin avril au président François Hollande, le PDG de General Electric, Jeff Immelt, s’était dit prêt à « accueillir des investisseurs français » au capital de son activité hydroélectrique, et à « étudier toute proposition d’acquisition de la part d’investisseurs français pour les activités éolien onshore et offshore d’Alstom ».

Concernant Alstom Transport, l’activité sur laquelle l’industriel français entend se concentrer, GE avait dit avoir « décidé d’étudier avec Alstom la possibilité de créer une joint-venture avec l’activité mondiale de signalisation de GE ».

L’entreprise américaine soulignait également la complémentarité des activités et du positionnement géographique d’Alstom et de GE, qui compte 10.000 salariés dans l’Hexagone, contre 18.000 pour le groupe français.

Le conseil d’administration d’Alstom s’est donné jusqu’à la fin mai pour étudier des offres de rachat de sa branche énergie, même s’il a déjà marqué sa préférence pour celle de GE.

Dans une proposition préliminaire, Siemens évalue à un montant compris entre 10,5 et 11 milliards d’euros le portefeuille énergie d’Alstom et propose de lui céder en plus la plupart de ses activités de transport, une option qui a la faveur du ministre français de l’Economie Arnaud Montebourg.

mpa/ih/ei

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Ces substances du quotidien favorisent le cancer du sein

C’est la première fois qu’une telle liste est dressée. 17 substances sont clairement identifiées comme à risque pour les femmes car à l’origine d’un risque accru de développer un cancer du sein. C’est la première fois que le risque chimique est pris en compte dans la probabilité de développer un cancer du sein. Parue dans Environmental Health Perspectives, l’étude prouve que les produits chimiques qui induisent des tumeurs mammaires chez les rats sont impliqués dans le cancer du sein chez l’homme.

Or, comme le déplore Julia Brody, directrice générale du Silent Spring Institute et co-auteure de l’étude, « Toutes les femmes […] sont exposées à des substances chimiques qui pourraient accroître leur risque de cancer du sein mais malheureusement ce lien est très largement ignoré ».

Si la toxicité de différents produits est connue, la particularité de ces substances est qu’elles font partie de notre quotidien. Les femmes y sont donc exposées de manière chronique, répétée et multiple. Ces produits cancérigènes sont présents dans les échappements des véhicules, les produits ignifugés, les textiles antitache, les dissolvants, les décapants à peinture ainsi que dans les dérivés de désinfectants utilisés pour le traitement de l’eau.  Il y a donc urgence à informer les femmes pour qu’elles apprennent les  bons gestes pour limiter leur exposition. Le cancer du sein est le cancer le plus diagnostiqué dans le monde chez les femmes avec 2,89 millions de cas selon l’Institut National du Cancer. On sait aussi qu’ 1 femme sur 9 développera un tel cancer, et 1 femme sur 27 en mourra. 

Suite à cette étude, les auteurs ont établi une liste de 7 conseils de prévention : éviter de respirer les émanations de carburant, ne pas acheter de mobilier en mousse de polyuréthane ou ayant subi un traitement ignifugé, cuisiner avec la hotte en marche, limiter la consommation d’aliments carbonisés comme ceux cuits au barbecue, filtrer l’eau avec un filtre à charbon, ne pas posséder de tapis résistant aux tâches, s’assurer que son teinturier n’utilise pas de perchloroéthylène, investir dans un aspirateur avec filtre HEPA à particules. Autant de nouvelles habitudes qui protégeront les femmes.

Par Audrey Loubens

L’élément 117 fait son apparition dans le tableau de Mendeleïev

Son nom est 1,1,7, mais ce n’est pas un agent secret. Même s’il a su rester discret de longues années. L’existence de ce nouvel élément vient seulement d’être confirmée par la communauté scientifique, grâce à une expérience menée au GSI Helmotz Center à Darmstadt en Allemagne. Parus dans Physics Review Letters, les travaux de 72 scientifiques, pas moins, décrivent la synthèse de quatre échantillons de 117, deux ans après sa découverte. 

Car si la case 117 du tableau de Mendeleïev prédisait son existence, ce n’est qu’en 2010 que l’Ununseptium a été découvert, en projetant des ions calcium sur du berkélium 249. Menée au Flerov Laboratory of Nuclear Reactions en Russie, cette expérience avait permit de produire des nucléides de l’élément 117. C’est d’ailleurs exactement la même réaction qui a été utilisée pour synthétiser l’élément 117. Cette confirmation devrait permettre d’officialiser son existence puisque l’Union internationale de chimie pure et appliquée ne l’avait pas encore formellement fait. Son nom temporaire Ununseptium pourrait donc être modifié.

L’Ununseptium est un atome extrêmement lourd, il pèse 40% de plus que le plomb ! Cet élément est particulièrement instable, avec une durée de vie inférieure à la seconde, et introuvable à l’état naturel. Les effets relativistes du noyau modifieraient les propriétés chimiques telles qu’elles sont attendues, et l’élément 117 pourrait avoir des comportements métalloïdes, c’est-à-dire à mi-chemin entre les métaux et les non-métaux. Reste à pouvoir analyser ces atomes et en découvrir les nombreux secrets.

Suite à cette deuxième observation de l’Ununseptium, les scientifiques vont s’intéresser à des éléments encore plus lourds, comme l’astate, l’élément 118  (déjà synthétisé) et les éléments 119 et 120. 

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

Et aussi dans l’actualité :

Astuce du Web #8 : comment retrouver un document supprimé par erreur

Après avoir supprimé un fichier un peu trop rapidement, le premier réflexe est d’aller voir s’il n’est pas stocké dans la corbeille. Son icône est sur le bureau, double-cliquez dessus pour accéder à son contenu. Si votre fichier s’y trouve, un clic droit et la sélection de l’action « restaurer » le renverront à son emplacement initial.  En revanche, si votre document n’y est pas, il va falloir redoubler d’efforts. Une solution réside dans l’utilisation d’un logiciel expert pour débusquer les fichiers perdus. Il s’agit de PC Inspector Recovery que vous pouvez télécharger gratuitement.

Attention : installez ce logiciel sur un autre lecteur que celui sur lequel porte la recherche.

Une fois le logiciel installé, laissez vous guider dans son interface très intuitive. Dans un premier temps, intéressez-vous à  « rechercher des fichiers effacés ». Sélectionnez le disque à balayer et allez voir si le document recherché n’apparait pas dans  la liste des fichiers retrouvés. Il ne vous reste plus qu’à effectuer un clic droit sur le fichier voulu pour accéder à l’option « enregistrer ».

PC Inspector Recovery peut faire mieux que retrouver un fichier effacé par mégarde, il peut s’intéresser aux fichiers perdus (bug, formatage…). Dans ce cas, il faut procéder comme précédemment mais en sélectionnant initialement « Retrouver des fichiers perdus ». Pour que la recherche soit la plus large possible, positionnez le curseur de « premier cluster » au minimum, et celui de « dernier cluster » au maximum. La liste des fichiers retrouvés s’affiche dans le dossier « Perdu(s) ». Un « enregistrer sous » en cliquant droit sur le fichier retrouvé clôt les retrouvailles.

Par Audrey Loubens, journaliste scientifique

L’océan Austral battu par les vents les plus forts depuis mille ans (étude)

Les vents de l’océan Austral, dont les 40e rugissants ont terrifié des générations de marins chevronnés, sont « aujourd’hui plus forts que jamais depuis 1.000 ans », indique l’étude de l’Australian National University (ANU).

« Le renforcement de ces vents a été particulièrement net au cours des 70 dernières années, et en combinant nos observations avec les modèles climatiques, nous pouvons clairement lier ce phénomène à la hausse des gaz à effet de serre », note Nerilie Abram, rapporteur de la recherche publiée dans la revue Nature Climate Change.

Les vents d’ouest, qui évitent les côtes est de l’Antarctique en le contournant, emportent de plus en plus d’air froid à mesure qu’ils forcissent, privant l’Australie — île-continent en proie à une montée constante de ses températures avec les sécheresses et les feux corrélés — de précieuses pluies.

« L’Antarctique défie la tendance. Tous les autres continents se réchauffent et l’Arctique est celui qui se réchauffe le plus vite », s’alarme la scientifique.

Pour parvenir à leurs conclusions, les chercheurs ont prélevé des carottes de glace en Antarctique, analysé les anneaux de croissance d’arbres en Amérique du Sud, ainsi que l’évolution d’eaux lacustres sur ce continent. Les données ont ensuite été traitées par le super-ordinateur Raijin de l’ANU.

L’évolution climatique est toutefois contrastée en Antarctique, résultat de l’influence complexe entre les vents et les courants.

Tandis que le centre de l’Antarctique reste froid, les vents d’ouest réchauffent la péninsule à un rythme inquiétant, bouleversant l’écosystème local avec par exemple la forte diminution des populations de manchots Adélie.

L’activité humaine est essentiellement responsable de ces changements, explique Steven Phipps, de l’univeristé de Nouvelle-Galles du Sud.

A partir des années 1970, la situation a été aggravée par l’élargissement du trou dans la couche d’ozone due aux chlorofluorocarbures (CFC) utilisés dans l’industrie.

« Même dans l’hypothèse d’un scénario (d’impact climatique) moyen, la tendance va se poursuivre au 21e siècle », prévient Steven Phipps.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

L’expédition 7e continent dans les déchets de l’Atlantique Nord !

Après le Pacifique Nord en 2013, l’expédition 7e continent, menée par Patrick Deixone était en route vers la Mer des Sargasses à bord d’un catamaran de 18 mètres. Les 9 membres d’équipage sont arrivés dans le gyre à la fin de ce week-end. Ils ont une semaine pour étudier les déchets plastiques et localiser les zones les plus polluées. L’équipage fera plusieurs prélèvements et mesures afin de mieux connaître l’impact de cette pollution sur les écosystèmes marins. Le retour au port est prévu vers le 25 mai.

Mieux caractériser la pollution du gyre Atlantique

La Gyroplastic est une bouée dérivante élaborée par les élèves-ingénieurs de l’ICAM Toulouse. Elle permettra de suivre les paramètres environnementaux des 30 premiers mètres de la colonne d’eau. Elle comprend notamment des capteurs de fluorimétrie, de luminosité, de températures et de conductimétrie à 1 m, 15 m et 30 m de profondeur. La bouée sera mise à l’eau environ une heure par jour pour faire les mesures. Les données collectées seront directement transmises au Centre national d’études spatiales (CNES) via Argos.

Les élèves de l’ICAM Toulouse ont aussi travaillé sur l’élaboration d’un capteur spécifique « plastique », qui est intégré à la bouée Gyroplastic. En différenciant les micro-déchets plastiques du plancton, il permettra de calculer la concentration des fragments de plastiques dans les zones de prélèvement. 

Trois autres bouées dérivantes du programme de suivi des océans Oceansites seront larguées sur le parcours et en particulier dans la zone du gyre. Elles permettront de mieux connaître les courants de surface dans la zone.

L’analyse des polluants présents dans la chaire des poissons et dans l’eau sera faite grâce aux capteurs de polluants du laboratoire des IMRCP de Toulouse. Il s’agit d’organogels microporeux qui ont la propriété de concentrer rapidement de grande quantité de polluants organiques : hydrocarbures, bisphénol A, phtalates, etc.

En parallèle de ces mesures, l’équipage quantifiera et caractérisera la grande faune marine rencontrée sur le parcours, mais aussi les macro-déchets ! L’équipe réalisera un documentaire tout au long de l’expédition pour ramener un témoignage. 

Enfin, l’expédition évaluera le potentiel des micro-ondes radar en bande.
Ce projet sera la première étude des macro-déchets en utilisant des systèmes radar. Si les résultats sont concluants, ces instruments seront envisagés pour surveiller les cinq gyres de la planète. 

Des actions pédagogiques importantes

L’expédition se veut pédagogique pour sensibiliser le grand public à la problématique des déchets en mer. Elle fait notamment participer de nombreux étudiants en France et aux Etats-Unis. Ceux-ci pourront s’impliquer grâce à l’exploitation de véritables données satellites fournies par le CNES dans le cadre du projet Argonautica. Le bateau est notamment équipé d’une balise Argos pour suivre sa progression en direct dans le gyre. L’expédition diffuse en plus régulièrement des contenus photos et vidéos dans son journal de bord pour faire vivre au jour le jour le trajet en Atlantique Nord sur www.septiemecontinent.com.

Cette année, l’Agence Seine Normandie s’associe à l’association pour faire passer le message. Elle organisera de nombreux événements locaux de ramassage et de comptage de déchets le long de la Seine. Pendant le temps de l’expédition, une équipe animera aussi des actions pédagogiques impliquant les collèges et lycées agricoles le long de la Seine pour lutter contre la pollution sur le long terme.

Par Matthieu Combe, journaliste scientifique

Interview : une nouvelle façon de produire de l’hydrogène avec des pierres et de l’eau

Apparemment la révolution de l’hydrogène est en marche. La voiture à hydrogène serait prévue pour 2015 et de nouveaux procédés de production voient le jour, tel que celui consistant à créer un catalyseur pour produire de l’hydrogène à partir du soleil et de l’eau (des matières premières, donc). 

Après une formation de base mixte physique-chimie/sciences de la Terre et avoir obtenu un doctorat en « sciences de la Terre », à l’université de Grenoble 1, Muriel Andreani a fait 4 années de postdoctorat (CDD de recherche) avant de réussir le concours de « maitre de conférences » a l’université Lyon 1 en 2008. Elle enseigne aujourd’hui en sciences de la Terre, au sein de « l’Observatoire des Sciences de l’Univers » (OSU), qui est une unité de l’université Lyon 1 et est rattachée, pour sa recherche, au Laboratoire de Géologie de Lyon (lgltpe.ens-lyon.fr), qui possède 3 tutelles: Lyon 1, l’ENS de Lyon et le CNRS.

  • Pouvez-vous présenter l’équipe qui travaille avec vous ?

Nous sommes une équipe spécialisée en minéralogie/pétrologie expérimentale, nous possédons un savoir-faire pour étudier les propriétés et la réactivité des roches sous haute pression et haute température. Ces conditions sont représentatives des environnements allant de la subsurface (ex. réservoirs, fond des océans) jusqu’au manteau terrestre.

Les personnes qui ont participé à l’étude qui nous concerne aujourd’hui sont: Isabelle Daniel, professeur de minéralogie à Lyon 1et directrice adjointe de l’OSU ainsi que Marion Pollet-Villard, étudiante de master 2, qui est désormais en thèse à Strasbourg, dans sa région d’origine.

 

 Quelles sont vos missions au sein du Laboratoire de Géologie de Lyon ?

Je m’intéresse de manière générale aux « interactions entre fluides et roches* » dans différents contextes géologiques. Ces interactions ont essentiellement lieu dans les premiers kilomètres de l’écorce terrestre, là ou l’eau liquide peut percoler. Cela peut donc concerner aussi bien des processus d’érosion des surfaces continentales que des problèmes liés au stockage de déchets ou de CO2. Bien sûr, la nature des réactions et leurs conséquences dépendent de la nature des roches et des fluides mis en présence.

Je travaille principalement sur les réactions qui ont lieu au fond des océans, à l’endroit où se situent les dorsales. C’est à ce niveau que l’on observe les plus belles manifestations d’interactions entre l’eau de mer et les roches du plancher océanique. C’est-à-dire au niveau des systèmes hydrothermaux océaniques (fumeurs). Les fumeurs sont de grandes cheminées de sulfures pouvant faire plusieurs mètres de haut. Elles se forment au niveau des dorsales, là où se localisent les sorties de fluides chauds après leur circulation dans le plancher océanique.

 

 Dans quel but ?

Notre objectif est de mieux comprendre ces réactions naturelles qui ont de nombreuses implications, fondamentales et sociétales. En voici quelques-unes :

  • Elles pourraient être a l’origine des premières molécules organiques, précurseurs de la vie.
  • Elles produisent en continue des minéralisations métalliques (sulfures) et des gaz (H2, CH4) d’intérêt économique.
  • Elles sont le lieu de stockage naturel du CO2 sous forme minérale (précipitation de carbonates minéraux).

*Il s’agit d’étudier les réactions chimiques qui ont lieu lorsque des roches rencontrent des fluides, c’est à dire des liquides comme H2O et/ou des gaz (ex : CO2, H2O vapeur).

 

 Comment procédez-vous ?

Mon approche est double : 

  • Je participe a des campagnes océanographiques qui étudient ces sites naturels et qui permettent de récupérer des échantillons de roches et de fluides à proximité des sources. Il peut s’agir de campagne en mers nationales, avec les moyens de la flotte française, principalement gérée par l’IFREMER. Dans ce cas, nous avons les moyens de faire des relevés géophysiques ainsi que des prélèvements d’échantillons rocheux et de fluides en sortie des cheminées hydrothermales. Pour cela, nous utilisons soit le Nautile et ses bras articulés, soit un petit robot nommé Victor. Il existe également des campagnes océanographiques internationales, gérées par le programme International Ocean Discovery Program (IODP); dont la devise est d’explorer la terre sous la mer. Dans ce cas, il s’agit le plus souvent de missions de forage du plancher océanique jusqu’à des profondeurs de l’ordre de 1,5 kilomètres maximum. De cette manière, des carottes de roches sont récupérées et peuvent être analysées.
  • J’essaie de reproduire ces réactions en laboratoire, pour mieux les comprendre, mieux prédire leurs conséquences et éventuellement les optimiser en vue d’applications sociétales. Cela nécessite une simplification du système au départ, pour aller vers des systèmes chimiques de plus en plus proches de la réalité. Au départ, nous avons juste de l’olivine et de l’eau, chauffée entre 200 et 300°C. Ensuite nous pouvons complexifier ce système en utilisant une eau dont la composition chimique est plus proche de la réalité. Dans notre cas, nous avons ajouté du Sel (NaCl) pour se rapprocher de l’eau de mer et nous avons rajouté une source d’Aluminium (Al), qui est un élément abondant des minéraux associés à l’olivine dans la nature.

Puis je compare en permanence les résultats obtenus avec ces deux approches pour avancer.

 

« De l’hydrogène produit avec des pierres et de l’eau » Pouvez-vous nous expliquer cette nouvelle méthode de production d’hydrogène ?

C’est au niveau des dorsales que cette réaction est la plus efficace. En effet, l’olivine réagit avec l’eau de mer chauffée en profondeur par l’activité magmatique sous-jacente (les dorsales étant des rides volcaniques). Cela produit un nouveau minéral à la place de l’olivine, la serpentine (verte, avec une texture maillée, de peau de serpent), en plus d’oxydes de fer et d’un dégagement de dihydrogène. On appelle cette réaction la « serpentinisation ».

Cela signifie que le Fer (Fe2+) contenu dans l’olivine s’oxyde au contact de l’eau de mer (un peu comme quand le fer rouille). Cela entraine la dissociation de la molécule d’eau (H2O) responsable de cette oxydation. Elle se réduit en Dihydrogène (H2) et en oxygène. Cet oxygène rejoint le fer pour former des oxydes de fer.

Cette méthode est directement inspirée des réactions naturelles observées depuis plus de 20 ans à certains endroits sur terre: le long des dorsales (au niveau des fumeurs), ou sur le continent là où des fragments de roches océaniques (roches de la lithosphère océanique) ont été exhumées par la tectonique des plaques. C’est le cas par exemple en Oman, ou en Nouvelle Calédonie. En bref, partout où des roches du manteau (péridotites, roches riches en olivine) sont mises en contact avec de l’eau chaude.

Cela suggère que cette réaction est très répandue, et qu’elle peut avoir lieu dans des conditions P-T assez variables. Il semble que la réaction soit efficace avec des températures comprises entre 200 et 350°C et des pressions allant de quelques centaines de bars à quelques kilobars. Cela a été reproduit expérimentalement.

Sur le continent, on observe des dégazages d’hydrogène que nous attribuons à cette même réaction pour des pressions de quelques dizaines de bars, et pour des températures qui seraient autour de 100°C. Mais cela n’a pas encore été reproduit expérimentalement.

 

 Comment l’idée est-elle née ?

Nous avons essayé de reproduire les réactions naturelles de production de Dihydrogène (H2), à partir des composants naturels. Les expériences précédentes ont été réalisées avec des systèmes chimiques plus ou moins simplifiés, et ont toujours abouti à des vitesses de réactions très lentes (de plusieurs semaines à plusieurs mois pour faire totalement réagir l’olivine).

Nous avons eu l’idée d’introduire de l’Aluminium (Al) dans notre réacteur car c’est un élément abondant dans les systèmes naturels, qui se trouve dans des minéraux fréquemment associés aux roches à olivine (dans des silicates comme le feldspath ou les pyroxènes par exemple).

Ce simple ajout d’Al accélère la réaction de 1 à 2 ordres de grandeur, ce qui la rend, pour la première fois, intéressante et envisageable à une échelle de temps industrielle.

 

 Quels sont ses avantages ? (source d’énergie propre…)

Cette réaction demande juste des pierres et de l’eau. Elle ne nécessite pas de réactif carboné, contrairement aux procédés actuels qui dominent la production de H2 : reformage de gaz naturels, ou d’hydrocarbures, et qui rejettent donc du CO2

La serpentinisation a lieu dans des conditions de températures relativement basses par rapport à la température normalement nécessaire à la décomposition de l’eau (>700°C). Les roches à olivine sont abondantes en mer mais aussi à la surface de la Terre. Pour donner une idée, en Oman, il existe environ 21 000 km³ de peridotites. Or la serpentinisation produit théoriquement 3 kilogrammes de H2 (soit 36 m³ en conditions ambiantes, standards) à partir d’1 m³ d’olivine. (soit 1g de H2 produit par Kg de roche).

 

 Comment ce procédé est-il susceptible de se développer dans un futur proche ? (utilisation industrielle ?)

Il est encore difficile d’identifier avec certitude des champs d’applications. Nous n’en sommes qu’au tout début. En effet, nous venons juste de trouver un moyen de rendre cette réaction envisageable, grâce à son accélération. La prochaine étape est de changer d’échelle – c’est-à-dire de reproduire cette réaction avec de plus gros volume – notamment dans un réacteur pilote, d’échelle intermédiaire entre nos expériences préliminaires de laboratoire et un réacteur d’échelle industrielle. Cela permettra aussi une meilleure estimation des aspects techniques et économiques – le « coût » étant un facteur déterminant à l’éventuelle exploitation de cette réaction. C’est pour cette raison que nous devrons nous entourer de spécialistes du domaine.

 

 Par quelles actions se traduit la coopération du CNRS et de l’École Nationale normale supérieure avec le Laboratoire de géologie de Lyon ?

Le laboratoire de Géologie de Lyon possède 3 tutelles: CNRS, ENS de Lyon et université Lyon 1. Cela se manifeste par 3 dotations de base et par du personnel affilié à une de ces 3 tutelles au sein du laboratoire. Le laboratoire possède également des locaux sur le campus de l’université et sur l’ENS de Lyon. les personnels se répartissant en fonction de leurs activités et de la disposition du matériel de recherche dont ils ont besoin.

Pour le présent travail, nous avons été en partie financé par une fondation américaine, qui finance un gros projet international pour la recherche sur le carbone, au sens large. Notre travail a été mis en avant sur leur site internet, où vous pourrez peut-être trouver des informations complémentaires :

deepcarbon.net/feature/scientists-discover-quick-recipe-producing-hydrogen

deepcarbon.net/feature/aluminum-catalyzes-serpentinization

 

 Ce procédé pourrait permettre de mieux comprendre l’origine de la vie. Pourquoi ?

Car l’origine de la vie nécessite la formation « abiotique » (cad. purement à partir de procédés non biologiques) de composés organiques (carbonés), précurseurs des molécules du vivant (ARN, ADN, etc..). Une source principale de carbone sur la terre primitive est le dioxyde de carbone (CO2 magmatique). Une façon de réduire ce CO2 en composés organiques (C-O-H-…) est de le faire réagir avec un puissant réducteur comme le dihydrogène.

La serpentinisation fournit ce dihydrogène, dans des zones océaniques, protégées des rayons UV, et ou le dioxyde de carbone est abondant. Les roches à olivine étaient aussi très abondantes sur la Terre à ses origines. Les conditions sont donc favorables à la production et à la préservation de composés organiques précurseurs. Ensuite, le passage de ces composés organiques aux molécules du vivant plus complexes n’est pas encore bien compris, mais les surfaces minérales pourraient jouer un rôle.

Par ailleurs, des écosystèmes (bactéries) primitifs, qui ont un métabolisme basé sur le dihydrogène, ont été observés au niveau des zones de serpentinisation. La vie peut donc perdurer dans ces environnements.

Un autre point intéressant, est que l’olivine est l’un des minéraux les plus abondants du système solaire. Il est notamment présent sur Mars, tout comme la serpentine. Une meilleure compréhension de ces réactions peut donc permettre de mieux comprendre l’évolution de planètes comme Mars, et en particulier la possibilité d’apparition de la vie, qui est peut-être similaire à celle de la Terre ?

Par Sébastien Tribot

Et aussi dans les
ressources documentaires :

Quel est le système électrique bas-carbone le plus pertinent sur le plan économique ?

Le dernier rapport du groupe III du GIEC met en avant trois technologies bas-carbone: les énergies renouvelables, les centrales thermiques fossiles avec séquestration du carbone et enfin le nucléaire.

Ne focaliser que sur le seul critère CO2 est très réducteur et il est préférable, comme le conseille par exemple le département énergie et atmosphère de l’université Stanford, d’adopter une approche environnementale et sanitaire multicritère.

Les ONG environnementales, comme par exemple Greenpeace, le WWF ou les Amis de la Terre sont bien conscientes des limites d’une analyse carbocentrique, raison pour laquelle ils font beaucoup de lobbying concernant le problème environnemental et sanitaire que constitue le nucléaire. Bien entendu sans sous-estimer la nécessité de réduire les émissions de gaz à effet de serre.

Le nucléaire est au contraire défendu par exemple bec et ongles par l’UFE, lobby des grands producteurs d’électricité français (EDF et GDF-Suez). Il est présenté comme un outil qui serait « indispensable » face au défi climatique. Il est d’ailleurs curieux que l’UFE, qui semble si soucieuse de protection de l’environnement quand celle-ci est compatible avec la logique du tout-nucléaire, fasse complètement l’impasse sur les autres problématiques environnementales et sanitaires incompatibles avec cette logique.

Un pays comme la Pologne, très dépendant du charbon qui lui permet d’échapper au gaz Russe, est de son côté très favorable à la technologie de capture et séquestration du CO2 (CCS, Carbone Capture and Sequestration).

Malgré les limites intrinsèques à une approche monocritère, quelle est la solution la plus pertinente sur le plan purement économique parmi les trois options bas-carbone retenues par le GIEC ? C’est à cette question que répond le dernier rapport que vient de publier le think tank Agora Energiewende, dont l’ancien directeur, Rainer Baake est devenu l’actuel secrétaire d’État à l’énergie du gouvernement fédéral Allemand.

Aller plus loin qu’une simple analyse du coût des différentes technologies et adopter un comparatif de systèmes électriques complets

Agora a comparé les trois options. Nucléaire nouvelle génération et gaz CCS ont le même coût et servent de référence (112 € de 2013 par MWh, selon l’accord britannique Hinckley Point C). Sur la base des tarifs d’achat (FIT) en vigueur actuellement en Allemagne, l’éolien terrestre est 50% meilleur marché que cette référence, et le solaire PV 34%. Le charbon CCS (plus de 126 €/MWh) est l’option la plus coûteuse.  Il s’agit pour Agora d’aller au-delà de ce constat et d’effectuer un comparatif intégrant les outils de flexibilité nécessaires pour une adaptation à la demande variable. D’un côté de la production fluctuante des EnR et de l’autre de la production en ruban du nucléaire.

Un mix électrique à base d’éolien et de solaire est 21% meilleur marché qu’un mix équivalent à base de nucléaire nouvelle génération

Agora a comparé deux mix électriques. Le premier est 50% éolien-solaire et 50% gaz. Le second est 50% nucléaire nouvelle génération et 50% gaz. Il s’agit dans les deux cas de turbines à gaz à cycle combiné. Résultat ? Le premier système, à base d’EnR, est 21% meilleur marché que le second, à base de nucléaire.

Ce résultat est le fruit de deux tendances. En premier lieu de la baisse très rapide des coûts du solaire PV ces dernières années et de la baisse corrélative des tarifs d’achat en Allemagne durant la même période. Ils ont chuté de 80% en 5 ans. En second lieu de la hausse des coûts du nucléaire afin d’atteindre les standards de sécurité exigés par les citoyens. Qui peut remettre en cause le bien-fondé d’une approche visant à ce que le nucléaire soit le moins dangereux possible ?

On peut faire le pari que le coût du nucléaire EPR baissera dans le futur. Mais alors, il faut aussi intégrer le fait que les coûts du solaire PV et de l’éolien vont également baisser. Le kWh éolico-solaire est et restera meilleur marché que le kWh nucléaire de 3ème génération.

Selon la Société Française de l’Energie Nucléaire (SFEN), « pour le CEA, les réacteurs de quatrième génération n’arriveront pas à maturité technique avant 2030 et seuls les réacteurs de génération 3, dont l’EPR, sont disponibles pour les besoins à court terme. » Même si la 4ème génération devrait permettre de résoudre le problème du franchissement du peak uranium 235, rien ne permet d’affirmer aujourd’hui que le kWh de 4ème génération sera meilleur marché que celui de la 3ème.

Des ressources éoliennes et solaires très abondantes, non limitantes

D’un point de vue théorique le potentiel technique du solaire et de l’éolien est très largement suffisant pour répondre intégralement aux demandes électriques Allemandes et Françaises.

Comme démontré dans l’étude « Studie zum Potenzial der Windenergienutzung an Land – Kurzfassung » réalisée par l’Institut Fraunhofer et le BWE, l’association allemande de l’énergie éolienne, 2% de la surface allemande en parc éolien terrestre, surface comprenant les espaces cultivables entre les éoliennes, est suffisante pour répondre aux 65% de la demande électrique totale du pays.

Quelle surface de panneaux solaires faudrait-il pour répondre intégralement à la demande électrique française ? Suite à la diffusion d’un reportage France 2 au contenu gravement erroné (la chaîne s’est ensuite officiellement excusée), Daniel Lincot, Directeur de recherche au CNRS et spécialiste du solaire photovoltaïque a effectué le calcul. Ceci pour le média indépendant ReporTerre fondé par Hervé Kempf, ex-journaliste environnement emblématique du journal Le Monde qui ne travaille plus pour ce grand quotidien suite à une polémique sur le dossier du gaz de schiste.

« La production électrique française s’élève annuellement à environ 550 TWh » rappelle Daniel Lincot. « L’énergie solaire qui arrive en moyenne par mètre carré et par an en France est de 1 à 1,3 MWh. La production électrique annuelle correspond donc à ce que reçoit en France une surface d’environ 500 km2 soit un carré de 25 km de côté » poursuit le scientifique. « Rappelons que la surface de la France est d’environ 550 000 km2. L’énergie solaire correspondant à la production électrique est donc reçue sur environ un millième de la surface du territoire français. Maintenant, si l’on considère des systèmes photovoltaïques présentant un rendement de conversion énergétique de 10%, ce qui est ce qui se fait couramment actuellement, la surface qui doit être mobilisée pour produire la même quantité d’électricité est de 5000 km2 soit un peu moins de 1% de la surface du territoire ! » affirme l’expert.

Une campagne visant à dénigrer les énergies renouvelables

1% de la surface française. Et non pas la totalité de la surface de l’Europe comme l’affirmait le journal de 20H de France 2 en présence d’une personne présentée pourtant comme un « expert énergie indépendant » et qui n’a pas réagit.

Daniel Lincot constate qu’il y a en France « une campagne inimaginable sur la question de l’énergie avec un dénigrement systématique du potentiel des énergies renouvelables. Je suis profondément bouleversé par un tel aveuglement » a confie ce véritable expert des EnR pour qui « un nouveau seuil dans la gravité a été franchi avec la communication de données SCIENTIFIQUEMENT FAUSSES » avec ce fameux 20H de France 2.

L’association Observ’ER, dans sa dernière Newsletter d’avril 2014, fait un constat similaire: « les critiques et commentaires en France sur la transition énergétique allemande sont souvent caricaturaux, quand ils ne sont pas tout simplement mensongers.»

Les atouts du nucléaire nouvelle génération (fleuron technologique national, production en continu, bon bilan carbone, réduction de la dépendance envers les combustibles fossiles importés, consommation d’uranium 235 inférieure à celle des réacteurs antérieurs par unité d’énergie électrique délivrée, faible consommation surfacique par unité de puissance installée) ne seraient-ils pas suffisants pour qu’il faille en venir à propager volontairement des réflexions biaisées ou complètement mensongères à propos des EnR ? Une véritable problématique de démocratie énergétique émerge alors. Est-ce aux citoyens ou aux grandes multinationales, complètement privées ou semi-privées, de décider de l’avenir énergétique d’un pays ?

Etant donné que l’on sait à présent construire des centrales solaires flottantes, s’inquiéter d’un manque éventuel de ressources solaire et éolienne relève en réalité de l’absurde. Dans le contexte post-Fukushima le groupe Kyocera vient d’inaugurer au Japon en novembre 2013 une centrale photovoltaïque offshore d’1,27 kilomètres-carrés, la plus grande du monde.

« Certains argueront encore que 5000 km2, c’est toujours trop » anticipe Daniel Lincot. « Pourtant sait-on que la surface couverte d’infrastructures en France (toitures, routes…) correspond à environ 30 000 km2, soit à peu près 5 fois plus que la surface nécessaire ? » interroge le scientifique.

L’éolien, le solaire, parfaitement complémentaires et déployables en masse très rapidement, ont un brillant avenir devant eux. A moindre coût pour le consommateur.

D’ailleurs, selon le quotidien de l’énergie Enerpresse, « l’Ademe devrait présenter début juin un scénario 100 % ENR en 2050. »

Par Olivier Daniélo

En savoir plus :

Les ressources pétrolières nord-américaines sont-elles compétitives ?

Il en résulte que les ressources nouvelles de pétrole que constituent les sables bitumineux de l’Athabaska canadien ou les condensats de gaz de schistes du Nord Dakota (Bakken), sont très éloignées du Golfe du Mexique, de la côte Ouest et de la côte Est américaines. Leur acheminement au mieux par oléoduc, parfois et dangereusement par rail, au sein du Continent altère profondément leur compétitivité.

L’AFP, après traduction d’un simple communiqué de la Société Transcanada, nous annonce laconiquement que les premières livraisons de pétrole dans le Golfe du Mexique en provenance de Cushing (Oklahoma) par l’oléoduc Keystone. Pour comprendre l’importance de cette nouvelle il me semble indispensable de situer cette étape au sein d’un ensemble beaucoup plus ample que constitue l’acheminement des ressources pétrolières abondantes du Nord du Continent américain vers le Golfe du Mexique. 

Le projet Keystone XL est en concurrence avec le réseau d’oléoducs d’Enbridge qui devrait atteindre Cushing cette année avec le pipeline Flanagan Sud provenant de l’Illinois. Ce projet Keystone XL a pour objet d’accroitre les capacités d’acheminement vers le Golfe des bitumes canadiens dilués ou transformés par hydrocracking, mais aussi de pouvoir collecter les condensats du Nord Dakota (Bakken) grâce à un itinéraire différent de celui du pipeline existant (Carte ci-dessous) et passant par Baker dans le Montana pour charger ces condensats.

Ce projet sur fond de chamailleries avec les élus républicains, vient d’être retoqué par l’Administration américaine et le Président Obama.

Dans une étude, publiée par Valero en Septembre 2013, de ces coûts de transport ramenées au baril de pétrole et comparativement au prix du baril de Brent, apparait l’importance des charges de transport sur le prix de revient rendu sur les cotes américaines (voir ci-dessous).

Par exemple, cette publication estime les coûts de transport par rail d’un baril de condensats de Bakken autour des 9 dollars par baril pour l’acheminer vers la cote Ouest ou vers l’Oklahoma et à 17 dollars par baril pour atteindre la cote Est, ce qui rend ici le produit rendu non compétitif par rapport à un pétrole livré au cours du Brent.

Ces données permettent de chiffrer l’importance financière de mise à disposition d’un réseau d’oléoducs sur l’ensemble du territoire américain, chargé d’acheminer les nouvelles ressources pétrolières vers les lieux d’utilisation.

Par Raymond Bonnaterre

Astuce du Web #7 : comment maîtriser les applications qui peuvent accéder à vos comptes

Contrôler l’accès à votre messagerie Gmail

Allez sur : google.com/accounts/

La liste des applications ayant accès à votre compte Gmail apparait. Il ne vous reste plus qu’à cliquer sur la droite sur « révoquer l’accès » pour bloquer les accès à l’appli.

Contrôler l’accès à votre messagerie Yahoo

Allez sur : yahoo.com/WSLogin/

Une liste des applications ayant le droit d’accéder à vos informations personnelles apparait. Il vous suffit de cliquer sur « Remove » pour annuler cet accès

Contrôler l’accès à votre compte Facebook

Allez sur : facebook.com/settings/

Idem, la liste des applications ayant accès à votre profil s’affiche.  Pour supprimer cet accès, cliquez sur « modifier » à droite en face de l’application visée puis sélectionnez « supprimer l’application » en bas, au niveau de la partie des mentions légales. Cochez enfin « supprimer toute votre acticité » et cliquez sur « Supprimer ».

Contrôler l’accès à vos tweet

Allez sur : twitter.com/settings/

La liste des applications s’affiche et comme pour Gmail, vous pouvez alors révoquer l’accès aux applications indésirables. 

Contrôler l’accès à Dropbox

Allez sur dropbox.com/account

Ouvrez l’onglet « Mes applications » pour accéder à la liste. Cliquez sur la croix en face de l’application à bannir.

Contrôler l’accès à Linkedin

Allez sur : linkedin.com/secure/

Les applications apparaissent et vous n’avez plus qu’à cliquer sur « Supprimer ».
Désormais, vous savez comment reprendre le contrôle sur toutes ces autorisations données. 

Par Audrey Loubens, journaliste scientifique

Et aussi dans l’actualité :

Les trous noirs sont-ils des portails vers d’autres Univers ?

Comment se forment les trous noirs ?

Le célèbre physicien Albert Einstein réfutait l’existence de trous noirs bien que ses calculs en admettent la possibilité. Désormais, la communauté scientifique s’accorde quasi-intégralement à reconnaître leur présence au sein du Cosmos. Mais, si les observations permettent de mieux les comprendre, ils continuent d’intriguer et de questionner autant qu’ils fascinent. 

De nos jours, on recense plusieurs types de trous noirs: le supermassif que l’on retrouve au centre même de chaque galaxie, l’intermédiaire, le stellaire et le primordial dont les physiciens estiment qu’il se serait formé dans les premiers temps de la formation de l’Univers. On les distingue par leur masse, qui peut atteindre plusieurs milliards de fois celle du Soleil. 

Celui dont on parle le plus communément est le trou noir stellaire. Il se forme lorsqu’une étoile – disons une dizaine de fois plus importante que le Soleil – n’a plus de combustible (hydrogène) à brûler. Son coeur est alors soumis à une gravité telle qu’il s’effondre sur lui-même, en un point appelé singularité gravitationnelle. La matière y est confinée avec une densité incroyable.

Détecter une singularité gravitationnelle et donc un trou noir est proprement impossible. En revanche, on peut observer ses effets, mesurer son influence sur son environnement au niveau de l’horizon du trou. 

Une nouvelle théorie

Actuellement et avec les données à disposition, les scientifiques estiment que ce qui rentre dans un trou noir se disloque automatiquement. À l’entrée d’un trou noir, la matière s’effondre. Ou plutôt la matière – y compris la lumière – capturée par les trous noirs ne peut s’échapper à cause de l’attraction gravitationnelle extrêmement  élevée.

Deux scientifiques, Jorge Pullin de l’Université de Louisiane et Rodolfo Gambino de l’Université de la République d’Uruguay ont formulé une nouvelle hypothèse. Publiée dans Physical Review Letter, la théorie défend que tout ce qui rentre à l’intérieur d’un trou noir arrive autre part, vraisemblablement dans un autre Univers. Selon eux, les trous noirs ne seraient que des passages. 

Ils l’expliquent simplement: « comme des poupées russes à l’échelle cosmique, notre Univers peut être niché dans un trou noir qui est lui-même un élément d’un Univers plus grand. En retour, tous les trous noirs trouvés jusqu’à aujourd’hui dans notre univers  – les microscopiques comme les massifs – peuvent être des portes vers des réalités alternatives ».

Songez que notre Univers contient des centaines de milliards de galaxies et probablement autant de trous noirs, et vous aurez une vague idée de l’étourdissement que cela peut provoquer. Car notre Univers ne serait qu’une bulle microscopique parmi une infinité de mondes.

Un trou noir peut-il donner naissance à un Univers ?

Là encore, l’idée a de quoi donner le vertige. Pourtant l’explication derrière ce phénomène paraît cohérente. On sait que les trous noirs emmagasinent la matière qui rentre dans leurs filets. Mais du fait même de leur nature – ce sont des espèces de tourbillons en ce sens qu’ils tournent sur eux-même – ils en expulsent aussi une grande quantité. 

Des jets de particules chauffés parcourent ainsi l’Univers sur des millions d’années-lumière à une vitesse proche de celle de la lumière. Puis vient le moment où ceux-ci refroidissent, c’est alors qu’ils constituent de nouvelles étoiles.

Le reste de la matière se condense dans la singularité. Un espace minuscule, invisible. Comme le dit l’article de Michael Finkel sur le site du National Geographic, « agrandissez-en une un billion de billion de fois, et le plus puissant microscope du monde ne parviendra aucunement à la voir. Pourtant, au moins au sens mathématique, quelque chose est là, qui n’est pas seulement petit mais dont la masse dépasse l’imagination. »

Et si l’on songe à la création de notre Univers suite au big bang il y a 13,8 milliards d’années et son expansion à partir d’une « singularité », il ne paraît pas si inconcevable que des trous noirs naissent des Univers.

Par Sébastien Tribot, journaliste scientifique

Habiter près d’un aéroport augmente le tour de taille (étude)

L’étude a porté sur la relation entre la santé de 5.000 habitants de la région de Stockholm, suivis pendant huit à dix ans, et le niveau sonore à leur domicile.

Six chercheurs du Karolinska Institute, spécialisés en médecine environnementale, médecine moléculaire et endocrinologie ont déterminé que plus ils subissaient le bruit des avions au quotidien, plus ils risquaient de gagner du ventre.

« Il s’agit d’une augmentation correspondant à 1,5 cm pour chaque hausse de 5 décibels du niveau sonore », a précisé la chercheuse qui a coordonné l’enquête, Charlotta Eriksson, dans un communiqué de son université.

Cette accumulation de graisse serait due aux hormones du stress, principalement le cortisol, produites en quantité d’autant plus grande que le bruit environnant est élevé.

Or « l’obésité abdominale est un facteur de risque aussi bien pour les maladies cardiovasculaires que pour le diabète, et comme une part importante de la population est exposée quotidiennement à des niveaux sonores élevés venus des transports, le bruit pourrait avoir des effets sur la santé plus forts qu’on ne le pensait jusque-là », a ajouté Mme Eriksson.

En revanche, habiter près de l’aéroport de Stockholm-Arlanda n’augmente pas le risque d’obésité (mesuré par l’indice de masse corporelle) ni de diabète, ont remarqué les chercheurs.

L’étude, la première qui ait tenté d’établir cette corrélation, a été publiée lundi dans le journal américain « Environmental Health Perspectives ».

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Cinq nouveaux perturbateurs endocriniens évalués par l’Anses

Durant les trois prochaines années, le Gouvernement demande à l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses) d’expertiser au moins une quinzaine de substances chimiques suspectées d’être des perturbateurs endocriniens. Dès 2014, les risques liés à au méthyl-parabènes, hydroxyanisole butylé (BHA), acide orthoborique, DINCH et DEHTP seront évalués.

Ces travaux s’ajoutent aux évaluations déjà en cours sur les perturbateurs endocriniens au sein de l’agence. Elle doit notamment rendre cette année ses résultats d’évaluation sur le méthyl tert-butyl éther (MTBE), le toluène, le n-hexane, le cis-CTAC et l’O-phénylphénol.

Les effets suspectés des perturbateurs endocriniens sur l’homme sont nombreux. On citera pêle-mêle : malformations des appareils reproducteurs, diminution de la distance ano-génitale, baisse du sex ratio et de la fertilisé. Ils seraient aussi à l’origine de pubertés précoces, de troubles du comportement, de troubles de la fonction thyroïdienne et du développement de cancers hormono-dépendants. Environ 500 substances sont suspectées d’être des perturbateurs endocriniens…

Que sait-on sur ces cinq substances ?

Les parabènes sont des conservateurs utilisés dans des aliments, des boissons, des cosmétiques et des produits d’hygiène (shampooings, crèmes hydratantes, mousses à raser, gels nettoyants, etc.). Ils sont suspectés d’affecter le système reproducteur, diminuer la fertilité et jouer un rôle dans l’obésité. L’INRS note le manque d’études sur l’homme et l’animal concernant la fertilité, l’exposition durant la grossesse,  puis durant l’allaitement. « Chez l’animal, aucune étude de reproduction sur une ou plusieurs générations n’est disponible. Les effets sur l’appareil reproducteur des jeunes mâles se limitent à une augmentation du nombre de spermatozoïdes anormaux, une baisse de poids des testicules », relève l’INRS dans sa fiche Demeter. Pour le traquer dans son alimentation, il suffit de chercher l’additif E218 ou son sel de sodium E219. Notons que le méthylparabène est le parabène qui a l’effet perturbateur endocrinien le moins élevé, comparé à l’éthylparabène, au propylparabène, à l’isopropylparabène, au butylparabène, à l’isobutylparabène et au benzylparabène.

Le BHA est un additif alimentaire utilisé comme conservateur dans des aliments et des emballages alimentaires, des  cosmétiques et des produits d’hygiène. On le retrouve notamment dans les cosmétiques riches en matières grasses : crèmes, lotions, baumes à lèvres, rouge à lèvre, etc. Il est suspecté d’avoir des effets cancérigènes et de perturber les hormones sexuelles. Une diminution de la fertilité est documentée sur plusieurs espèces animales. Pour l’éviter, on traquera ici l’E320 dans la liste des ingrédients.

L’acide orthoborique a de nombreuses utilisations industrielles et est utilisé dans des produits de consommation courante en tant que biocide, notamment dans les produits d’hygiène corporelle et les cosmétiques. Il est rarement utilisé dans les produits alimentaires, mais peut se retrouver comme conservateur dans le caviar et il porte alors le code E284. Il est aussi présent dans des jouets en plastiques, des adhésifs et des lubrifiants. « Le fœtus en développement et les testicules sont les principales cibles de l’acide borique chez de nombreuses espèces » note l’INRS dans sa fiche toxicologique.

Le DINCH et du DEHTP sont des substances utilisées pour fabriquer des plastiques dans des produits de consommation courante (jouets, articles de puériculture, etc.). Ils sont utilisés en replacement de trois phtalates qui sont des perturbateurs endocriniens avérés et dont l’utilisation est fortement réglementée: les DEHP, DBP et BBP. Ces deux substances ne sont pas suspectées d’être des perturbateurs endocriniens. II apparaît néanmoins indispensable à la ministre Ségolène Royale de vérifier que ces substituts ne présentent pas de risque.

Par Matthieu Combe, journaliste scientifique

Le Parlement interdit définitivement la culture du maïs transgénique en France

172 sénateurs -PS, écologistes, CRC (Communistes, républicains et citoyens) et une grande partie du RDSE (à majorité PRG)- ont voté conforme cette proposition de loi PS, 147, dont les UMP, s’y opposant. 23 sénateurs ne se sont pas exprimés. Au sein du groupe UDI-UC, 4 ont voté pour, dont l’ancienne secrétaire d’Etat à l’Ecologie de Nicolas Sarkozy, Chantal Jouanno, 8 contre et 20 se sont abstenus.

L’objectif de ce texte du député PS Bruno Le Roux est de « conforter, à travers un geste politique fort », la décision de la France d’interdire le MON 810, prise en urgence par arrêté à la mi-mars, avant la période des semis, ont souligné les orateurs de la majorité. « Je vous demande donc de l’adopter sans modification », a lancé le rapporteur de la commission des Affaires économiques, Daniel Raoul (PS).

En même temps qu’était examinée au Sénat cette proposition de loi, le Conseil d’Etat a rejeté une requête des producteurs de maïs, confirmant ainsi l’arrêté gouvernemental sur l’interdiction du MON 810.

L’article unique de la proposition de loi stipule que « la mise en culture des variétés de maïs génétiquement modifié est interdite sur le territoire national ». Il interdit ainsi par avance le maïs TC1507 (Pioneer-DuPont) qui pourrait être autorisé par l’UE. Si les Etats ont été majoritairement opposés à ce feu vert, ils n’ont pas atteint la majorité qualifiée, ce qui a relancé le débat sur le mécanisme européen d’autorisation des OGM.

Elle est identique à un texte du sénateur socialiste Alain Fauconnier, rejeté le 17 février au Sénat par une motion d’irrecevabilité UMP qui avait été soutenue par 171 sénateurs de droite, mais aussi du RDSE.

« L’intime conviction des membres du groupe RDSE n’est pas unanime », a reconnu lundi Robert Tropéano. « Nous pensons tous qu’il faut encourager la recherche pour avoir au plus vite des certitudes, il en va des OGM comme de tous les autres sujets ». « Mais en attendant, certains dont je suis voteront ce texte non sans avoir exprimé quelques réserves de droit », a-t-il ajouté.

En revanche, pour Joël Labbé (écologiste), « il y a bien lieu de légiférer sur cette question ». « J’y vois là un signe encourageant, entérinant la volonté de la France d’engager la transition de son modèle agricole et alimentaire vers l’agroécologie ».

« Le gouvernement essaie d’intervenir au nom d’une urgence et d’un risque non démontrés; cela l’entraîne sur une voie qui ne respecte pas entièrement la légalité », a accusé Jean Bizet (UMP) en annonçant que son groupe déposera devant le Conseil constitutionnel une saisine reposant sur ces arguments.

Le MON 810 est le seul OGM actuellement cultivé dans l’Union européenne. Son renouvellement d’autorisation est actuellement en cours d’examen par l’Union européenne, avec en parallèle des discussions pour revoir le processus d’évaluation des OGM. Les Etats de l’UE ont la possibilité d’interdire sur leur territoire un OGM autorisé par l’Union européenne.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Transcendence : Hollywood adore quand les machines prennent le pouvoir

Une intelligence artificielle qui surpasse le cerveau humain ?  Transcendence fait mieux en imaginant un ordinateur rassemblant l’intelligence de toute l’humanité réunie, et capable d’émotions. Johnny Deep joue le scientifique à l’initiative du projet,  dont l’esprit est « transcendé » dans un ordinateur hors normes. L’homme devenu machine  devient capable de contrôler tous les réseaux en lien avec internet. Détenteur de ce pouvoir colossal, l’entité mi-homme/mi-machine pourrait bien se prendre pour Dieu. 

Credit : Warner Brothers

Ce film, en salle dès le 25 juin, ouvre plusieurs débats. Tout d’abord, les machines deviendront-elles un jour suffisamment intelligentes pour surpasser l’homme ? Cette question est déjà obsolète puisque la réponse est positive. Pour preuve la victoire de l’ordinateur Deep Blue contre le champion d’échec Garry Kasparov en 1997.  Deuxième question. Sera-t-il possible un jour de télécharger un cerveau humain dans un ordinateur ? Cette fois, ceci reste de la science-fiction, même si les recherches sur le cerveau sont intenses. L’Europe a beaucoup investi dans le Human Brain Project, dont l’ambition est de modéliser le cerveau humain d’ici 2023 pour le simuler sur un super ordinateur. Nul ne peut prédire si ce cerveau virtuel aura une conscience, la notion même de conscience relevant de la philosophie plus que de la science. Troisième question. Comment fonctionnerait un tel ordinateur ? Agirait-il de façon raisonnée, ou les émotions prendraient-elles part aux prises de décision ? 

La question de l’homme-machine n’est pas nouvelle, et le cinéma s’est inspiré à de nombreuses reprises de ce sujet. Une thématique qui réussit au 7ème art avec des films cultes comme Robocop, Terminator ou encore Matrix.

Voir la bande annonce de Transcendence : 

Par Audrey Loubens, journaliste scientifique

Des agaves pour booster la production des panneaux solaires dans les déserts

Avec les biotechnologies actuelles, presque la totalité de la biomasse de l’agave, et d’autres plantes soigneusement sélectionnées, peut être convertie en éthanol cellulosique. Les scientifiques de Stanford ont réalisé une modélisation informatique de la co-production d’agave et d’électricité photovoltaïque en région désertique.

De l’eau partagée 

Les centrales photovoltaïques ont l’énorme avantage, comparativement aux centrales solaires thermodynamiques, de consommer très peu d’eau douce pour produire de l’électricité. Juste de quoi ôter la poussière des panneaux afin qu’ils produisent avec une efficacité maximale.

L’eau, au lieu d’être perdue, arroserait les agaves poussant juste en dessous. Et les agaves recouvrant le sol diminueraient la quantité de poussières soulevées par le vent et salissant les panneaux PV. Une belle synergie.

L’ombre des panneaux PV permet d’envisager l’installation de ces centrales symbiotiques bio-solaires au niveau de régions particulièrement arides.

« Cette approche serait particulièrement pertinente pour des régions comme le sud-ouest des USA » a déclaré Sujith Ravi qui réalise un post-Doc sous la houlette des professeurs David Lobell et Chris Field du Stanford Woods Institute for the Environment.

« Cela peut être un système gagant-gagnant » ajoute le chercheur . « L’eau est très limitée dans de très nombreuses régions du monde et cette resource va devenir une véritable contrainte dans le future. Cette approche permet de produire en même temps de produire de l’énergie et de faire de cultiver, avec la même eau. »

L’agave, appelée maguey au Mexique, est une plante qui était au cœur de la religion mésoaméricaine compte-tenu de sa capacité à croître dans des milieux très pauvres en eau douce et à offrir une sève sucrée (aguamiel) permettant de produire différentes boissons alcoolisées, dont le Mezcal.

Les paysages de cultures d’agave de l’état de Jalisco au Mexique, célèbres dans le monde entier pour la production du Tequila, ont d’ailleurs été inscrits au patrimoine mondial de l’UNESCO. Demain le Tequila sera peut-être solaire.

Par Olivier Daniélo

  • En savoir plus :

Tradeoffs and Synergies between Biofuel Production and Large Solar Infrastructure in Deserts : http://pubs.acs.org/doi/abstract/10.1021/es404950n

Et aussi dans les
ressources documentaires :

Accord franco-américain sur un satellite d’étude des étendues d’eau sur Terre

Dans le cadre la mission SWOT (Surface Water and Ocean Topography), ce satellite permettra également de cartographier la surface des océans et de mesurer leur niveau avec une précision sans précédent.

Les deux agences spatiales ont commencé les études sur la mission SWOT en 2009 et prévoient de conclure la conception du satellite en 2016 pour un lancement prévu en 2020.

« Cette mission (…) va permettre de développer de nouvelles façons d’observer et de comprendre notre climat qui change et les ressources en eau », a déclaré le patron de la Nasa Charles Bolden dans un communiqué. « Les données obtenues par le satellite SWOT aideront les décideurs à mieux analyser, anticiper et agir face aux événements qui affecteront les générations actuelles et futures », a-t-il ajouté.

Le satellite étudiera les lacs, les rivières, les réservoirs d’eau et les océans pour aider à gérer l’eau douce partout dans le monde et améliorer les modèles de circulation de l’énergie dans les océans, de météorologie et des projections d’évolution du climat.

La mission SWOT permettra de mesurer le niveau des océans avec une précision 10 fois supérieure à ce que permettent les technologies actuelles. Les scientifiques pourront ainsi étudier des phénomènes à petite échelle qui sont des composants clé de l’échange de la chaleur et du dioxyde de carbone (CO2) entre les océans et l’atmosphère.

La Nasa et le CNES ont commencé à collaborer sur des missions d’étude des changements à la surface des océans dans les années 1980.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

L’expérience la plus longue du monde

Démarrée en 1927 par le professeur Thomas Parnell à l’université du Queensland de Brisbane, en Australie, l’expérience de la goutte de poix avait pour but de montrer aux étudiants dudit professeur que la poix était un fluide de très haute viscosité, bien qu’elle semble être tout à fait solide et qu’elle puisse être cassante. N’importe quel liquide très visqueux semblant solide peut ici être considéré comme étant de la poix. Toujours en cours au sein de l’université australienne, cette expérience est la plus longue expérience en laboratoire, fonctionnant en continu, au monde.

Le protocole expérimental est relativement simple : le professeur Parnell a fait remplir un entonnoir (dont l’extrémité a été préalablement bouchée) avec du goudron chaud qu’il a laissé reposer trois ans, avant de retirer le bouchon de manière à ce que la poix puisse (ou non) s’écouler. Il aura fallu pas moins de huit ans pour que la première goutte ne tombe de l’entonnoir, et à peu près autant pour voir la seconde goutte tomber. L’expérience fut par la suite remisée dans un coin poussiéreux du laboratoire à la mort de Parnell, en 1954.

Réhabilitée et remise au goût du jour par John Mainstone (qui reçut le prix Ig Nobel pour cette expérience, ainsi que Thomas Parnell à titre posthume), l’expérience se déroule à température ambiante, bien que les conditions atmosphériques ne soient contrôlées que depuis 1988, année depuis laquelle la température est désormais stable. Les scientifiques estiment la viscosité de la poix de l’entonnoir à près de 230 milliards de fois celle de l’eau.

La huitième et dernière goutte est tombée le 28 novembre 2000 sans qu’aucun témoin ne puisse l’observer, le système de surveillance en continu par webcam étant alors tombé en panne. La neuvième goutte devrait tomber en 2013 ou 2014…

Par Moonzur Rahman

Appel pressant de l’ONU à agir pour réduire l’effet de serre

« Je les invite à annoncer de courageux engagements et actions qui catalyseront le changement dont nous avons besoin », a déclaré M. Ban à l’ouverture à Abou Dhabi d’une réunion ministérielle qui doit préparer un sommet sur le réchauffement climatique prévu le 23 septembre à New York.

« Si nous n’entreprenons pas une action urgente, tous nos plans pour accroitre la prospérité et la sécurité mondiales n’aboutiront pas », a-t-il prévenu devant un parterre de représentants des pays membres de l’ONU, réunis pendant deux jours dans la capitale des Emirats.

Un Groupe intergouvernemental d’experts sur le Climat (GIEC) a averti dans un rapport publié en avril à Berlin que limiter le réchauffement climatique à 2°C par rapport à l’ère pré-industrielle est encore possible, mais implique d’agir vite pour réduire les émissions de gaz à effet de serre de 40 à 70% d’ici 2050.

Sans changement majeur et rapide dans le mix énergétique mondial très dépendant du charbon et du pétrole, la hausse du thermomètre mondial sera de 3,7 à 4,8°C à l’horizon 2100, avertit le GIEC.

« La première priorité de l’ONU est maintenant de rendre ce monde durable non seulement économiquement et socialement mais aussi au plan de l’environnement », a rappelé M. Ban lors d’une conférence de presse.

En prévision du sommet de septembre, « j’invite les dirigeants (des pays membres) à venir à des objectifs courageux et ambitieux, et à catalyser et accélérer les actions sur le terrain », a-t-il ajouté.

De difficiles négociations internationales, impliquant les grands pollueurs dont les Etats-Unis et la Chine, doivent aboutir en 2015 à Paris à un accord ambitieux et contraignant pour réduire les émissions de gaz à effet de serre et financer les actions d’adaptation.

« Je suis confiant » quant à la possibilité d’aboutir à un accord en décembre 2015 à Paris, tout en avertissant que « plus nous tardons, plus nous payerons » le prix du réchauffement climatique.

La conférence d’Abou Dhabi, à laquelle participent des ministres, des chefs d’entreprises et de représentants de la société civile, doit clore ses travaux lundi, avec la mission de concevoir des mesures concrètes à soumettre au sommet de New York, prévu à la veille de l’ouverture de l’Assemblée générale de l’ONU.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Etats-Unis: mise en garde contre une faille de sécurité d’Internet Explorer

Une agence fédérale chargée de cybersécurité a affirmé avoir connaissance « d’exploitation active » de la faille de sécurité dans les versions 6 à 11 du navigateur de Microsoft.

Cette agence, qui dépend du ministère de la Sécurité intérieure, a conseillé aux internautes de prendre des mesures de sécurité et « d’utiliser d’autres navigateurs internet le temps qu’une nouvelle version officielle soit disponible ».

Les utilisateurs dont le PC fonctionne sous Windows XP pourraient être particulièrement affectés par le problème, car Microsoft a cessé au cours du mois de fournir des correctifs de sécurité pour ce système d’exploitation.

Microsoft a affirmé au cours du week-end que des pirates informatiques pouvaient, via cette faille, prendre le contrôle d’un ordinateur.

« Un assaillant pourrait créer une page internet spécialement pour exploiter cette vulnérabilité à travers Internet Explorer et convaincre ensuite un utilisateur de se rendre sur cette page », a expliqué Microsoft sur son blog spécialisé dans les questions de sécurité.

La firme spécialisée dans la cybersécurité FireEye, qui a revendiqué la découverte de la faille, a assuré de son côté que des pirates tentaient de l’utiliser via une campagne surnommée « Operation Clandestine Fox ».

Un faille de sécurité sur la protection des données cryptées, baptisée « Heartbleed », avait été découverte début avril. « Heartbleed » peut permettre à des pirates de récupérer dans la mémoire des serveurs informatiques des données fournies lors de connexions protégées.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Le sort du Soleil observé à travers une étoile en fin de vie

 Ce résultat, obtenu par une équipe internationale dirigée par un astronome de l’Observatoire de Paris, au Laboratoire d’études spatiales et d’instrumentation en astrophysique (Observatoire de Paris / CNRS / Université Pierre et Marie Curie / Université Paris Diderot) donne un aperçu du sort réservé à notre Soleil, une fois parvenu au stade terminal de son évolution. Il parait dans la revue « Astronomy and & Astrophysics », le 10 avril 2014.

L2 Puppis est une étoile géante rouge observable depuis l’hémisphère Sud, dont la masse est environ deux fois celle du Soleil. Formée il y a environ 1,5 milliards d’années, elle est bien plus jeune que le Soleil (âge de 4,6 milliards d’années). Mais du fait de sa masse plus importante, elle a brillé beaucoup plus intensément durant son existence, et a donc consommé plus rapidement son hydrogène. Son rayon, mesuré par les chercheurs à l’occasion de ces travaux grâce à l’interféromètre du Very Large Telescope (Cerro Paranal, Chili), est très grand, environ 120 fois la taille du Soleil. Sa luminosité est aussi très élevée, estimée à plus de 2 000 fois la valeur solaire. Une grande taille et une luminosité élevée sont deux propriétés typiques des étoiles qui, ayant épuisé la réserve d’hydrogène dans leur cœur, sont parvenues en fin de vie.

L2 Pup entre donc actuellement dans le “quatrième âge” stellaire. Par comparaison, le Soleil entrera dans cette phase dans 4 milliards d’années. Située à 210 années-lumière, elle est la plus proche des “vieilles” étoiles, ce qui en fait une cible de choix pour l’observation détaillée de son environnement proche.

Les chercheurs ont utilisé pour cela l’optique adaptative NACO du VLT, assortie d’une technique de traitement d’image dite d’imagerie sélective pour corriger les perturbations introduites sur les images par l’atmosphère terrestre. Plusieurs milliers d’images ont été enregistrées sur l’étoile en quelques minutes, chacune avec un temps de pose très court, de l’ordre d’un centième de seconde. Les images les moins affectées par les résidus de la turbulence atmosphérique ont été sélectionnées, recentrées précisément et combinées pour former une seule image, qui présente alors un bien meilleur niveau de détail qu’une seule longue pose. Elles atteignent pratiquement la limite théorique de résolution d’un télescope de 8 mètres, soit environ 40 millisecondes d’angle. Cela correspond à la taille apparente d’un ballon de football vu à une distance de 1 000 km.

La qualité exceptionnelle de ces images en infrarouge (longueurs d’onde entre 1 et 4 µm) a permis à l’équipe de découvrir un disque de poussière autour de L2 Pup, vu pratiquement par la tranche, ainsi qu’une boucle également constituée de poussière s’étendant jusqu’à une distance de plus de 800 millions de kilomètres de l’étoile.

La découverte du disque de poussière de L2 Pup est un pas important dans la compréhension de la fin de vie des étoiles de masses faibles et intermédiaires comme notre Soleil. Les mécanismes en jeu dans cette phase complexe sont encore mal connus, notamment la manière dont ces étoiles restituent leur matière au milieu interstellaire pour former des nébuleuses planétaires, ces enveloppes de gaz en expansion éjectées de l’étoile en fin de vie. La présence de ce disque de poussière, très probablement constitué de matière éjectée par L2 Pup, indique que l’environnement des étoiles évoluées est structuré spatialement. L’interaction du vent stellaire émis par une étoile comme L2 Pup avec le disque de poussière qui l’entoure, pourrait notamment expliquer la forme en “sablier” des nébuleuses planétaires bipolaires.

Au nord-est de l’étoile, une boucle de poussière a également été observée. Son origine est encore mal comprise. Elle pourrait être due à l’influence gravitationnelle d’une seconde étoile en orbite près de L2 Pup, qui a aussi pu jouer un rôle dans la formation du disque. Du fait de la très grande luminosité de l’étoile principale, ce compagnon reste pour l’instant caché. La deuxième génération d’optiques adaptatives à hautes performances comme l’instrument SPHERE du VLT permettra dès la fin de cette année de rechercher ce compagnon.

Référence
Ce travail de recherche fait l’objet d’un article intitulé « An edge-on translucent dust disk around the nearest AGB star, L2 Puppis », publié en ligne dans la revue européenne Astronomy and Astrophysics le 10 avril 2014

Collaboration
Ce résultat, fruit d’une collaboration internationale, implique la participation de cinq chercheurs de l’Observatoire de Paris : Pierre Kervella, Miguel Montargès, Guy Perrin, Sylvestre Lacour et Xavier Haubois.

Et aussi de :
Stephen T. Ridgway (National Optical Astronomy Observatories, Tuscon, USA)
Olivier Chesneau (Observatoire de la Côte d’Azur)
Andrea Chiavassa (Observatoire de la Côte d’Azur)
Alexandre Gallenne (Universidad de Concepcion, Chili).

Vidéo : l’astrophysicien François Bouchet commente la nouvelle théorie du Big Bang

C’était il y a un peu plus de quinze jours, pour la première fois, des observations du rayonnement fossile apportait la preuve de la théorie d’Einstein. Le bloggueur scientifique Dr Goulu nuançait cependant ces déclarations en faisant le point sur les ondes gravitationnelles.

François Bouchet, Directeur de recherche à l’Institut d’astrophysique de Paris, revient sur cette découverte lors d’une interview réalisée par universcience.tv

 

Réalisation : Olivier Boulanger
Production : Universcience

Avec la Fire TV, Amazon part à la conquête des salons américains

Depuis le 2 avril, le boîtier connecté conçu par Amazon, la célèbre plate-forme de vente en ligne, est disponible sur le sol américain pour 99 dollars. Il permet à son utilisateur d’accéder au service de streaming sur son téléviseur et ainsi retrouver parmi un catalogue respectable de 200 000 titres, les films, séries et musiques qu’il souhaite.

Le marché était déjà occupé par quelques acteurs bien connus. Alors pour se tailler une place parmi ses concurrents que sont Google (avec le Chromecast), Apple (avec l’Apple Tv) et Roku (avec son décodeur), Amazon mise sur plusieurs points:

  • Un usage aisé est primordial comme l’affirme le vice-président Peter Larsen « nous voulons offrir une expérience simplifiée aux utilisateurs ». Cela se traduit par différentes petites choses. Par exemple, pour la mise en route, il suffit de relier la box à la télévision via le port HDMI. La télécommande livrée avec le boîtier peut être utilisée vocalement grâce à un micro intégré, afin de fluidifier la recherche. La classification se fait par titre, genre, réalisateur… Qui plus est, vos goûts sont cernés. 
  • Des performances trois fois supérieures aux autres solutions sur le marché, d’après Peter Larsen. À cet effet, le boîtier dispose d’un processeur quad-core ainsi que deux gigaoctets de RAM. Ce qui est censé épargner le temps de chargement parfois long avant la lecture d’un film.
  • L’aspect ludique. Contrairement aux autres services, il est possible de jouer, moyennant 40 dollars pour l’achat de la manette Fire Game Controller. Car Amazon développe ses propres jeux à travers Amazon Game Studios « nous avons embauché quelques-uns des meilleurs designers et artistes du monde » et s’est entouré d’éditeurs prestigieux tels qu’Electronic Arts, Disney, Ubisoft…
  • Un contenu important et parfois exclusif, via Prime Instant Video. Le service de streaming, en plus de bénéficier d’un catalogue bien fourni, se met à la production. Autre avantage, les détenteurs de la box d’Amazon seront les seuls à pouvoir visionner sur internet la série 24 Heures Chrono ainsi que sa nouvelle saison, diffusée à partir du 5 avril. Mais le point d’orgue de leur argumentation vient, évidemment, du fait que la Fire TV « repose sur un écosystème ouvert »; autorisant l’accès à YouTube, Netflix (à condition d’y être abonné), Hulu, Pandora et d’autres. 

On aurait pu croire la télévision obsolète, voire HS, remplacée progressivement par internet, mais voilà, c’était sans compter ces pointures précitées plus haut. Amazon, au même titre que Google et Apple, a su faire évoluer la télévision par le biais des boîtiers connectés et lui apporte du même coup une fraîcheur dont elle avait grandement besoin. 

Par Sébastien Tribot

Comment « décarboner » la Chine, les USA ou l’Afrique du Sud d’ici à 2050 ?

L’ambition de cette initiative est d’aider la communauté internationale à progresser dans la lutte contre le changement climatique. La mobilisation, très insuffisante aujourd’hui, doit monter en puissance d’ici la conférence de Paris fin 2015.

A cette date, la communauté internationale s’est donné comme objectif de parvenir à l’accord le plus ambitieux jamais conclu sur les émissions de gaz à effet de serre (GES) à l’horizon 2025 ou 2030.

Le Deep Decarbonization Pathways Project (DDPP), lancé par l’Institut du développement durable (Iddri) et le Sustainable development solutions network (créé par l’ONU) en coopération avec l’Agence internationale de l’énergie (AIE), mobilise 30 institutions dans 15 pays représentant 75% des émissions totales de GES.

Il s’agit de l’Afrique du Sud, Australie, Allemagne, Brésil, Canada, Chine, Corée du Sud, France, USA, Inde, Indonésie, Japon, Mexique, Royaume-Uni et Russie.

Les chercheurs doivent répondre à la question: à quelles conditions tel ou tel pays peut parvenir, à l’horizon 2050, à plus ou moins 2 tonnes de GES par habitant et par an?

Cette moyenne permettrait de contenir le réchauffement à 2°C par rapport à l’ère pré-industrielle, l’objectif que s’est fixé la communauté internationale.

Il s’agit alors de préciser les modalités de cette transition énergétique comme les changements techniques, le style de production, ou les modes de consommation, ainsi que les contraintes et obstacles rencontrés par chaque pays.

En 2010, un Américain émettait un peu de plus de 17 tonnes de CO2 par an, un Chinois plus de 6 tonnes, un Français 5,7 et un Indien, 1,6.

L’idée est « de faire réfléchir chaque pays à sa trajectoire de décarbonation » et ancrer les négociations sur le climat dans « une logique à long terme », a expliqué mardi lors d’une conférence de presse Laurence Tubiana, présidente de l’Iddri.

En présentant les scenarios « les plus ambitieux possibles », ce projet pourrait aussi aider à tirer vers le haut les ambitions des différents pays en matière de réduction ou limitation d’émissions de GES.

Même si, précise Laurence Tubiana, ce projet relève de la « recherche » et « n’est pas destiné à préparer les soumissions des pays » dans le cadre des négociations climat, « les résultats préliminaires seront communiqués avant le sommet de Ban Ki-moon (secrétaire général de l’ONU) en septembre à New York » sur le climat.

Le rapport final sera lui transmis courant 2015 à la présidence française de la conférence de Paris.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Le gouvernement s’attaque aux perturbateurs endocriniens

Une stratégie nationale contre les perturbateurs endocriniens, ces substances chimiques capables de modifier le fonctionnement hormonal et d’avoir des impacts sur la santé, a été adoptée dans la matinée par le Conseil national de la transition énergétique (CNTE), une instance réunissant experts, associations, syndicats, entreprises et élus.

Cette stratégie, promise lors de la première conférence environnentale du quinquennat en septembre 2012, prévoit notamment de « soutenir la recherche », « développer l’innovation dans l’industrie » en promouvant des produits de substitution non toxiques ou « améliorer l’information des citoyens ».

Avant même la publication de cette stratégie « dans les tout prochains jours », Mme Royal a par ailleurs mis en avant des mesures qu’elle souhaiterait être rapidement mises en oeuvre.

Elle va demander aux entreprises de distribution et aux banques d’éliminer le bisphénol A dans les tickets de caisse et reçus de carte bancaire, « sans attendre des normes ou des lois ». La France doit? par ailleurs, « dans les prochaines semaines » proposer à l’Union européenne de « demander la substitution du bisphénol A » dans ces tickets.

La ministre souhaite aussi un renforcement des contrôles concernant l’éventuelle présence dans les jouets de phtalates, une substance interdite pour tous les jouets destinés aux enfants de moins de trois ans au niveau européen.

Mme Royal a enfin demandé à l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses) une expertise ciblée sur cinq substances « suspectées d’être des perturbateurs endocriniens », dont les methyl-parabènes, utilisés comme conservateurs dans les aliments ou des produits pharmAceutiques.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Et aussi en
formation :