Le marché du pétrole en 2015

« Une demande dont la croissance reste modérée et une offre qui continue de croître à un rythme soutenu ont modifié l’équilibre du marché », insiste Olivier Appert, Président d’IFP Energies Nouvelles. « Sur les 4 trimestres de 2014, la production pétrolière mondiale a systématiquement excédé la demande de 0,5 à 1 million de barils jours et, en 2015, on estime que l’offre sera en excédent de l’ordre de 2 millions de barils jours sur le 1er semestre et de 1 million de barils jours sur le 2e semestre », résume-t-il.

«On peut estimer qu’un prix d’équilibre en 2015 pourrait se situer entre 50 à 70 $ par baril pour écouler les excédents et équilibrer l’offre et la demande », prévient-il. Cette perspective engendre des pertes financières importantes pour les compagnies pétrolières, les pays producteurs et engendre un stockage considérable.

L’OPEP ne veut pas prendre à sa charge la baisse de production

L’excès de l’offre provient essentiellement des pays non membres de l’Organisation des pays exportateurs de pétrole (OPEP). « La production des pays non membres de l’OPEP depuis 2010 s’est accrue deux fois plus vite que celle des pays de l’OPEP, particulièrement tirée par le développement des pétroles de schistes ou Light Tight Oil aux Etats-Unis », nous éclaire Olivier Appert. 

Dans ce cadre, l’OPEP a annoncé le 27 novembre 2014 qu’elle refusait de baisser sa production. Les 12 membres de l’Organisation envoient ainsi un message clair : ils ne laisseront pas leurs parts de marché à leurs concurrents (notamment la Russie, les Etats-Unis et le Brésil) quitte à engendrer une baisse de prix significative du baril sur le marché. Pourquoi baisseraient-ils leur production si les autres acteurs ne le font pas ?

Un bras de fer s’ouvre alors entre l’OPEP, menée par l’Arabie Saoudite, et les autres pays pour que tous les acteurs prennent en charge leur part dans la baisse de production. « Ils vont réussir à tuer le LTO aux Etats-Unis et ils savent que Barack Obama va faire pression sur les producteurs américains pour qu’ils diminuent leur production », analyse Olivier Appert. S’ils y arrivent, « le marché rebondira, comme cela a été le cas en 1987, en 99-2000 ou en 2009 », prévoit-il. Sinon, la situation pourrait devenir compliquée pour tous les acteurs.

Le pétrole de schiste, premier menacé ?

L’institut français des relations internationales rappelle que pour le pétrole de schiste, « la production est caractérisée par un déclin très rapide de la production initiale par puits (entre 60 et 90 % la première année), qui requiert des investissements en continu dans de nouveaux puits pour maintenir/accroître la production ». Et précise que « ce déclin très rapide induit une forte dépendance des projets au prix du brut de la première année de production, contrairement aux pétroles conventionnels, dont l’économie est fondée sur des durées beaucoup plus longues ». Ainsi, la chute des prix du baril entraîne une baisse importantes des investissements et fait craindre une chute de la production. 

La baisse des prix a déjà engendré une baisse des demandes de permis de forages aux Etats-Unis, notamment au Texas et dans le Dakota du Nord. On constate ainsi une véritable réduction des investissements qui peut atteint entre – 10 % et  – 50 % pour les pétroliers indépendants les plus touchés. « Les effets sur la production des LTO dont le développement de la production nécessite d’investir très régulièrement dans de nouveaux puits pourrait se faire sentir d’ici le mois de Juin », assure Olivier Appert.

La valeur en bourse de nombreuses compagnies et entreprises parapétrolières est d’ores et déjà fortement impactée. « La baisse de la valeur en bourse de nombreuses sociétés crée un climat propice à des achats ou regroupement dont les annonces pourraient bientôt se succéder au cours des prochains mois », prévient Olivier Appert.

Néanmoins, pour le moment, les pétroles de schistes américains ne semblent pas menacés sur le court-terme. « On peut estimer qu’une baisse des investissements de 20 à 40 % en 2015 sur ce type de ressources limiterait la production en 2015 entre 4,2 et 4,9 millions de barils par jour, soit un niveau comparable à 2014, mais inférieure aux prévisions de 5 millions de barils par jour », affirme Olivier Appert. 

On s’aperçoit que même si les prix et les investissements baissent, la production se maintient , car les progrès techniques ont conduit à une baisse des coûts de production entre 20 % et 40 % en 5 ans. « Le business model des LTO aux Etats-Unis est une séance expérimentale, personne n’a d’idées sur la résilience du système », reconnait le Président d’IFP Energies Nouvelles.

Les coûts de production varient considérablement selon les puits, en fonction des propriétés géologiques, de 25 $/baril jusqu’à 80 $/baril. « Mais quelle est la part de la production américaine qui reste compétitive, avec un coût de production inférieur à 50 $/baril? Je crois qu’aujourd’hui personne ne le sait réellement », prévient Olivier Appert.

Les pays producteurs en pâtissent, les pays consommateurs jubilent

La baisse du prix du brut engendre également des difficultés budgétaires et économiques pour les pays producteurs. Avec un prix plus faible, les budgets de ces états ne sont plus à l’équilibre. Pour certains, la situation peut même rapidement devenir critique. «Pour un pétrole  à 60 $, les pertes de revenus se situent à 2,7 % de PIB pour les pays exportateurs, mais cela peut aller jusqu’à 10 % de PIB pour certains pays du Moyen-Orient», assure Olivier Appert. 

En Russie, avec prix à 60 $/baril sur l’ensemble de 2015, les pertes sur les exportations de pétrole et de gaz, atteindraient près de 150 milliards de dollars, soit une baisse équivalente à 7% du PIB national. De plus, le rouble connait actuellement une dépréciation considérable, entraînant une baisse supplémentaire de l’activité économique du pays. 

A l’opposé, les pays consommateurs bénéficient de la situation. En moyenne, le gain est estimé à 1 % de PIB pour l’ensemble des pays importateurs et pourrait atteindre jusqu’à 1,6 % pour le Japon. En France, la facture pétrolière et gazière devrait baisser de 15 milliards d’euros en 2015, soit 0,7 % du PIB (si le prix du baril de pétrole tourne autour de 60 $ et le gaz à 7 $/MBtu). « Notre facture énergétique resterait néanmoins déficitaire à hauteur de 48 milliards d’euros », rappelle Olivier Appert. La nécessité d’assurer notre transition énergétique n’est donc heureusement pas remise en cause par cette situation !

Par Matthieu Combe, journaliste scientifique

Le signal radio en provenance de l’espace continue d’intriguer

Les chercheurs de l’observatoire de Parkes, basé en Australie, ont pu capter pour la première fois en temps réel quelques millisecondes d’un signal radio dont l’origine demeure pour l’heure inconnue. La source de ce « sursaut radio rapide » serait située à une distance estimée à 5,5 milliards d’années-lumière de la Terre. En dehors de la galaxie donc. Peut-être à proximité de la constellation du Verseau.

Ce n’est pas la première fois que de tels signaux sont captés, mais ils ne l’avaient encore jamais été en direct. Là encore, l’organisation fédérale australienne pour la recherche scientifique et industrielle (CSIRO) fait figure de précurseur. C’est elle qui, la première, s’est aperçue et questionnée sur la provenance des « fast radio bursts » ou « sursauts radio rapides ». En 2007, pour être précis.

Pourquoi ce signal radio est-il si mystérieux ? Parce que les chercheurs n’ont toujours pas d’explication concernant l’origine des signaux, huit mois après avoir été enregistrés. L’étude publiée récemment sur la revue Monthly Notices of the Royal Astronomy Society n’apporte pas de réponse. Elle indique toutefois qu’une cause probable pourrait être l’effondrement d’une étoile à neutrons surdimensionnée, si grande qu’elle aurait engendré un trou noir.

Seule certitude, l’événement qui a provoqué ce phénomène a dû être colossal. Une seule milliseconde aurait potentiellement produit autant d’énergie que le Soleil en 24 heures. C’est en tout cas ce que semble croire Mansi Kasliwal, docteur et astrophysicienne de la fondation de Washington Carnegie Institution for Science (CIS).

En attendant de nouvelles observations et on espère, la résolution de ce mystère, on laisse le soin aux chercheurs de se tordre les méninges pour nous.

Par Sébastien Tribot

Reach/CLP : toute l’actualité de février

06/02/2015

Vous êtes une PME et vous envisagez de demander une autorisation pour l’utilisation d’une substance extrêmement préoccupante? Vous avez encore des questions sur la procédure d’autorisation ? Pourquoi ne pas poser ces questions à l’ECHA ?

L’ECHA se tiendra à votre service le 25 février 2015 de 10h à 12h et vous apportera un soutien, dans votre langue.

Réservez dès à présent votre créneau horaire (jusqu’au 18 février) pour un entretien téléphonique et communiquez à l’avance vos questions à l’ECHA. Vous serez appelé par l’ECHA à l’heure convenue.

1102/2015

Le comité des produits biocides adopte 13 avis

Au cours de sa neuvième séance plénière au début de Février, le comité des produits biocides ( BPC ) a adopté 13 avis . Ces avis portent sur cinq substances actives dans 10 types de produits .

Les avis adoptés concernent les substances actives utilisées dans les produits biocides utilisés comme désinfectants , insecticides, produits de préservation du bois, des produits antisalissures, des fongicides et des conservateurs. Les opinions seront disponibles à partir du lien ci-dessous dans un avenir proche.

La géo-ingénierie n’est pas suffisante pour lutter contre le réchauffement (experts)

Des stratégies visant à retirer du dioxyde de carbone (CO2), principal gaz à effet de serre, de l’atmosphère sont limitées par leur coût et par l’immaturité technologique, ont estimé ces experts dans deux rapports publiés mardi.

Mais la géo-ingénierie pourrait contribuer à un large éventail de mesures destinées à lutter contre le réchauffement climatique en y consacrant davantage de projets de recherche et de développement, ont-ils souligné.

Il serait néanmoins « irrationnel et irresponsable » de recourir à la géo-ingénierie sans mettre en oeuvre des mesures de réduction des émissions de CO2, gaz surtout produit par la combustion d’énergies fossiles.

Selon eux, les technologies visant à accroître la capacité de la Terre ou des nuages à refléter les rayons du Soleil présentent des risques considérables et ne devraient pas être déployées à ce stade. Elles consistent à procéder à des injections d’aérosols dans la stratosphère et à éclaircir les nuages marins grâce à des particules d’eau de mer injectées en grande quantité.

En outre, ces interventions n’auraient qu’un effet temporaire et présenteraient des risques environnementaux, sociaux et politiques importants.

Les experts ont relevé que les avantages et les risques des techniques pour retirer le CO2 de l’atmosphère –comme la séquestration– étaient bien compris, mais les technologies actuelles nécessiteront des décennies pour obtenir des résultats moyens et leur coût serait exorbitant pour les déployer à des échelles suffisamment grandes pour avoir un impact.

« Le fait même que les scientifiques considèrent le recours à la géo-ingénierie devrait être vu comme une sonnette d’alarme nous disant qu’il faut faire davantage pour réduire les émissions de gaz à effet de serre, la façon la plus efficace et la moins risquée de combattre le changement », relève Marcia McNutt, rédactrice-en-chef de la revue Science et ancienne directrice de l’Institut américain de géophysique. Elle a présidé le comité qui a produit ces rapports.

« Mais plus nous attendons, plus il sera probablement nécessaire de déployer certaines formes de géo-ingénierie pour retirer du CO2 de l’atmosphère et limiter les pires effets du changement climatique », a-t-elle prévenu.

D’où l’importance de faire davantage d’études pour améliorer l’efficacité des capacités actuelles, qu’elles soient plus favorables à l’environnement et moins coûteuses.

Ces deux rapports devraient guider les agences fédérales dans le choix des recherches à financer dans ce domaine, tout en gardant séparé le processus de décision pour les déployer.

Ce projet a été parrainé par l’Académie américaine des sciences, les agences du renseignement, la Nasa, l’Agence nationale océanique et atmosphérique ainsi que par le Ministère de l’Energie.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Climat: 80% des Français attribuent le réchauffement à l’homme (sondage)

Dans une enquête réalisée en 2010 par un autre institut de sondage, les climatosceptiques niant la responsabilité de l’homme dans le réchauffement dont la vitesse est inédite représentaient 26%.

Une écrasante majorité de personnes interrogées (89%) affirment aussi avoir « l’impression » que « le climat a changé » au cours des 20 dernières années: « oui tout à fait » pour 40% et 49% « oui plutôt ».

Interrogés sur leur perception du changement climatique, 75% des sondés disent avoir observé des inondations plus fréquentes et 56% affirment ressentir la hausse de la température moyenne.

Si l’augmentation du thermomètre est une constatation faite à l’échelle du globe, l’impact actuel du changement climatique sur la fréquence des inondations est moins évident, même à l’échelle de l’Europe.

Les scientifiques relèvent par exemple une augmentation des sécheresses en Europe du Sud mais aussi des épisodes de pluies plus intenses, qui peuvent se traduire par des inondations.

Les inondations sont par ailleurs très liées à l’urbanisation et aux pratiques agricoles (déforestation, etc.).

Concernant la conférence de l’Onu sur le climat fin 2015 à Paris-Le Bourget, seulement 22% des Français disent connaître précisément le but de ce rendez-vous, 35% en ont entendu parler sans savoir précisément ce dont il s’agit et 43% n’en ont pas entendu parler.

La conférence Paris-Climat 2015 doit aboutir à un accord universel entre 195 pays pour limiter la hausse du thermomètre de la planète.

Sur la possibilité d’agir pour freiner le réchauffement en cours, 71% estiment pouvoir agir personnellement, 29% estimant ne rien pouvoir faire au niveau individuel.

Quant aux grandes entreprises, peuvent-elles agir de manière efficace contre le dérèglement? « Oui tout à fait » pour 40% des sondés, « oui plutôt » pour 37% et non pour 23%.

A la même question mais appliquée aux PME, les Français sont 26% à répondre « oui tout à fait » et 45% « oui plutôt ».

Sur la mobilisation des entreprises françaises dans la lutte climatique, 65% estiment qu’elles sont peu mobilisées.

Le sondage a été réalisé par internet auprès de 995 personnes du 19 au 26 janvier 2015 selon la méthode des quotas.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Une nouvelle technique d’acquisition d’images pour reconstituer un visage en 3D

Les techniques d’acquisition d’image existent déjà, plus ou moins développées. On peut citer en exemple la technologie EOS de stéréoradiographie 2D/3D qui offre aux chirurgiens une bonne image des os de leurs patients en 3D et permet l’impression 3D de prothèses. Mais celle-ci est d’un genre nouveau.

Des bandes de lumières sont envoyées par un projecteur sur la chose à scanner. Ces lignes lumineuses alternent avec des lignes sombres dans une sorte de motif clair/obscur. Elles forment pour Jorge Luis Nuñez Flores, concepteur du logiciel de composition d’image tridimensionnelle, et son équipe, une grille d’information binaire que la caméra – second outil indispensable à cette technique – capture. Alors que cette opération est réalisée à plusieurs reprises, huit filtres de différentes teintes de gris sont diffusés. Grâce à cela, l’image acquiert un volume, une texture ainsi qu’une bonne définition. C’est à ce moment qu’intervient le logiciel de Jorge Luis Nuñez Flores, une fois toutes les données en sa possession, pour modéliser l’image en 3D.

Les chercheurs comptent utiliser cette technique afin de modéliser des pièces mécaniques anciennes ou des antiquités que les musées pourraient utiliser et ainsi exposer des répliques d’objets d’art à la valeur inestimable et dont la manipulation stipule une extrême précaution. Les visiteurs auraient la possibilité de prendre dans leurs mains ces répliques exactes, témoins d’un événement ou d’une époque, et les spécialistes pourraient les observer dans le cadre d’études ou encore pour confirmer ou non certaines légendes. Il reste cependant à accorder le logiciel avec les technologies d’impression 3D actuelles pour rendre concret ce projet et donner corps aux objets numérisés.

Par Sébastien Tribot

L’éclairage public devient intelligent

L’Agence de développement économique de la province de Liège, en a fait l’amer constat dans les 43 parcs d’activités économiques qu’elle gère. Pour soulager le portefeuille des communes, qui règlent dans ce cas de la douloureuse, elle a demandé aux spécialistes de l’ULg de mettre au point au système d’éclairage intelligent. Capable de se faire discret si l’endroit est désert, mais de se réanimer rapidement en cas de mouvement. Les bases de SmartNodes étaient jetées.

Pistés par les lampadaires

Le fruit des recherches de cette spin-off, officiellement constituée en octobre dernier, ne saute pas d’emblée aux yeux. Dans le zoning de Tirlemont, où en cette fin d’après-midi assombrie seuls quelques canards manifestent leur présence, les réverbères n’ont rien d’extraordinaire. Fidèles à leur job, ils projettent un léger halo sur le sol bétonné.

Au loin, un vélo arrive. Les uns après les autres, ces halos semblent se raviver au fur et à mesure de la progression du deux-roues, puis pâlir progressivement une fois qu’il s’éloigne. Illusion d’optique ? L’effet est au contraire bien calculé. Perchés à côté des ampoules, des capteurs sont à l’affut de toutes informations pertinentes. L’identité de l’usager (cycliste, piéton, voiture, motard ?) est repérée, tout comme la vitesse à laquelle il circule et le sens vers lequel il avance.

Bulle lumineuse

Une fois emmagasinées, ces données sont communiquées au boîtier de la lampe voisine. Et ainsi de suite jusqu’à la fin du parcours. « Ces microprocesseurs vont permettre de générer une bulle lumineuse qui va se « déplacer » à la vitesse du client », résume Jacques Destiné, professeur émérite à l’Institut Montefiore d’électricité, électronique et informatique, qui a mis au point cette technologie. « On n’éclaire que là où il faut, quand il faut », ajoute-t-il. Ainsi un promeneur sera mis en lumière devant et derrière lui, parce qu’il pourrait se retourner assez rapidement. Par contre, les ampoules faibliront plus vite après le passage d’une voiture. Mais dans tous les cas, jamais elles ne s’éteindront complètement. Elles se règlent plutôt au minimum, histoire de ne pas provoquer un éventuel sentiment d’insécurité.

SmartNodes n’est évidemment pas la première à s’aventurer sur le chemin porteur de l’éclairage intelligent. De grands groupes, comme Schréder ou Philips, jouent déjà sur ce terrain. Mais la spécificité de la spin-off réside dans sa décentralisation. Tous ses concurrents ont opté pour un système organisé autour d’un ordinateur central, qui récolte les informations et les transmet à chaque point lumineux. Tandis que la société liégeoise mise sur la communication entre réverbères.

Jamais de blackout

« Cette approche nous permet d’obtenir des temps de réponse très courts, expose Jacques Destiné. Si toutes les données devaient être rediffusées vers un ordinateur, la réaction serait moins rapide ». Pratique aussi en cas de panne : le système n’est pas complètement à l’arrêt, mais les informations sont simplement transmises au lampadaire suivant.

Cette technologie, couplée à des ampoules LED, permettrait de générer jusqu’à 80% d’économies d’énergie. Mais pour séduire ses clients potentiels (pouvoirs publics mais aussi entreprises privées par exemple détentrices de parkings ou d’entrepôts), la start-up mise sur d’autres fonctionnalités. « Avec toutes les informations accumulées par les capteurs, on va pouvoir offrir de nouveaux services », prédit Jean Beka, CEO. Comme un comptage des véhicules ou des passants aux endroits équipés, ou tout autre système de monitoring qui génèrerait des statistiques sur la fréquentation d’une route. La gestion du trafic à distance pourrait ainsi s’en retrouver facilitée.

Smart cities

Les scientifiques de SmartNodes pourraient également imaginer un éclairage particulier pour indiquer aux automobilistes qu’une voiture s’avance sur une entrée d’autoroute. Ou encore une alerte visuelle (du style : les ampoules qui se mettent à clignoter en rouge) pour signaler la présence d’un conducteur fantôme. Bref, autant de technologies qui apporteraient de l’eau au moulin du concept de smart cities, qui a le vent en poupe et qui est notamment prôné par les instances européennes.

Avant d’en arriver là, il faudra d’abord convaincre les pouvoirs publics de s’équiper de ce système, dont le prix est jalousement tenu secret par le directeur de la spin-off. « Mais le retour sur investissement est de 3 à 4 ans rien que grâce aux économies d’énergie », garantit Jean Beka. Tout en reconnaissant qu’en matière d’éclairage public, surtout sur les autoroutes, les perspectives tablent plutôt sur une extinction totale des feux que sur un investissement massif…

Sources : bulletins-electroniques et Dailyscience

Et aussi dans l’actualité :

Des scientifiques percent le mystère du puissant venin du serpent corail

Ses protéines n’ont aucun effet sur celles que ciblent la plupart des venins produits par les autres serpents et animaux. Ce venin rare contient une toxine qui active de façon permanente une protéine clé des cellules nerveuses provoquant des crises mortelles d’épilepsie chez les proies.

« Ce que nous avons trouvé, c’est la première toxine animale connue appelée MmTX, et de loin la plus puissante, qui cible les récepteurs GABA(A) », explique Frank Bosmans, professeur adjoint de physiologie et de neuroscience à la faculté de médecine de l’Université Johns Hopkins, un des co-auteurs de cette découverte parue dans les Comptes rendus de l’Académie américaines des sciences (PNAS).

Ces récepteurs sont très importants chez les mammifères car ils jouent un rôle clé dans la communication entre les cellules nerveuses dans le cerveau et la moelle épinière. Ils sont la cible de plusieurs molécules pharmacologiques importantes pour la santé humaine.

Chez les souris, MmTX a provoqué une succession de relaxations et de tétanisations des muscles, similaires à l’épilepsie, qui ne peut être arrêtée.

« Des médicaments anti-anxiété comme le diazépam et l’alprazolam (Xanax), un tranquillisant, ciblent aussi les récepteurs GABA(A) mais provoquent la relaxation au lieu de crises d’épilepsie car ils s’y fixent de manière différente », précise le Dr Bosmans.

Celui-ci prévoit avec son équipe de recherche d’utiliser le MmTX comme un outil pour mieux comprendre comment fonctionnent les récepteurs GABA(A).

Dans la mesure où des erreurs dans ces récepteurs peuvent provoquer l’épilepsie, la schizophrénie et des douleurs chroniques, ces scientifiques espèrent que leurs prochains travaux apporteront de nouveaux éléments sur ces pathologies.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Arrêter la cigarette… en dormant

Selon le principe sur lequel repose l’hypnopédie, l’apprentissage de l’Homme ne cesserait pas complètement lors de son sommeil. Il serait donc possible de le solliciter en lui faisant écouter des disques pendant son sommeil, ce que plusieurs études scientifiques semblent réfuter. Des chercheurs de l’Institut Weizmann supposent quant à eux que l’Homme pourrait effectivement être conditionné dans son sommeil grâce à… son nez ! Etonnant mais vrai, ils ont ainsi montré qu’une exposition nocturne à des odeurs de cigarette mêlées d’oeuf ou de poisson pourri peut aider à arrêter de fumer.

Le meilleur des mondes

Chacun se souvient du fameux roman de Aldous Huxley, Le meilleur des mondes, décrivant une société où les foetus se développent dans des flacons où ils sont conditionnés. Les traitements que subissent les embryons au cours de leur développement déterminent leurs futurs goûts, aptitudes et comportements. Un procédé qui fait beaucoup penser au conditionnement associatif, aussi appelé conditionnement pavlovien, qui consiste en l’entraînement inconscient du cerveau à associer des stimuli de l’environnement à des réactions de l’organisme.

Quand le nez veille

La Dr Anat Arzi, travaillant dans le laboratoire du Pr Noam Sobel à l’Institut Weizmann, s’intéresse au conditionnement pavlovien. Elle étudie les odeurs comme stimuli provenant de l’environnement et le rôle qu’elles pourraient jouer durant notre sommeil. Car les odeurs, à l’inverse d’autres stimuli, ne nous réveillent pas. De plus, après une exposition nocturne et inconsciente à des odeurs, on ne se rappelle pas les avoir senties le lendemain.

Le stade de sommeil durant lequel les stimuli pourraient jouer un rôle serait le stade 2, aussi appelé stade de sommeil léger. Le stade 2 occupe environ 50% du temps de sommeil total. Le sujet est assoupi mais il est encore très sensible aux stimuli extérieurs. Ainsi, lors du stade 2, environ 50% des bons dormeurs et 80% des mauvais dormeurs pensent ne pas dormir.

Dans quel but ?

Dans un article publié en novembre dans The Journal of Neuroscience, la Dr Arzi a mis en évidence l’influence d’un conditionnement nocturne olfactif sur la consommation de cigarettes. Le fait de fumer étant un phénomène quantifiable, l’impact des stimuli olfactifs a pu être mesuré.

Pour réaliser cette étude, 66 personnes désirant arrêter de fumer mais ne sachant pas comment procéder se sont portées volontaire. Après avoir indiqué leur fréquence de consommation de cigarettes, elles ont été séparées en plusieurs groupes. Celles du premier groupe passèrent une nuit dans une salle de laboratoire à l’écoute de leur sommeil. Lors de la phase 2, elles furent exposées de façon répétitive à une forte odeur de cigarette suivie d’une odeur nauséabonde. Bien qu’ils furent incapables de se souvenir de ses odeurs au réveil, les volontaires observèrent une diminution de leur consommation de cigarettes d’environ 30% la semaine suivant l’expérience.

Les membres du second groupe furent exposés aux mêmes odeurs pendant un temps similaire, mais dans un état d’éveil et non pendant le sommeil. Ceux du troisième groupe furent exposés à des odeurs de cigarette et des odeurs nauséabondes pendant leur sommeil, mais de façon aléatoire et non couplée. Contrairement aux membres du premier groupe, ceux des deux autres ne relevèrent aucune diminution de leur consommation de cigarette.

Ces résultats confirmèrent l’hypothèse du groupe du Pr Sobel : nous oublions la majorité de nos rêves, mais il existe un conditionnement association qui se fraye un chemin lors de notre sommeil.

La fin des patchs de nicotine ?

Une simple nuit de conditionnement olfactif réduirait ainsi de façon significative la consommation de cigarettes pendant plusieurs jours. Le conditionnement olfactif est un terrain prometteur pour les chercheurs travaillant sur les phénomènes d’addiction. La région du cerveau contrôlant l’addiction serait en effet très proche de la région d’olfaction et ces deux régions, en plus de rester éveillées pendant notre sommeil, semblent absorber des informations.

Cette découverte ne permet pas encore aux fumeurs de se débarrasser de leur addiction juste en dormant. Mais elle nous indique la possibilité d’un conditionnement pendant notre sommeil qui pourrait un jour nous mener à d’importants changements comportementaux. Huxley ne s’était peut-être pas trompé : nous pourrions un jour être sujets au conditionnement associatif durant notre sommeil, mais ce serait à de nouvelles fins : faire disparaitre nos addictions au lieu de les créer.

Source : bulletins-electroniques

Le gaz de schiste a ses apôtres en France

« Un certain nombre d’industriels a pensé qu’il était temps d’apporter une information scientifique qualifiée sur ce sujet (et) de sortir de l’obscurantisme dans lequel on est plongé », a indiqué lors d’une conférence de presse, Jean-Louis Schilansky, qui présidera le Centre des hydrocarbures non conventionnels (CHNC).

L’ancien patron de l’Union française des industries pétrolières (Ufip) a nié que l’objectif du nouveau centre soit de créer un lobby du gaz de schiste en France, même si la plupart des groupes qui soutiennent ce centre n’ont jamais dissimulé leur souhait d’obtenir l’autorisation d’explorer le sous-sol français pour en connaître exactement les ressources, à l’image des groupes chimiques Solvay et Arkema.

« Nous ne sommes tout simplement pas un lobby », s’est défendu M. Schilansky. « Nous n’irons pas voir des parlementaires et des cabinets ministériels pour essayer de les convaincre. Nous ne serons pas dans les couloirs », a-t-il assuré.

Muni d’un conseil scientifique, le CHNC a pour objectif de « rassembler, évaluer et diffuser des informations factuelles. Des faits, des faits et encore des faits et non pas seulement des opinions », a affirmé son président.

Selon lui, les adversaires du gaz de schiste sont les bienvenus. « Le centre sera ouvert à tous, à toutes les opinions. Il n’y aura pas de discrimination », a-t-il assuré, prônant une approche « cartésienne », loin du « débat idéologique, pour ne pas dire religieux » qui caractérise, selon lui, la discussion sur les hydrocarbures non conventionnels en France.

François Hollande avait assuré en juillet 2013 qu’il n’y aurait ni exploration ni exploitation du gaz de schiste en France sous sa présidence.

La fracturation hydraulique, seule technique éprouvée pour exploiter les hydrocarbures de schiste, est d’ailleurs interdite en France.

Le CHNC dit n’avoir pas l’intention de changer la loi. « Ce n’est pas le moment », affirme M. Schilansky, pour qui, en revanche, « c’est le moment d’apporter des informations, de parler, de dire ce qu’il se passe » dans ce secteur qui a bouleversé la donne énergétique mondiale.

Parmi la vingtaine de groupes soutenant le CHNC figurent des groupes déjà présents dans la filière du gaz de schiste, à l’image de Total, le géant gazier GDF Suez, le fabricant de tubes sans soudures Vallourec, le groupe Imerys qui produit des proppants ou encore Air Liquide.

L’Union des industries chimiques, l’Ufip, Suez Environnement, ou Technip sont également associés.

arz/mpa/cb/nm

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Une plate-forme en ligne pour acheter moins cher vos machines-outils

Sur un marché mondial de la machine-outil qui a atteint 81 milliards d’euros en 2012, la société allemande Surplex GmbH occupe une position originale.

Maison de ventes spécialisée, elle assure, par l’intermédiaire de son site internet, la commercialisation à prix attractifs de nombreux matériels industriels d’occasion.

Cette prestation se complète de plusieurs services pratiques – liquidation, évaluation, expertise technique et aide au démontage.

Uli Stalter & Michael Werker, fondateurs de l’entreprise Surplex.

 

Cet intermédiaire fondé en 1999 simplifie l’accès à l’outillage de seconde main.

Il assure aux entreprises en pleine croissance ou à la recherche de moyens de production plus performants (par exemple dans les pays en voie de développement) la disponibilité rapide de références souvent récentes : 

plus besoin d’attendre des semaines avant de recevoir sa machine-outil neuve ! Cette réutilisation des matériels prend également tout son sens dans un monde où la lutte contre la pollution et la consommation responsable des ressources deviennent de plus en plus nécessaires.

 

Le fonctionnement de la plate-forme internet Surplex se distingue par sa facilité. Quelques instants suffisent pour s’inscrire puis commencer à acquérir des équipements, en achat immédiat ou lors d’enchères.

Chaque lot dispose d’une fiche détaillée, illustrée de nombreuses photos et de vidéos : ce document précise notamment l’état, le prix et les modalités d’enlèvement.

 

Parce que la maison de ventes fait de la qualité une priorité, les machines présentées sont en bonnes voire très bonnes conditions d’utilisation et permettent un travail en toute sécurité. Elles proviennent fréquemment de fermetures d’entreprises ou de restructurations d’usines.

 

La variété des biens proposés constitue un autre point fort de Surplex. Le site représente notamment l’un des principaux intervenants dans la vente en ligne de machinerie d’occasion pour le travail du métal et du bois :

découpe (sciage, fraisage,…), soudage, finition (meulage, ponçage,…) et usinage combiné à commande numérique constituent quelques-unes des catégories de son catalogue de machines.

Celles-ci se déclinent en de nombreux modèles et proviennent de constructeurs réputés. Elles peuvent se compléter par des références destinées au stockage, à la manutention et à l’équipement des ateliers ou des bureaux.

 

Plus de 30.000 lots commercialisés avec succès depuis près de 15 ans témoignent de la valeur ajoutée Surplex. Disponible en 10 langues et accueillant 200.000 visiteurs par mois localisés dans 150 pays, le domaine enregistre depuis sa création un chiffre d’affaires en croissance permanente.

 

Son accompagnement fort tout au long de la mise en vente rassure acheteurs et propriétaires, les déchargeant avec efficacité de la gestion des annonces, des formalités administratives, du paiement et de la livraison. Il se double d’un service-client réactif, répondant à toute question technique ou commerciale.

Transition énergétique:vers un bras de fer Sénat-gouvernement

Les premiers sont d’accord pour limiter à 50% la part du nucléaire dans la production d’électricité mais sans fixer de date, alors que le gouvernement prévoit, lui, 2025, une date correspondant à l’une des promesses de campagne de François Hollande.

« Tout en adhérant à l’objectif de diversification souhaité par le gouvernement, l’amendement que nous avons adopté vise à assurer une transition réaliste et garante d’une croissance durable », a assuré Ladislas Poniatowski (UMP), le rapporteur du texte.

« 2025, c’est demain », a souligné l’élu de l’Eure. « Si le gouvernement maintient sa position, je lui demanderai de prendre ses responsabilités et de nous dire quels réacteurs, sur quels critères, et où veut-il fermer ».

Mais la ministre de l’Écologie, Ségolène Royal, ne désespère pas « de revenir au texte initial qui a déjà fait l’objet de nombreux débats ».

« Je vais écouter les arguments, et je m’accorde toujours une marge d’adaptation par rapport au débat parlementaire », avait-elle dit en indiquant qu’elle allait « continuer dans la co-construction de la solution du meilleur mix énergétique pour la France ».

« Le texte, qui sera présenté au vote des sénateurs, est à un tel point vidé de ses principales avancées, qu’il se révèle pour moi inacceptable », a déclaré de son côté le président de la commission du Développement durable de l’Assemblée, Jean-Paul Chanteguet (PS).

Parallèlement, la commission des Affaires économiques a préconisé le relèvement du plafonnement de la capacité de production du nucléaire à 64,85 GW au lieu de 63,2 GW prévus dans le texte de loi, afin que la mise en service de l’EPR de Flamanville (Manche) ne se traduise pas, dès 2017, par l’arrêt de deux réacteurs supplémentaires.

En ce qui concerne les bâtiments, alors que le texte prévoit une isolation par l’extérieur, les sénateurs préfèrent laisser aux maires la liberté de décider de la technique d’isolation lors d’un ravalement de façade.

La commission a par ailleurs considéré qu’il y avait un oubli dans le texte en ce qui concerne les énergies renouvelables: la biomasse, qui peut être développée sur tout le territoire.

Quant à la circulation automobile, le Sénat a accordé aux maires la possibilité d’étendre les limitations de vitesse inférieures à 50 km/h à l’ensemble des voies de la commune. Un rapport devra faire le bilan des émissions de particules fines, y compris au titre de l’abrasion, c’est-à-dire au cours des freinages.

La commission du Développement durable du Sénat propose aussi d’inscrire la définition de l’obsolescence programmée dans le code de la consommation et son contrôle par la DGCCRF (Direction générale de la concurrence, de la consommation et de la répression des fraudes). Elle entend généraliser le tri à la source des biodéchets et supprimer l’interdiction de la vaisselle jetable en imposant son tri sélectif.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Des colliers de nanoparticules d’or pour guider la lumière jusqu’au nanomètre

La lumière peut servir à transmettre des informations. Cette propriété est par exemple utilisée dans la fibre optique et offre une alternative intéressante à la microélectronique. L’utilisation de la lumière permet d’augmenter la vitesse de transmission et de réduire les pertes d’énergie qui se produisent par réchauffement lorsqu’un signal électrique est utilisé. Cependant il reste plusieurs défis à relever, notamment celui de la miniaturisation : avec la fibre optique il est en effet difficile de confiner la lumière dans une largeur inférieure au micromètre (soit 10-6 mètres).

Les électrons circulent librement dans les métaux et parfois se mettent à osciller collectivement à leur surface sous l’effet de la lumière, comme dans les métaux nobles tels l’or et l’argent. Les propriétés de ces oscillations collectives, appelées plasmons, offrent depuis une vingtaine d’années une voie prometteuse vers un confinement sub-longueur d’onde (c’est-à-dire inférieur au micromètre) de l’énergie lumineuse. En transmettant cette énergie portée par les photons aux électrons en mouvement, il est possible de transporter de l’information dans des structures plus étroites que les fibres optiques. Pour atteindre des confinements encore plus importants, la plasmonique2 s’intéresse désormais aux propriétés optiques de nanoparticules cristallines. La surface cristalline lisse évite de perturber les oscillations des électrons et limite les pertes d’énergie. Exploiter les propriétés de ces nanoparticules devrait donc permettre simultanément des confinements de l’ordre du nanomètre et le transport de l’information sur de grandes distances.

Dans cette étude, les chercheurs ont démontré que lorsque des nanoparticules d’or de dix nanomètres de diamètre sont alignées sous forme de chaine, les plasmons qu’elles portent génèrent des oscillations particulières, propices à la propagation ultra-confinée. Cependant à chaque passage entre deux nanoparticules, il existe une perte d’énergie. Si cette caractéristique peut être exploitée pour certaines applications qui nécessitent des sources de chaleur très localisées, notamment en médecine, elle ne favorise pas la propagation longue distance.

Les chercheurs ont donc délicatement fusionné les nano-perles, en focalisant un faisceau électronique à haute énergie, de façon à former un réseau continu et cristallin. Ils ont alors observé que les pertes d’énergie sont réduites et que les plasmons sont libres d’osciller sur de très grandes distances tout en restant confinés suivant le diamètre des nanoparticules. Au sein de ce collier de seulement dix nanomètres de large, l’information peut voyager jusqu’à 4000 nanomètres.

Un autre défi relevé par cette étude a été de cartographier, avec une précision exceptionnelle, les oscillations des électrons observées à la surface de la chaine de nanoparticules. Les différents types de mouvement des plasmons ont été caractérisés par une technique de microscopie appelée spectroscopie de perte d’énergie des électrons (EELS) dont la très fine résolution spatiale et spectrale a permis aux chercheurs de proposer un nouveau modèle théorique du comportement des plasmons. Les simulations basées sur ce modèle reproduisent les expériences avec une fidélité sans précédent.

Ces travaux qui résultent d’une collaboration à long terme avec des équipes de Bristol et de Singapour pourraient mener à une miniaturisation extrême du guidage de la lumière et ouvrir la voie vers des applications en matière de capteur, pour le photovoltaïque par exemple, et en télécommunication.

© E. Dujardin (CEMES, CNRS)
Image EELS montrant la distribution spatiale des électrons confinés le long d’une chaine de nanoparticules d’or.
Source : CNRS

Recharge de voitures électriques: le projet de Bolloré reconnu de « dimension nationale »

Bolloré avait demandé la reconnaissance de la « dimension nationale » de son projet afin d’être « exempté de redevance d’occupation du domaine public » pour son projet représentant « un investissement de 150 millions d’euros sur quatre ans », avait indiqué Bercy début décembre.

Le projet « 16K » vise à « déployer jusqu’à 16.000 points de charge (…) sur près de 4.000 communes », réparties dans 94 départements des 22 régions de France métropolitaine, précise la décision de la ministre de l’Ecologie et de l’Energie, Ségolène Royal, et de son collègue chargé de l’Economie, Emmanuel Macron.

La moitié au moins de ces points de charge « se présente comme conforme par avance » à la directive européenne sur les carburants alternatifs, en particulier en matière d' »interopérabilité à l’échelon européen », selon le texte.

L’installation se fera en deux phases « d’égale ampleur », la première s’achevant le 31 décembre 2016 et la seconde le 30 juin 2019. « La totalité des départements voire des communes concernées a vocation à être couverte dès la première phase », ajoutent les ministres.

Le groupe industriel breton a affirmé de son côté que « par son ambition, ce réseau permettra de promouvoir la mobilité électrique +pour tous et partout+ en complément des infrastructures déjà installées par le Groupe Bolloré au travers de ses services d’autopartage » à Paris (Autolib), Lyon (Bluely) et Bordeaux (Bluecub).

Bolloré a également révélé que ses futures bornes, « intelligentes et connectées, munies d’écrans tactiles permettant le dialogue avec les utilisateurs », permettraient une charge de type « semi-accélérée » avec une puissance de 7,4 kilowatts.

« Contrairement aux bornes +rapides+, ce choix de charge +semi-accélérée+ s’inscrit dans le respect de la transition énergétique, évitant de déstabiliser le réseau électrique par des appels de puissances trop brutaux et prolongeant la durée de vie des batteries des véhicules », a assuré Bolloré en estimant que « plus de 100 emplois » seraient ainsi créés.

Le maillage du territoire en points de recharge est vu comme l’un des leviers pour inciter les Français à passer à la mobilité électrique, alors que l’autonomie limitée des véhicules freine jusqu’ici leur développement.

La publication au JO intervient deux jours après des annonces gouvernementales portant la prime à l’achat d’un véhicule électrique à 10.000 euros à partir de début avril, sous conditions, notamment de mettre à la casse un véhicule diesel de plus de 13 ans.

Malgré les incitations déjà existantes et des campagnes commerciales agressives de certains constructeurs, le marché des automobiles électriques peine à décoller en France, représentant 0,6% des autos neuves immatriculées en 2014, en hausse toutefois de 20% par rapport à 2013.

Le chiffre d’affaires de Blue Solutions, filiale de Bolloré spécialisée dans le stockage d’énergie, a plus que doublé sur les neuf premiers mois de 2014 par rapport à la même période de 2013, et la société espérait atteindre entre 90 et 100 millions d’euros de chiffre d’affaires sur l’année. Elle dévoilera ce chiffre le 12 février.

Il ne s’agit toutefois encore que d’une activité de niche au sein du groupe diversifié (logistique, médias…) qui a réalisé en 2013 un chiffre d’affaires de plus de 10 milliards d’euros.

gbh-tq/fpo/phc

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

HoloLens, le casque de réalité augmentée signé Microsoft

HoloLens est donc un casque de réalité augmentée permettant d’intégrer des images virtuelles à « l’environnement réel » ou le « vrai monde » comme le dit Microsoft. Ces images (objets, graphiques…) s’intègrent à notre champ de vision et sont contrôlables d’un simple geste. En agitant un doigt dans l’espace par exemple.

Le casque développé par Microsoft se présente comme un véritable ordinateur portable, avec un processeur, une carte graphique et un système d’exploitation. Il n’est pas nécessaire de le brancher au secteur ou de le raccorder à un ordinateur pour le faire fonctionner. En cela, il se distingue de Facebook avec l’Occulus Rift et de Sony avec Morpheus, les deux projets concurrents.

Cependant ce qu’il faut retenir, c’est que ce sont les capteurs qui font tout le boulot. En effet, les caméras intégrées au casque saisissent les détails qui entourent l’utilisateur – comme le fait la Kinect. L’environnement est ensuite recomposé par le casque puis enrichi en temps réel par des objets virtuels, sans qu’il y ait de saute dans l’image.

Ces images ou éléments avec lesquels l’utilisateur peut interagir ont été comparés à des hologrammes par celle que l’on appelle « la firme de Redmond ». Mais ce n’est pas tout à fait exact. Par définition, l’holographie est la représentation en trois dimensions d’une image projetée par un faisceau laser sur un écran. Or, contrairement aux projections holographiques traditionnelles, une seule personne est en mesure d’apprécier ces représentations : son utilisateur. Tout ce qui transforme l’image que l’on perçoit normalement – c’est-à-dire l’acquisition de nouvelles informations – apparaît sur l’écran des lunettes. Un peu comme le calculateur de puissance dans Dragon Ball Z, le manga japonais imaginé par Akira Toriyama. Il est donc plus juste d’associer HoloLens à la famille des objets de réalité augmentée tel que feu les Google Glass.

Microsoft ne compte pas en rester là et va pousser l’expérience plus loin. La  Nasa a en effet commandé un logiciel permettant l’exploration de Mars, grâce aux HoloLens, sans bouger de son siège. Et qui sait encore quelles autres applications ou jeux « nous plongeant dans un monde fictif » verront le jour.

Toutefois, quelques questions se posent à propos des HoloLens. Déjà, qu’en est-il de la portabilité des lunettes :  leur poids, leur esthétisme… ? D’un point de vue éthique, ne s’agit-il pas d’une intrusion dans nos vies privées comme certains le pensaient déjà avec les Google Glass ? Ces expériences toujours plus immersives, où le voile entre le réel et le virtuel se révèle être de plus en plus ténu, ne vont-elles pas créer un effet d’isolement en nous coupant du monde ? Et bien sûr, comment le public va-t-il réagir ? Des questions pour l’heure sans réponse.

Les HoloLens devraient se retrouver sur le marché vers la fin de l’année autour de 1 000 dollars, un prix certes conséquent mais tout de même inférieur à celui auquel étaient vendues les Google Glass (1 500 dollars). 

Par Sébastien Tribot

Les textiles connectés représentent l’avenir de la filière textile

C’est (presque) bientôt Noël, et des vêtements d’un nouveau genre pourraient bien fleurir au pied du sapin. En effet, depuis quelques années les textiles dits « intelligents » ou « connectés » connaissent un fort développement. Bardés de capteurs, ils sont capables de mesurer des paramètres, conférant au vêtement une compétence. C’est le cas du D-shirt de la PME Cityzen Sciences dont le vêtement intègre un cardiofréquencemètre, un GPS, un altimètre et une centrale inertielle. Autant d’informations précieuses pour un sportif réunis sur son propre habit. Le développement des smartphones permet aujourd’hui de rendre accessibles les données via des applications, permettant à l’utilisateur de s’informer et d’adapter son comportement en temps réel.

En 2013, une étude du CEA chiffrait à 33% le nombre de personnes qui utilisent régulièrement leur téléphone mobile pour mesurer des données de santé. Une habitude qui devrait se développer car selon une étude opinion way, 53% des français pensent que les outils technologiques sont une aide dans la gestion de la santé et du bien-être.

L’ère du textile connectée semble s’ouvrir. La France ne s’y trompe pas et l’un des 34 plans industriels lancés fin 2013 est consacré aux « Textiles techniques et intelligents » avec comme objectifs d’« Exploiter les opportunités offertes par les révolutions numériques et les nanotechnologies, grâce aux textiles intelligents et innovants ».

Dans ce cadre, le projet CONNECTITUDE doit permettre le développement et la mise en marché de 5 projets industriels de textiles connectés. Parmi les entreprises françaises expertes en textiles intelligents, on compte Brochier Technologies qui s’est spécialisé dans le tissage de fibres optiques pour des textiles lumineux, Sefar Fyltis qui fabrique des tissus conducteurs monofilament, Sofileta R&D qui se focalise sur les tissus avec des capteurs de température ou de rythme cardiaque par exemple, Tibtech Innovations qui est experte des fils chauffants ou conducteurs, et Cityzen Sciences se veut spécialiste du textile connecté dédié au monitoring d’individu avec le projet Smart Sensing.

La société Glagla a mis au point Digitsole, une semelle chauffante connectée pilotable via son smartphone. Récemment, nous vous parlions aussi de MySenses dont les pastilles thermosensibles équipent chapeaux d’enfant et bracelets pour mesurer l’exposition aux UV.

Du fait de fortes attentes dans les domaines de la santé, du sport mais aussi des bâtiments, des transports et de la communication, il y a fort à parier que les textiles intelligents  ne resteront pas un marché confidentiel bien longtemps !

Par Audrey Loubens

Plus de nucléaire et d’ENR, moins d’énergies fossiles !

En 2014, la production nette d’électricité atteint 540,6 térawattheures (TWh), soit une baisse de 1,8 % par rapport à 2013. Mais la consommation française baisse davantage, – 6 % entre 2013 et 2014, passant à 465,3 TWh. C’est le plus faible niveau de consommation mesuré depuis 2002 ! Avec une consommation plus faible, due principalement à une météo extrêmement clémente, cela a permis de booster notre solde exportateur vers les autres pays européens, à hauteur de 65,1 TWh, contre 47,2 TWh en 2013.

Après correction des aléas météorologiques, la consommation française pour 2014 s’établit à 474,1 TWh, en baisse de 0,4 % par rapport à 2013. Les mesures d’efficacité énergétique sur les équipements et bâtiments, ainsi que la baisse de la part de marché du chauffage électrique dans le bâtiment neuf suite à l’application de la Règlementatin Thermique 2012 commencent donc à montrer quelques résultats.

Recul du charbon et du gaz

Fin 2014,  les capacités installées de centrales thermiques utilisant des combustibles fossiles (charbon, fioul et gaz) sélèvaient à 24,4 gigawatts (GW) pour une production de 27 TWh. Elles étaient respectivement de 25,6 GW et 44,7 TWh fin 2013. Entre 2013 et 2014, le parc de production installé en France a perdu 1,2 GW de centrales au charbon, 65 mégawatts (MW) de fioul et gagné 9 MW de gaz.

Entre 2013 et 2014, si les centrales thermiques  utilisant des combustibles fossiles n’ont perdu que 5 % de puissance installée, leur production a baissée de 39,6 %. Alors que le recours au charbon avait augmenté de 14% en 2013, la production des centrales au charbon a diminué de 58,2 % en 2014. Du côté du gaz, la production baisse encore de 28,2 % en 2014, la baisse précédente étant de 18,9 %. La production des centrales au fioul a aussi baissé de 10,5 % en 2014, amplifiant la baisse de 19,2 % déjà observée en 2013. En 2014, ces centrales thermiques à combustible fossile n’ont assuré que 5 % de la production d’électricité française.

Selon RTE, la baisse considérable du recours au charbon s’explique par la fermeture de nombreuses centrales, pour respecter la réglementation européenne en matière d’émissions de CO2 entrée en vifueur au 31 décembre 2014. Mais ce sont surtout les conditions météorologiques clémentes qui expliquent la baisse considérable d’utilisation des combustibles fossiles. En absence de températures froides prolongées, les centrales thermiques n’ont pas été appelées. Cela se vérifie par le pic de consommation de 2014 qui est le plus faible observé depuis 2004. Le maximum de consommation a été enregistré le 9 décembre à 19h, avec une puissance de 82,5 GW utilisée, contre 102,1 GW appelés le 18 février 2012 et 92,6 GW le 17 février 2013.Les émissions de CO2 ont ainsi connu une chute historique de 40 %, se portant à 19 millions de tonnes d’équivalent CO2.

Augmentation du nucléaire et des énergies renouvelables

Fin 2014, la puissance installée des centrales électriques françaises s’élevait à 128,9 GW, en hausse de 0,5 % par rapport à 2013. Le nucléaire représentait 63,1 GW de puissance installée, l’hydraulique 25,4 GW, l’éolien 9,1 GW, le photovoltaïque 5,3 GW et les autres sources d’énergies renouvelables 1,6 GW.

La production nucléaire est en forte reprise par rapport à 2013. La puissance installée du parc nucléaire est restée inchangée entre 2013 et 2014, mais les réacteurs ont assuré 77 % de la production d’électricité en 2014, contre 73,3 % en 2013. Leur production nette s’élève à 415,9 TWh en 2014, contre 403,7 TWh en 2013. La disponibilité du parc nucléaire s’est donc améliorée.

Alors que le projet de loi sur la transition énergétique va bientôt être examiné au Sénat, cette hausse de production d’électricité d’origine nucléaire doit être surveillée. Les programmations pluriannuelles des l’énergie devront notamment prendre en compte cette augmentation récente pour s’assurer du respect des engagements du projet de loi pour la transition énergétique. Selon cette loi, la part de l’électricité d’origine nucléaire doit passer à 50 % en 2025.

Parallèlement, on note une reprise du développement des filières éolienne et photovoltaïque par rapport aux cinq dernières années. En 2014, le parc a gagné 963 MW d’éolien, 926 MW de photovoltaïque et 92 MW d’autres énergies renouvelables. Ces niveaux s’éloignent des niveaux minimaux de développement observés en 2013 pour l’éolien (621 MW installés) et pour le photovoltaïque (646 MW installés). Mais avec un facteur de charge inférieur, le parc éolien ayant produit en moyenne à 22,6% de sa capacitté contre 23,2% fin 2013 et une production hydraulique en baisse de 9,7%, la part des énergies renouvelables dans la production d’électricité atteint 18 %, contre 18,6 % en 2013. En revanche, la part issue de l’ensemble des sources d’énergies renouvelables atteint 19,5 %, de la consommation d’électricité française contre 19,3 % en 2013. Pour la première fois, la production des énergies renouvelables, hors hydraulique, devance la part de la production thermique fossile, avec 28 TWh d’électricité produite.

Quelle capacité pour quelle production?

Le nucléaire représente 49 % de la puissance installée du parc français, mais 77 % de l’électricité produite. Les systèmes thermiques à combustible fossile représentent 18,9 % du parc installé, mais seulement 5 % de la production. L’hydraulique représente 19,7 % du parc installé, mais 12,6 % de la production. Cette année, la disponibilité du parc nucléaire a été très bonne, alors que l’utilisation du parc thermique a été beaucoup plus faible pour les raisons que nous avons détaillées. Grâce à de bonnes précipitations, la production hydraulique est restée élevée, bien qu’en recul de 9,7 % par rapport à l’année dernière.

Lorsque l’on considère les énergies renouvelables intermittentes, les écarts entre puissance installée et production sont beaucoup plus importants. Si l’éolien représente 7,2 % de la puissance installée, le parc représente 3,1 % de la production d’électricité. Avec 4,1 % de la puissance installée, le parc photovoltaïque ne constitue que 1,1 % de la production.

Ce petit panorama montre l’importance du marché de capacité qui est en train d’être mis au point pour assurer l’équilibre offre-demande, même en cas d’hiver très rigoureux. Il devrait permettre de rémunérer les centrales thermiques indispensables à cet équilibre en période de pointe, même lorsqu’elles ne sont pas appelées pour éviter leur mise sous cocon par manque de rentabilité.

Par Matthieu Combe, journaliste scientifique

Eco2mix : l’électricité s’invite dans votre smartphone !

Vous aimeriez connaître en temps réel l’état du réseau d’électricité et du parc de production français ? Savoir si les éoliennes tournent ou si la neige empêche les panneaux solaires de produire ? C’est possible grâce à l’application Éco2mix de RTE, qui rend accessible les données au niveau national en temps réel. En fin de chaque mois, les données de chaque région sont mises à jour : consommation, production par type d’énergie et flux interrégionaux.

Avec son application, RTE veut sensibiliser les utilisateurs à la transition énergétique et démystifier le secteur. Éco2mix fournit ainsi également des chiffres clés pour mieux comprendre la transition énergétique : capacités du parc installé, production maximum et minimum de l’éolien et du solaire, ampleur des pics de consommation… 

Des analyses pour mieux comprendre le secteur électrique

Chaque mois, une analyse de la situation électrique française est mise en ligne. Elle revient sur les conditions météorologiques et économiques qui impactent la consommation, la production et les échanges. Elle analyse également les raisons des échanges transfrontaliers. 

Sur l’analyse du mois de Décembre 2014, on apprend, par exemple, que la France a maintenu une exportation élevée en Belgique en raison de l’indisponibilité du parc nucléaire belge et que le solde des échanges avec l’Allemagne reste importateur pour le quatrième mois consécutif ! Cela vous permettra de clouer le bec aux fervents du nucléaire qui affirment que l’Allemagne importe massivement l’électricité française  d’origine nucléaire pour assurer sa transition énergétique !

L’application éco2mix est disponible sur smartphones, tablettes et sur le site rte-france.com.

  • Découvrir éco2mix en vidéo

Par Matthieu Combe, journaliste scientifique

Améliorer les vaccins contre le cancer

Les vaccins contre le cancer sont récemment apparus comme l’une des approches les plus prometteuses pour se débarrasser des cellules tumorales avant qu’elles ne se répandent, en dirigeant les défenses immunitaires d’un patient contre les cellules cancéreuses afin de les détruire de manière spécifique. L’objectif de ces vaccins est d’obtenir une réaction à la fois parfaitement ciblée, autonome et pérenne. Bien que forte de quelques jolis succès, la recherche n’en est encore malheureusement qu’à ses balbutiements, la plupart des « candidats vaccins » ne fonctionnant que trop aléatoirement. C’est dans ce contexte qu’une équipe de chercheurs japonais aurait développé un nouveau type de vaccin capable de stopper la croissance d’une tumeur, un vaccin testé avec succès après l’inoculation de la substance active sur des souris de laboratoire. Leurs résultats ont été annoncé dans la dernière édition de la revue scientifique ACS Nano, publication consacrée aux nanotechnologies de la prestigieuse American Chemical Society.

L’immunothérapie : une efficacité pour le moment relative

Actuellement, la plupart des vaccins contre le cancer agissent :

  • soit au niveau de l’antigène, en induisant une réaction immune contre un certain type de cellule, produisant des anticorps par le biais des lymphocytes B (immunité à médiation humorale) ou par le biais des lymphocytes T (immunité à médiation cellulaire) ;
  • soit au niveau des cellules dendritiques et des macrophages, les cellules de surveillance qui jouent un rôle primordial dans l’initiation des réponses immunes adaptives. Le vaccin va faire signe à ces cellules immunitaires, qui vont à leur tour activer les lymphocytes NKT (Natural Killer T, « tueur naturel T ») afin qu’elles s’attaquent aux tumeurs.

Pourtant, les approches basées sur le ciblage de ces cellules immunitaires, en constante circulation, n’ont pas encore rencontré le succès escompté.

Un maître-mot : furtivité

Les découvertes récentes suggèrent qu’un sous-ensemble de macrophages, provenant du fin fond de la structure des ganglions lymphatiques, pourrait jouer une partition importante dans le ralentissement de l’évolution du cancer. Mais comment faire en sorte que le vaccin ne soit pas absorbé, phagocyté par les cellules dendritiques et les macrophages en circulation, et atteindre ce fameux sous-ensemble de macrophages ?
L’innovation majeure du vaccin mis au point par l’équipe de Hiroshi Shiku et Naozumi Harada serait à trouver… du côté de la furtivité des nanoparticules qui le composent. Les chercheurs ont injecté les nanoparticules ninjas dans l’organisme de plusieurs souris, particules ne possédant aucune charge électrique, ni même de molécule de surface (qui pourraient attirer l’attention des cellules immunitaires patrouilleuses). Les nanoparticules furtives, contenant des molécules-messages destinées aux lymphocytes NKT, furent non seulement capables de pénétrer les ganglions lymphatiques, mais réussirent également à se faire repérer et engloutir par les macrophages visés. Résultat : la croissance de la tumeur est entravée, de manière plus efficace qu’avec les vaccins existants.

Par Moonzur Rahman

Ecophyto : Le Foll revoit sa copie

Loin de diminuer, entre 2009 et 2012, la consommation de pesticides a augmenté en moyenne de 5 % en France. Pire, entre 2012 et 2013, elle a augmenté de 9,2 %. Cette évolution concerne le nombre de doses-unités épandues à l’hectare (NODU), l’indicateur de référence utilisé dans le cadre du plan Ecophyto. L’Etat français revoit donc sa copie à la baisse. Au lieu d’une réduction de 50 % de l’usage des pesticides d’ici 2018, une baisse de 25 % d’ici 2020, puis de 50 % d’ici 2025, est prévue.

Tout n’est néanmoins  pas à refaire. « Ce premier plan a permis d’éliminer 80 % des substances les plus dangereuses », a insisté le ministre Stéphane Le Foll, à l’occasion d’une conférence censée lancer « 2015 : l’an I de l’agro-écologie », et au cours de laquelle il a présenté les grands axes du nouveau plan Ecophyto.

Comment créer une nouvelle dynamique durable ?

Stéphane Le Foll n’aime pas trop les engagements chiffrés et préfère « créer la dynamique sur le terrain », plutôt que de se focaliser sur des objectifs difficiles à atteindre. A l’instar de son plan Ambition Bio 2017, où il parle de « processus global de développement de l’agriculture biologique » plutôt que de « surface agricole utile à convertir en bio », le ministre préfère ici encourager les nouvelles pratiques agro-écologiques.

Plusieurs mesures ont déjà été lancées en 2013 : le plan Ambition bio 2017, le plan Ecoantibio, le plan pour l’apiculture durable et le plan Energie Méthanisation Autonomie Azote (EMAA). Puis, en 2014, la loi d’avenir pour l’agriculture et la forêt a été votée et les mesures agro-environnementales ont été mises en place dans le cadre du second pilier de la PAC. Ces dispositions visent à imposer l’agro-écologie, une agriculture performante aux niveaux environnemental et économique, comme nouvelle norme pour l’agriculture française. Dans cette perspective, le plan Ecophyto a un rôle important à jouer.

La nouvelle monture de ce plan insiste donc plus sur les moyens à déployer pour atteindre les objectifs.Elle s’inspire largement du rapport sur le sujet, remis au premier ministre Manuel Valls fin décembre, par le député PS Domnique Potier.

Comment mettre en action le monde agricole?

Un pesticide de synthèse ne se remplace pas  par du biocontrôle sans repenser en profondeur le système de culture. Pour que la baisse de la consommation des pesticides soit possible, le nouveau plan mise donc sur la formation et l’accompagnement pour répandre un ensemble large de pratiques agronomiques alternatives, telles que la rotation des cultures.

Pour y parvenir, il n’y a pas 36 solutions. Le nouveau plan Ecophyto mise sur ce qui a marché entre 2009 et 2014 : son réseau de 2 000 fermes pionnières Dephy qui ont vu une baisse de leur consommation de pesticides de 12 % en moyenne en 2013. Ces fermes « modèles » accompagnent chacune dans leur transition une dizaine de fermes grâce à des ingénieurs agronomes cofinancés par les conseils régionaux ou les agences de l’eau. Le nouveau plan prévoit de recruter 1 000 nouvelles fermes pionnières.

Des certificats d’économie de produits phytosanitaires mis en place

Les fermes Dephy ont leur importance, mais il faut élargir la dynamique au-delà de ce cercle réduit. Pour ce faire, la grande nouveauté du plan Ecophyto 2 est la mise en place d’un système de certificats d’économie de produits phytosanitaires (CEPP), inspiré par le modèle des Certificats d’économies d’énergie.

Les distributeurs de pesticides et les grandes coopératives devront engager des services et conseils pour réduire les produits phytosanitaires chez leurs clients de 20 % d’ici 2020. Outre le fait de mettre tous les acteurs à contribution, l’idée est également d’assurer une rémunération complémentaire aux industriels pour que la baisse de volume de vente des pesticides n’engendre pas de baisse de leur chiffre d’affaires.

En cas d’objectifs non atteints, les distributeurs de pesticides devront s’aquitter d’une pénalité financière de 11 euros par NODU. En revanche, ceux qui auront dépassé leurs objectifs, pourront vendre aux moins avancés  leurs surplus de NODU épargnés. Notons que ces CEPP portent sur une obligation de moyens mis en oeuvre et non de résultats. Les modalités d’évaluation des actions conduites devront donc être bien menées pour s’assurer de résultats à la hauteur des moyens.

Pour accompagner tout cela, 30 millions d’euros supplémentaires viendront s’ajouter aux 40 millions déjà alloués au plan chaque année. Ces nouveaux capitaux seront financés par un élargement de l’assiette de redevance pour pollutions diffuses collectée par les agences de l’eau.

Jusqu’en juin 2015, le projet est ouvert à consultation publique. Il sera ensuite décliné dans la foulée par régions, sous l’autorité du préfet. Espérons que, cette fois-ci, les résultats seront au rendez-vous !

  • Aller plus loin :

Rapport «Pesticides et agro-écologie LES CHAMPS DU POSSIBLE» de Dominique Potier

Par Matthieu Combe, journaliste scientifique

Le diesel n’est plus le bienvenu à Paris

Anne Hidalgo se lance. Dès le 1er juillet, une  zone de basse émission sera créée à Paris. Ce secteur dont les frontières restent à définir sera interdit aux véhicules les plus polluants. La Maire a déclaré à nos confrères du Monde.fr que cette zone ne concernera pas le périphérique ni les bois de la capitale. Cette annonce, en cohérence avec la volonté d’Anne Hidalgo de s’attaquer à la pollution de l’air parisien, reste floue puisque ni les frontières de la zone ni les critères de pollution ne sont connus. Toutefois, on sait que les véhicules diesel sont dans le collimateur, mais que de vieux véhicules essence pourront aussi être concerné. De même, les cars de tourisme ont été pointés du doigt et les tours opérateurs feraient bien de réfléchir à une autre façon d’acheminer leurs clients au cœur de Paris… Reste aussi à la mairie de Paris à choisir comment appliquer et faire respecter cette zone privilégiée. Pour cela, la municipalité pourra s’appuyer sur les retours d’expérience des nombreuses grandes métropoles qui ont déjà passé le cap.

 La Suède fut un précurseur dès 1996 en créant des zones à basse émission, aussi connues sous le nom de Low Emission Zone (LEZ). Stockholm, Göteborg et Malmö délimitèrent leurs propres LEZ interdites aux camions diesel et aux cars de plus de 3.5t. Puis ce fut au tour de l’Italie en 2005 de créer des LEZ, activées en hiver. En 2007, les Pays-Bas se convertissent, puis Berlin et Londres en 2009. Début 2014 on comptabilisait 194 LEZ au travers de 9 pays (Autriche, République tchèque, Danemark, Allemagne, Italie, Pays-Bas, Suède, Royaume-Unis, Portugal). Pour garantir le respect des LEZ, Londres a misé sur la vidéosurveillance. Des caméras fixes et mobiles lisent les plaques et vérifient que le véhicule répond bien aux exigences de la LEZ. En cas d’infraction l’automobiliste encoure une amende particulièrement dissuasive, comprise entre 600 et 1200€ selon le véhicule concerné. Du coup, près de 98% des véhicules respectent la règle. En Allemagne, une vignette est apposée sur le pare-brise des véhicules dont la couleur dépend de son niveau d’émission de polluants. Le contrôle des véhicules se fait visuellement par les policiers, sachant que seules certaines couleurs ont le droit de pénétrer dans les LEZ. Contrairement à la LEZ londonienne, l’amende encourue est faible, seulement 40€. Toutefois, le taux d’observance de la loi reste bon, entre 95 et 99% pour les particuliers mais entre 85 et 93% pour les professionnels. Ainsi, quel que soit le système de contrôle, le respect des LEZ est élevé.

Mais est-ce que ça marche au moins ? L’impact sur la pollution de l’air est mitigé. En Suède, le taux d’émission de dioxyde d’azote a baissé de 10% et celui des particules fines PM10 a chuté de 40%. En Allemagne, la mise en place des LEZ a globalement permis de diminuer de 10% le taux de PM10. A Berlin, les concentrations de NO2 ont baissé de 6 à 10%. A Londres, les bénéfices concernent principalement les zones proches des stations de trafic  avec des concentrations en carbone suie qui ont baissé de 15% et un taux de particules PM2.5 en recul lui aussi de 15%. Enfin, la mise en place des LEZ permet de diminuer le nombre de jour pendant lesquels la valeur limite journalière est dépassée.

Dans son rapport sur les zones à faibles émissions à travers l’Europe, l’Ademe conclue que la création des LEZ permet d’améliorer la qualité de l’air, mais qu’elles ne peuvent seules résoudre le problème de pollution. Elles doivent faire partie d’un plan comprenant d’autres leviers d’action. Cela tombe bien, le plan anti-pollution prévois d’autres mesures comme la mise en place de camions bennes électrique, le déploiement de 180 nouveaux points de recharge pour véhicule électrique, la fin des véhicules diesel dès 2020, l’extension des zones limitées à 30km/h, un centre-ville semi-piéton… Paris passe au vert.

Par Audrey Loubens, journaliste scientifique

L’indemnité kilométrique vélo bientôt généralisée ?

Cette expérimentation s’est déroulée du 1er juin au 1er novembre 2014 avec plus de 10 000 salariés mobilisés dans 18 entreprises volontaires. Financée par l’ADEME et copilotée par la coordination interministérielle pour le développement de l’usage du vélo (CIDUV), elle a été réalisée par le bureau d’études Inddigo. En fin d’expérimentation, les adhérents au système déclarent des distances d’environ 5 km par trajet, soit plus que la moyenne nationale, évaluée à 3,4 km en 2008.

Les règles de l’expérience étaient simples : les cyclistes se voyaient octroyer une indemnité kilométrique de 25 centimes/km dans le cadre de leurs déplacements domicile-travail. Cette indemnité n’était pas cumulable avec le remboursement des abonnements de transports en commun sur le même trajet, sauf en cas de déplacement intermodal « vélo + transport en commun ». Les vélos devaient être la propriété des usagers, les systèmes de libre-service étant déjà remboursables à hauteur de 50 % au même titre que l’abonnement transports en commun. Enfin, la plupart des entreprises ont défini un plafond mensuel compris entre 30 € et 55 € par mois.

En raison de réponses incomplètes aux différents questionnaires, sur les 18 entreprises, seules les expériences de 14 entreprises, soit 8 210 salariés, ont été comptabilisées pour obtenir les résultats. En moyenne, 380 adhérents au système de l’indemnité kilométrique (IK) ont perçu une indemnité au moins une fois au cours des 6 mois de l’expérimentation. Mais 39 cyclistes supplémentaires ont également décidé de pas participer à l’expérience, certainement pour garder le remboursement mensuel de leur carte de transports.

Y a-t-il beaucoup plus de cyclistes ?

Au total, 419 salariés ont utilisé leur vélo à un moment donné de l’expérience, contre 200 auparavant. Leur nombre a donc été multiplié par deux. Néanmoins, la période ayant été propice à l’usage du vélo en raison de la période estivale et 13 % ayant décidé d’arrêté l’expérimentation au moins provisoirement, l’ADEME table sur une augmentation de la part modale (proportion des déplacements effectués en vélo par les salariés) du vélo de l’ordre de 50 %. Ainsi, projetés sur l’année, cette part est passée de 2 % avant l’expérimentation à 3 % après. La part modale du vélo reste malgré tout relativement faible, comparée à observée dans d’autres pays tels que les Pays-Bas ou encore la Belgique. Le seul levier de l’indemnité kilométrique ne semble donc pas suffisant pour booster l’usage du vélo en France.

Le rapport note 3 grands types d’usagers, avec des niveaux de pratiques différents. Ainsi, les cyclistes déjà réguliers avant l’expérience, mais ayant adhéré à l’IK utilisent leur vélo pour leur trajet domicile-travail environ 18 jours par mois. Les cyclistes déjà réguliers, mais n’ayant pas adhéré à l’IK, continuent d’avoir une pratique régulière, avec une moyenne de 16 jours de vélo par mois. Enfin, les nouveaux cyclistes propulsés par l’expérience pratiquent moins que les autres : environ 11 jours de vélo par mois, mais sur des distances plus longues.

Malgré tout, l’IK semble avoir un effet bénéfique, plus largement, sur la pratique du vélo au quotidien. En effet, 30 % des nouveaux cyclistes et 15 % des anciens déclarent avoir augmenté leur pratique du vélo pour leurs autres motifs de déplacement.

Qui a décidé de prendre son vélo ?

Les expérimentateurs étaient principalement des hommes (60 %), âgés entre 35 et 55 ans. 54 % des nouveaux cyclistes utilisaient auparavant les transports collectifs. Ce bilan dépend néanmoins fortement du maillage et de l’attractivité du réseau de transports collectif dans la zone considérée. Le report modal est faible là où les réseaux sont les plus attractifs, comme en Ile-de-France (5 %).

19 % des nouveaux cyclistes se déplaçaient avant en voiture, principalement en covoiturage et 9 % en 2 roues motorisées. Seulement 5 % de usagers qui prenaient seuls leur voiture ont décidé de la laisser au garage. L’expérience aurait donc un faible effet pour diminuer le nombre d’automobiles en circulation, contrairement à ce qui était espéré. La courte durée d’expérimentation et l’intérêt financier insuffisant sont les deux principales raisons avancées par le rapport pour l’expliquer.

Des dispositions à améliorer pour pérenniser le système

La possibilité pour les employeurs d’instaurer une IK est une disposition inscrite au projet de loi sur la transition énergétique pour la croissance verte. Votée en première lecture à l’Assemblée nationale en octobre dernier, la commission des finances du Sénat a voté le 21 janvier un amendement pour supprimer cette disposition. Mais le Gouvernement reste favorable à sa mise en place et, ce sera à l’Assemblée Nationale d’avoir le dernier mot.

Les entreprises volontaires demandent une exonération des cotisations sociales et fiscales et un versement au même titre que pour le soutien à l’abonnement transport. Car de 25 centimes / km, la dépense pour l’entreprise atteint 40 à 43 centimes/km en intégrant les charges. Le décret d’application, si le projet est maintenu, devra trancher sur la question de l’exonération des charges et sur le montant de l’indemnité à proposer aux salariés.

  • Aller plus loin

Synthèse de l’expérimentation « Indemnité kilométrique vélo »

Par Matthieu Combe, journaliste scientifique

La chasse aux ondes est ouverte

Pour la première, une loi française reconnait implicitement les dangers éventuels des ondes électromagnétiques sur la santé de l’homme. Le 29 janvier, après 2 ans de tergiversations et de modifications, la « loi Abeille », du nom de la députée écologiste Laurence Abeille, rapporteure du texte, prévoit ainsi plusieurs mesures censées mieux maîtriser l’impact des ondes.

 Aucune révolution toutefois, le texte contient surtout quelques mesures qui relèvent plus du symbolique que de l’action.

  • 1. Contrôle des publicités

Ainsi, plus aucune publicité ne pourra montrer un individu le téléphone collé à l’oreille et devra systématiquement faire une mention explicite au kit mains-libres.

  • 2. Indication du DAS

Le débit d’absorption spécifique (DAS), qui indique la quantité d’énergie transmise par les radiofréquences vers l’utilisateur à pleine puissance, devra être apparent sur tous les terminaux radioélectriques, comme les tablettes.

  • 3. Wifi interdit en crèche

La loi prévoit l’interdiction du Wifi en halte-garderie et en crèche de façon à protéger les moins de 3 ans. Cette interdiction devait initialement concerner les écoles primaires (maternelles et élémentaires) mais finalement elle se limite aux tout-petits.

  • 4. Surveillance des zones de trop forte émission

En France, l’exposition moyenne est de 1V/m, mais localement, ce taux peut atteindre 10 V/m. Désormais, ces secteurs seront identifiés et recensés chaque année par l’Agence nationale des fréquences (ANFR). De plus, le niveau d’exposition devra être abaissé dans un délai de 6 mois, sous réserve de faisabilité technique.

  • 5. Déploiement des antennes-relai

En cas de désaccord entre les opérateurs et la municipalité sur l’installation d’antenne-relai, ces derniers pourront désormais solliciter une instance de concertation. En attendant d’en préciser les modalités de fonctionnement, l’ANFR pourra agir via son comité de dialogue.

  • 6. L’hypersensibilité à l’étude

Le gouvernement est chargé de remettre un rapport au Parlement sur les hypersensibles dans l’année qui suit la promulgation de la loi.

Voilà donc un ensemble de mesurettes qui ne bouleverseront la vie ni des usagers ni des professionnels. Seul réelle nouveauté, la reconnaissance de l’électro-hypersensibilité dont le terme est utilisé pour la première fois dans la loi.

Par Audrey Loubens, journaliste scientifique

Le secret de l’odeur du sol mouillé enfin révélé

Pourquoi la terre exhale-t-elle ce parfum si caractéristique après la pluie ? Une équipe du MIT s’est penché sur la question en braquant à la surface du sol une caméra. Pour mener à bien leur enquête, ces nouveaux experts des gouttes de pluie se sont intéressés à différentes sortes de pluies, plus ou moins violentes, avec une vitesse de chute plus ou moins importante. De même, différentes surface de contact ont été étudiées, à la porosité variable. Les résultats parus dans Nature Communications font état de 600 gouttes d’eau filmées pendant leur chute sur 28 terrains différents, dont 12 superficiels et 16 naturels. A y regarder de si près, les scientifiques ont découvert un mécanisme de nature purement mécanique. En effet, lorsque la goutte heurte le sol, elle emprisonne de minuscules bulles d’air entre elle et le sol. Cet air traverse la goutte de pluie, remonte à la surface et éclate, libérant les aérosols responsables de l’odeur bien connue de la pluie.

Toutefois, les chercheurs ont aussi mis en évidence une modulation du phénomène selon l’intensité de la colère du ciel. Ainsi, l’odeur sera plus forte dans le cas d’une pluie fine tombant sur un sol poreux de type terre battue. A contrario, le phénomène reste limité si un terrible orage s’abat sur un sol non poreux. Dans ce cas les gouttes d’eau frappent le sol si vite que les bulles d’air n’ont pas le temps de se former. Il faudra alors inspirer à plein poumons pour détecter la délicate odeur de terre humide.

La découverte de ce phénomène de bulle d’air capturée sous la goutte de pluie et venant éclater à sa surface pose la question de la transmission de certaines maladies dont les agents pathogènes sont contenus dans le sol. Une faible pluie sur un sol argileux favoriserait alors la diffusion de tels agents et donc d’éventuelles épidémies.

Découvrez comment se diffuse l’odeur de la pluie :

Par Audrey Loubens, journaliste scientifique

Revue du web #75 : les vidéos les plus étonnantes de février 2015 (1/2)

Cette semaine dans la revue du Web :

  • Le retour de Nobumichi Asai et du « face hacking » ;
  • Bill Gates sur tous les fronts, mais du bout des lèvres ;
  • De bien beaux aimants permanents… oui mais « Will it blend ? »
  • « Blooms », les très élégantes sculptures zootropes inspirées par Fibonacci ;
  • Le gadget (inutile ?) de la semaine : la machine de Rube Goldberg virtuelle ;
  • Et en bonus : des marshmallows en toute décontraction, au bord du cratère d’un volcan.

Le retour de Nobumichi Asai et du « face hacking » :

A l’avant-garde du mapping vidéo depuis quelques années – une technologie permettant de projeter de la lumière ou du contenu vidéo sur des volumes et des structures en relief – Nobumichi Asai finit par se lasser des commandes habituelles, les sempiternelles projections d’images sur des bâtiments ou dans une pièce pour les animer de manière digitale. Brillant et novateur, l’artiste numérique japonais s’était illustré il y a quelques mois déjà avec un premier projet de mapping vidéo dynamique, baptisé Omote, système alliant les techniques de détection de mouvement les plus novatrices aux dernières techniques de mapping vidéo. On avait pu admirer Omote à l’œuvre sur un support d’un nouveau genre : la toile n’était autre que le visage d’une mannequin japonaise (qui avait d’ailleurs dû se débarrasser de ses sourcils pour l’occasion). La vidéo, avait fait sensation, et nous vous en parlions ici.

C’est aux visages de deux acteurs qu’il s’attaque cette fois-ci, lors d’un show télévisé, accompagné de son équipe de designers, d’experts en images de synthèse et de maquilleurs professionnels. Une fois de plus, le résultat est absolument somptueux, et le public bluffé par le maquillage dynamique, sorte de seconde peau digitale. Peu de détails techniques du « face-hacking » ont pu filtrer, mis à part la nécessité de scanner le visage des deux acteurs au préalable, étape nécessaire pour la modélisation du moindre de leurs contours, et pouvoir réaliser la projection en temps réel.

Asai n’est pas un novice en la matière – il a déjà effectué des projections pour le constructeur automobile Subaru – et c’est désormais la seconde fois qu’il travaille sur un support non stationnaire. Il ne compte d’ailleurs pas s’arrêter en si bon chemin… Prochaine étape en vue, le mapping vidéo sur tout le corps.

Bill Gates sur tous les fronts, mais du bout des lèvres :

Depuis qu’il se consacre à sa fondation, Bill Gates multiplie les combats, dans des domaines aussi variés que la santé ou l’acquisition de connaissances. Présent sur tous les fronts, le multimilliardaire américain donne de sérieux coups de pouce aux projets qui lui semblent plus que prometteurs. Parmi ceux-ci, l’« Omniprocessor » semble tenir le haut du pavé. Cette machine imposante, mise au point par Janicki Bioenergy, a pour délicate mission de transformer les boues d’épuration en cendres, en électricité et… en eau potable.

Les grandes lignes du processus sont assez simples : un tapis roulant emmène les boues d’épuration à travers un séchoir géant, dont la mission est de séparer l’eau des solides secs ; l’incinération de ces solides secs ne laisse que des cendres et alimente un moteur à vapeur, produisant l’électricité nécessaire au processus et envoie le surplus d’électricité vers le réseau, tandis que l’eau est filtrée pour être rendue potable.

Bill Gates y met tellement du sien qu’il va jusqu’à boire – il est vrai, du bout des lèvres – l’eau devenue potable. Bonne nouvelle, un programme pilote devrait être lancé courant 2015 au Sénégal, afin d’en faire profiter le plus grand nombre.

De bien beaux aimants permanents… oui mais « Will it blend ? » :

La franchise « Will it blend ? » reprend du service ! La série de petites vidéos old-school faisant l’apologie de la destruction des objets de notre quotidien, campagne de pub virale assez réussie pour le compte du fabricant américain Blendtec, a tant et si bien marché que cette petite phrase est devenue le mantra de toute une génération d’internautes turbulents. Replongeons tout entier dans le plaisir jouissif et enfantin du saccage pur et dur avec cette vidéo, démontrant (si toutefois il en était besoin) qu’une grappe d’aimants permanents en alliage néodyme ne fait pas long feu lorsqu’elle croise la route d’un blender. Leur chant du cygne ? Un joli feu d’artifices dans le récipient en verre, avant de finir pulvérisés, au sens propre du terme.

Pour rappel, un aimant permanent est souvent constitué d’un alliage de néodyme fer bore (structure cristalline tétragonale de formule Nd2Fe14B). L’alliage de néodyme fer bore est celui qui est le plus souvent utilisé pour les aimants en terres rares, car le néodyme augmente de manière significative les capacités électromagnétiques des aimants, mais est relativement fragile et trop malléable. On retrouve d’ailleurs de grandes quantités de néodyme dans les alternateurs des éoliennes à forte puissance.

« Blooms », les très élégantes sculptures zootropes inspirées par Fibonacci :

L’artiste et inventeur américain John Edmark a un petit faible pour Leonardo Fibonacci, passé à la postérité grâce à la suite qui porte son nom. Reprenant à son compte les travaux du mathématicien italien concernant l’angle d’or, le designer californien a conçu d’élégantes sculptures appelées « blooms », créations organiques sorties tout droit d’une imprimante 3D, et pièces centrales de zootropes de son cru – ces jouets optiques d’antan utilisant la persistance rétinienne pour donner une illusion de mouvement.

Placées sur une plate-forme rotative, ces « blooms » subissent les assauts synchrones d’une caméra réglée sur une très courte vitesse d’obturation, pour donner un effet stroboscopique, de telle manière qu’une image est capturée chaque fois que la sculpture effectue une rotation d’environ 137,5° – le fameux angle d’or, que l’on retrouve dans la nature, de la pomme de pin aux fleurons du tournesol. Le résultat : une vidéo absolument sublime, aux accents hypnotiques.

Le gadget (inutile?) de la semaine : la machine de Rube Goldberg virtuelle

Pour venir conclure cette soixante-quinzième Revue du Web, invoquons une fois de plus le génie de Rube Goldberg et l’une des fantastiques « machines » qu’il a inspirée, abonnées aux coups de pubs et aux gadgets (inutiles?) de la semaine. Cette fois-ci, c’est une jeune Hollandaise qui utilise cette figure imposée pour se faire un nom, avec une installation qui a le chic de passer du réel au virtuel, en s’invitant sur un bureau de type Windows.

Ce type d’installation s’inspire, on le rappelle, de l’œuvre prolifique et inventive de Rube Goldberg, un dessinateur et artiste américain mort en 1970, dont les installations avaient pour leitmotiv la transformation d’une tâche excessivement simple en une série de tâches complexes, impliquant la plupart du temps une réaction en chaîne. Chaque élément de la machine vient se frotter d’une manière ou d’une autre à l’élément suivant, remplissant humblement sa fonction, jusqu’à déclencher de fil en aiguille l’action finale, le but initial de la machine de Rube Goldberg.

Bonus : des marshmallows en toute décontraction, au bord du cratère d’un volcan

Pour le bonus de cette semaine, rien de tel que de partager un petit moment de douceur virile entre amis, à conter des histoires maintes fois ressassées dans la chaleur humble et conviviale d’un petit feu de camp, avec son cortège – attendu – de marshmallows à la braise. L’homme qui se met en scène dans la vidéo qui suit n’en a que faire de ces histoires, il n’a d’ailleurs plus d’amis. Mais ne vous en faites pas pour lui, rien ne l’empêche pourtant de profiter des mêmes petits riens que tout un chacun, en solitaire. Pour dynamiter son quotidien, notre héros vient se fourrer au plus près du cratère d’un volcan, afin de réchauffer ses marshmallows au dessus de la fournaise, tout en savourant sa bière. Comme à la maison.

Par Moonzur Rahman

Sécurité de vos comptes : un seul mot de passe pour les protéger tous

L’été dernier, un piratage de comptes iCloud a créé le buzz. Un hacker avait réussi à pirater les comptes de célébrités, puis il avait diffusé en ligne des photos intimes. Une attaque sûrement menée via une attaque par force brute, qui permet, en testant à la volée des milliers de combinaisons possible, de trouver les mots de passe des utilisateurs.

Régulièrement, des internautes se font voler leurs données. Un mot de passe trouvé, et c’est, bien souvent, l’ensemble des comptes de l’internautes qui est percé à jour – puisque la plupart des utilisateurs utilisent le même mot de passe pour tous leurs comptes (Facebook, Twitter, Gmail, iCloud, etc.).

Construisez des phrases de passe sûres

Face à ce constat, comment faire ? Vos mots de passe sont-ils suffisamment complexes pour ne pas être trouvés par un hacker ? Aussi incroyable que cela puisse paraître, beaucoup d’internautes utilisent encore des mots de passe comme “123456”. Plus un mot de passe sera complexe et long, plus il sera difficile à un hacker de le “craquer” grâce à un dictionnaire de mots. Le changer régulièrement est en outre indispensable.

Pour créer un mot de passe complexe, rendez-vous sur notre article dédié aux phrases de passe, qui explique comment utiliser des phrases de passe, plutôt que de simples mots de passe. Pour rappel, les phrases de passe sont une succession de mots, qui placés côte à côte n’ont aucun sens, et qui seront très difficiles à craquer. Il est aussi impératif d’utiliser des phrases de passe différentes pour chaque compte, et jamais un mot de passe unique, pour les raisons citées plus haut.

Une fois que vous aurez réussi à bien verrouiller vos comptes grâce aux clés adéquates, encore faut-il que vous ne les perdiez pas, sinon, impossible d’accéder à vos comptes. Autrement dit, il est impératif de ne jamais perdre vos multiples phrases de passe. Seulement, la mémoire nous joue parfois des tours, et pas question d’écrire vos identifiants quelque part dans un coin de votre ordinateur, ou même sur un bout de papier, car dans le cas où quelqu’un de malintentionné viendrait à y accéder, gare aux dégâts…

Une seule “master key” pour tout protéger

Pour conjuguer au mieux la diversité de vos phrases de passe et leur complexité, une solution consiste à utiliser un “coffre fort”, ou “portefeuille” de phrases de passe.

Ainsi, KeePass, Dashlane, LastPass et 1Password vous permettent de stocker vos phrases de passe, et de les protéger dans un fichier unique, lui même protégé par une clé. En somme, une unique phrase de passe permet d’accéder à toutes les autres, dans une base de données sécurisées. Ces données sont chiffrées, et votre phrase de passe “maîtresse”, ou “master key”, est à considérer comme une clé de chiffrement – sans elle, vos données sont inutilisables, y compris par un pirate informatique.

Dashlane vous permet de vous connecter directement à vos comptes sans jamais plus saisir vos mots de passe, grâce à une fonction de connexion automatique – vos phrases de passe sont mémorisées par le logiciel. Ce logiciel possède aussi un générateur de mots de passe complexes, difficiles à percer, ainsi qu’un système d’alerte, qui vous prévient automatiquement dès qu’un site web où vous disposez d’un compte à été piraté.

Bien sûr, vous devrez faire attention à changer régulièrement votre “master key”, et à ne jamais l’oublier. Mais retenir une seule phrase plutôt qu’une dizaine, voilà qui est tout de même plus simple. A noter que KeePass est le seul parmi les logiciels listés ici a avoir été évalué et certifié par l’Agence nationale de sécurité des systèmes d’information (ANSSI).

Comme le conseille la CNIL (Commission Nationale Informatique et Libertés), il est enfin “indispensable de disposer d’une copie de cette base de mots de passe”, qui est “une ressource critique pour pouvoir accéder à vos comptes”. Ainsi, nous ne saurions vous conseiller de disposer d’une copie de votre base de phrases de passe sur une clé USB, ou sur un autre support, à garder sur vous ou dans un endroit (vraiment) sûr.

Par Fabien Soyez

La Nasa a lancé avec succès le premier satellite de mesure de l’humidité des sols

La fusée Delta 2 de la société United Launch Alliance transportant le satellite SMAP (Soil Moisture Active Passive Mission) s’est arrachée de son pas de tir de la base militaire Vandenberg en Californie à 14H22 GMT, avant le lever du soleil.

SMAP s’est séparé du second étage du lanceur 57 minutes plus tard, à 15h18 GMT, pour se placer, avant de déployer ses antennes solaires, sur une orbite provisoire de 661 à 683 km. Il se mettra ensuite sur une orbite polaire définitive à 685 km d’altitude et effectuera une rotation de la Terre toutes les 98,5 minutes.

Le satellite, qui est doté de deux instruments, un radiomètre et un radar, doit effectuer des mesures très précises de l’eau et de la glace contenue dans les sols.

Cette mission permettra d’établir une carte d’une résolution sans précédent de l’humidité à la surface de la Terre au moins tous les deux à trois jours, ce qui permettra de mieux prédire les sécheresses et les risques d’inondation.

Le degré hygrométrique des sols, comme celui de l’air, joue un rôle important dans les prévisions météorologiques et dans la compréhension des cycles de l’eau ainsi que dans la dynamique du changement climatique, expliquent les scientifiques de la Nasa.

Tous les sols émettent des micro-ondes, dont l’intensité varie en fonction de la quantité d’humidité qu’ils contiennent.

Ainsi, plus le sol est sec, plus les émissions de micro-ondes sont grandes. Inversement, plus il est humide, moins il contient d’énergie.

Le radiomètre mesure ces radiations de micro-ondes, ce qui permet aux scientifiques de calculer le degré hydrique des sols.

« Le récepteur à bord du satellite est extrêmement sensible », explique Jeff Piepmeier, responsable du radiomètre au centre des vols spatiaux Goddard de la Nasa à Greenbelt dans le Maryland (est).

« Si on pouvait mettre un téléphone portable sur la Lune fonctionnant sur la même fréquence que le récepteur du satellite –une grande antenne– nous pourrions voir le portable s’allumer et s’éteindre », précise-t-il.

SMAP est une mission de 916 millions de dollars qui devrait durer trois ans ou plus. Il s’inscrit dans un programme plus large de projets de sciences de la Terre dans l’espace pour mieux comprendre le changement climatique et la montée du niveau des océans ainsi que l’état des réserves d’eau douce de la planète, avait expliqué avant le lancement Christine Bonniksen, responsable de cette mission à la Nasa.

« Nos satellites sur orbite ainsi que les observations effectuées depuis le sol ou aériennes traquent les signes vitaux de la Terre », a-t-elle dit.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Automobile : +5,9% en janvier pour le marché français du neuf

Les constructeurs français ont connu des parcours contrastés pendant le mois de janvier, PSA Peugeot Citroën progressant de 2,6% grâce à une envolée de Peugeot, tandis que le groupe Renault reculait de 3,3%, a indiqué le Comité des constructeurs français d’automobiles (CCFA) dans sa livraison mensuelle de chiffres.

Les Français, qui avaient gagné des parts de marché pendant toute l’année 2014, voient leurs ventes s’effriter de 0,1% en janvier par rapport au même mois de l’année dernière, tandis que les étrangers ont profité à plein de cette baisse de régime et enregistrent des immatriculations en hausse de 14,5%.

Côté groupes généralistes, Nissan, partenaire de Renault, progresse ainsi de 26,6%, son concurrent japonais Toyota est à 10,4%, tandis que Ford bondit de 18,2%, Fiat de 9,7% et Volkswagen de 6,8%. Seul General Motors fait la grimace avec -7,7%, dépassé en volume par le sud-coréen Hyundai (+26,8%).

Le champion toutes catégories de la croissance en janvier est toutefois le spécialiste allemand du luxe Mercedes (avec Smart), à +58,1%, alors que son concurrent direct BMW (qui comprend Mini) progresse de 18,4% mais bat encore largement le groupe à l’étoile en volumes de vente.

tq/cb/jag

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Spartan : la future alternative à Internet Explorer, by Microsoft

Ce n’est pas un secret, face à Google Chrome et Mozilla Firefox, Internet Explorer souffre d’un certain désamour de la part des internautes. Alors que “IE” est tout aussi performant que ses concurrents, il apparaît comme trop “rétro”, trop lent, trop rigide aux yeux des utilisateurs. 

Pour pallier ce déficit d’image, Microsoft développe un nouveau navigateur web (destiné à accompagner le futur Windows 10). Il ne s’agit pas d’un énième Internet Explorer (le douzième), mais d’un tout nouveau logiciel.

Le nom (provisoire) de ce navigateur, qui s’adaptera à toutes les versions de Windows 10 (mobiles ou PC) : Spartan. Dévoilée par le site Neowin, son interface se révèle particulièrement “allégée”, épurée. Proche de Google Chrome et de Firefox dans le style, elle a été conçue à partir des moteurs de rendu HTML Trident et JavaScript Chakra, déjà utilisés pour IE.

De nouvelles fonctionnalités

Selon The Verge, Spartan devrait intégrer de nouvelles fonctions, comme l’assistant vocal Cortana, conçu par Microsoft lors d’une mise à jour de Windows Phone 8.1, ce qui permettra à l’utilisateur de rechercher, vocalement, des réservations d’hôtel ou des horaires de vols d’avions, sans passer par Bing, le moteur de recherche de Microsoft.

Autre fonction annoncée, inédite, et qui devrait permettre à Spartan de se démarquer de ses concurrents : l’encrage numérique. L’utilisateur pourra annoter des pages web avec un stylet, prendre des notes et des annotations, puis les partager, rapidement, via OneDrive (le service de stockage en ligne de Microsoft), avec leurs contacts. 

“Les notes seront ensuite accessibles depuis n’importe quel navigateur, sur de multiples plateformes”, indique The Verge. Ainsi, plusieurs utilisateurs pourraient éditer et partager des notes sur la même page, dans une optique de travail collaboratif.

Spartan devrait aussi permettre de regrouper librement des onglets ensemble (une fonction que proposait autrefois le navigateur concurrent Opera). Cela devrait permettre à l’internaute de dissocier les onglets liés au travail de ceux liés à sa vie personnelle.

Spartan acceptera également les extensions, permettant ainsi à l’utilisateur d’ajouter nombre de fonctions supplémentaires, comme c’est déjà le cas avec les navigateurs concurrents de Microsoft.

D’autres fonctionnalités sont toujours en cours de développement, comme la possiblité d’installer des thèmes.

Pas (encore) la fin d’Internet Explorer, mais une alternative

Alors, est-ce la fin d’Internet Explorer ? Non, du moins pas encore. Spartan sera une alternative, pas un remplaçant de IE (bien que celui-ci semble condamné, à terme, à se faire supplanter).

Microsoft continuera ainsi à proposer son ancien navigateur (Internet Explorer 11) aux utilisateurs de Windows, y compris sur Windows 10 (pour éviter les problèmes de rétrocompatibilité, notamment). En revanche, pour Windows 8, Spartan devrait remplacer l’interface graphique Modern UI d’Internet Explorer – sur PC, tablettes et smartphones.

A noter que Spartan ne sera pas installé par défaut dans le système d’exploitation Windows, comme c’est le cas avec Internet Explorer actuellement : le navigateur sera disponible en téléchargement, sur le Windows Store, ce qui permettra à Microsoft d’effectuer des mises à jours beaucoup plus rapidement.

Et peut être, pourquoi pas, de proposer Spartan aux utilisateurs d’autres systèmes d’exploitation ? “L’équipe de IE a expliqué il y a quelques mois que Microsoft n’avait pas l’intention de le proposer à tous les OS. Mais Spartan n’est pas IE”, indique une journaliste de ZDNet.

Par Fabien Soyez

Et aussi dans les
ressources documentaires :

Le groupe OK Go a encodé sa musique dans des brins d’ADN

Ce sera donc un album collector. Le dernier opus du groupe OK Go sort sous forme de brins d’ADN et ne pourra pas être écouté sans un arsenal technologique digne des plus grands laboratoires de recherche. Peu importe, il s’agit d’une démarche artistique. Pour fabriquer ce tout nouveau produit musical, les scientifiques ont converti le code binaire d’origine en séquence ADN composée des 4 éléments de base que sont les nucléotides adénine, cytosine, thymine et guanine. Une fois les brins d’ADN réordonnés, l’album est prêt.

Il sera vendu sous la forme d’une petite fiole contenant elle-même environ 100 000 exemplaires de l’album. 

Le groupe est un habitué des performances mêlant musique et nouvelles technologies. En 2011 le quatuor s’était associé à Google pour tourner un clip faisant la promotion du html 5.

Les Ok Go ne sont pas les premiers à utiliser de l’ADN pour stocker de la musique. Il ya  deux ans déjà paraissaient dans Nature les travaux des chercheurs de LEBM-Institut européen de bio-informatique.

Ceux-ci avaient réussi à stocker dans de l’ADN de l’information sonore et textuelle : 26 secondes du discours de Martin Luther King et 154 sonnets de Shakespeare.

Le codage de l’information repose sur le même principe de transcrire le code binaire en système à base de 4 briques unitaires. Pour cela, les scientifiques sont passés par une étape intermédiaire de codage ternaire avec des 0, des 1 et des 2. Surtout, ils ont envoyés l’ADN des USA à des scientifiques allemands qui ont réussit à lire l’information sans aucune erreur. 

Un premier succès qui a ouvert la voie de l’ADN comme système de stockage. L’avantage étant que l’ADN se conserve des milliers d’années contre seulement quelques centaines au mieux pour des supports comme le CD, le DVD ou une clé USB.

En attendant, si vous voulez écouter Hungry Ghost, des OK Go,  il va falloir investir dans un séquenceur ADN. 

Par Audrey Loubens