Les perfluoroalkylées (PFAS) passent dans le lait maternel

Philippe Grandjean, expert en santé environnemental à la Harvard T.H. Chan School of public health ne cache pas son inquiétude. L’étude qu’il a menée sur une cohorte de 81 enfants nés sur les îles Féroé entre 1997 et 2000 montre une contamination aux produits chimiques directement liée au fait que les mères allaitent leur bébé. Un paradoxe car l’allaitement au sein est censée être la meilleure alimentation pour un bébé. Pourtant, d’après ses travaux, les enfants nourris exclusivement au sein présentent un taux de substances perfluoroalkylées (PFAS) supérieur de 20 à 30% par rapport aux autres enfants. Ce taux anormalement élevé est causé par ces mêmes substances qui sont présentes dans le corps de la mère et migrent dans le lait en se fixant sur ses protéines. En nourrissant leur enfant au sein, les mères transmettent aussi les PFAS. Or, si l’impact des ces produits chimiques sur des bébés reste inconnu, ils sont suspectés de provoquer des perturbations endocriniennes et de favoriser l’apparition de cancers chez les adultes.
La problématique des substances chimiques contaminant les jeunes enfants par le biais du lait maternel est malheureusement connue. Notamment chez les mères surexposées, que cela soit par leur métier ou par leurs habitudes alimentaires par exemple. C’est pour cela que l’on conseille aux femmes enceintes et mamans allaitantes de limiter leur consommation de poisson pour se protéger des métaux lourds comme le mercure, d’éviter les dentifrices et eaux trop fluorées et bien sûr d’être vigilantes sur la consommation de médicaments.
La bonne nouvelle concernant cette étude est que le taux de PFAS revient à la « normal » dès la fin de l’allaitement, la contamination n’étant que ponctuelle. Enfin, les bienfaits d’un allaitement au sein restent nettement supérieurs aux dangers représentés par les PFAS.

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

Une substance aromatisante considérée comme préoccupante pour la santé

En 2002, une évaluation internationale avait été réalisée sur le périllaldéhyde utilisé en tant qu’arôme alimentaire et elle avait conclu qu’ « il  ne constituait pas un problème de sécurité aux niveaux actuels de consommation ». En 2008, la Commission européenne a invité l’EFSA à réévaluer cette substance dans le cadre de l’évaluation systématique de tous les arômes alimentaires autorisés dans l’UE.

L’industrie des arômes a pour la première fois soumis des données sur cette substance en 2012, à la suite de la demande faite par l’EFSA. En 2013, les experts de l’EFSA avaient alors conclu que la substance était potentiellement génotoxique et ils avaient sollicité une étude complémentaire qui leur permettrait de déterminer ses effets potentiels sur le foie et l’estomac. C’est cette nouvelle étude soumise en 2014 qui fait l’objet du présent avis scientifique, dans lequel l’EFSA conclut que le périllaldéhyde induit des dommages à l’ADN dans le foie. Les experts de l’EFSA ont toutefois noté que les données de contrôle historiques (à savoir les données concernant les animaux d’essai non exposés à la substance spécifique examinée) du laboratoire qui a effectué ce test présentaient quelques faiblesses.

Dans le cadre du système de l’UE conçu pour évaluer les arômes, le périllaldéhyde constitue aussi la substance de référence d’un groupe d’arômes, utilisée pour évaluer neuf autres substances chimiques structurellement similaires connues collectivement comme « aldéhydes alicycliques ». Par conséquent, les experts de l’EFSA indiquent qu’il existe donc aussi un problème de sécurité potentiel pour ces autres substances, à moins que d’autres éléments ne viennent prouver le contraire.

On trouve le périllaldéhyde à l’état naturel dans la peau des agrumes. On le produit en quantités limitées pour l’ajouter à certains aliments cuits, à des crèmes-desserts, des produits à base de viande et des boissons alcoolisées ou non-alcoolisées de façon à apporter un parfum piquant d’agrumes et un goût hespéridé, boisé et épicé.

Les gestionnaires de risques de l’UE examineront comment utiliser au mieux l’avis scientifique de l’EFSA pour envisager des mesures de suivi possibles.

Source : efsa

Et aussi dans les
ressources documentaires :

La Russie vend pour la première fois aux enchères du gaz à l’Europe

Au total, l’entreprise publique met pour la première fois sur le marché entre lundi et mercredi 3,24 milliards de m3 de gaz répartis en 127 lots pour livraison dans le nord-ouest de l’Europe pendant l’hiver, a-t-elle précisé dans un communiqué.

Il s’agit d’un volume restreint comparé aux exportations totales du groupe, attendues à 158 milliards de m3 sur 2015. Ces opérations s’apparentant à un embryon de Bourse du gaz constituent néanmoins une évolution très symbolique pour Gazprom, très attaché à son système de contrats à long terme indexés aux cours du pétrole et contraignants en termes de volumes.

Selon lui, ces derniers apportent aux clients la sécurité des approvisionnements tout en lui permettant d’investir à long terme dans les infrastructures.

« Le marché européen du gaz change constamment et, face à ces difficultés, nous voulons tester cette nouvelle forme de commerce du gaz et voir quels avantages ils peuvent apporter au vendeur et aux acheteurs », a commenté Alexandre Medvedev, cité dans le communiqué.

Gazprom couvre près du tiers de la consommation sur le continent européen mais dans un contexte de crise ukrainienne, l’Europe cherche à réduire cette dépendance en diversifiant ses approvisionnements.

Bruxelles accuse par ailleurs l’entreprise russe d’abuser de sa position dominante, en partie en raison de la forme des contrats, et a lancé une procédure pouvant aboutir à une lourde amende.

Le marché mondial du gaz a été nettement bouleversé ces dernières années avec l’émergence du gaz de schiste et le développement du gaz naturel liquéfié (GNL), qui se traduit par une concurrence nouvelle pour l’entreprise russe.

Gazprom martèle cependant qu’à long terme, il est le seul à pouvoir répondre à la hausse attendue de la consommation de gaz en Europe à un prix compétitif.

Le groupe vient de recueillir une marque de soutien des principaux fournisseurs d’énergie européens qui se sont associés à son projet de renforcement du gazoduc Nord Stream via les fonds de la mer Baltique.

Moins de trois mois après l’annonce de ce projet, il a annoncé la semaine dernière la signature d’un pacte d’actionnaires dans ce sens avec les groupes allemands BASF et E.ON, le français Engie, l’autrichien OMV et l’anglo-néerlandais Shell.

gmo/kat/jh

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Accident nucléaire : quelle contamination alimentaire est acceptable ?

L’Europe s’interroge sur les niveaux maximaux admissibles (NMA) de contamination radioactive à autoriser en cas d’accident nucléaire. Le Parlement européen a adopté ce projet de réglement le 9 juillet dernier.

Les limites sont fixées pour 4 groupes de radionucléides – plutonium, strontium, iode et césium – et 5 catégories d’aliments – aliments pour nourrissons, lait, boissons dont eau potable, aliments de base et aliments dit mineurs. Les produits dépassant les NMA ne pourront pas être vendus ou exportés. La Commission a simplement décidé de reconduire les valeurs retenues en 1987 et établies suite à l’accident de Tchernobyl en 1986.

Les experts en charge de fixer ces niveaux sont associés au Traité Euratom, un « traité qui a pour mission statutaire le développement rapide des industries nucléaires », rappelle la CRIIRAD. Le nom de ces experts n’est pas rendu public au motif que cela pourrait « porter atteinte » à leurs « intérêts légitimes », selon la Direction générale de l’énergie.

Pour la Commission européenne, le projet garantit le respect de la limite maximale de dose efficace de 1 mSv/an. « Cette affimation est totalement fausse », estime pour sa part la CRIIRAD. « Les vérifications conduites par la CRIIRAD font apparaître des doses de l’ordre de 10 fois supérieures (et jusqu’à 100 fois pour des scénarios pénalisants) et montrent que les enfants paieront le tribut le plus élevé », affirme l’association indépendante. Face à ces constats, un amendement a proposé de réduire par 10 les limites applicables à l’ensemble des aliments solides et mineurs. Il a été rejeté lors du vote au Parlement par 68 % des votants.

Une contamination largement sous-estimée

La CRIIRAD a analysé le rapport scientifique, daté de 1998, qui valide le choix des NMA. « L’analyse critique a permis à la CRIIRAD d’identifier toute une série d’erreurs, d’incohérences et d’irrégularités » qui vont « toutes dans le même sens : minimiser les risques et aboutir à la fixation de limites de contamination excessivement élevées ».

Notamment, les NMA ont été définis pour l’impact d’un accident lointain, survenant à plus de 1 000 km des frontières de l’Union européenne. Les experts basent leurs calculs sur le fait que seulement 10 % des aliments solides et 1 % de l’eau potable seraient contaminés. Mais la contamination serait en réalité beaucoup plus vaste en cas d’un accident survenant au sein de l’Europe. « Dans ce cas, les hypothèses de calcul ne tiennent plus : le pourcentage d’aliments contaminés serait bien plus élevé ce qui impose des limites beaucoup plus basses », prévient la CRIIRAD.

L’association demande donc de revoir à la baisse « de façon drastique » les NMA ou « rédiger un second règlement applicable aux accidents susceptibles d’affecter fortement les Etats membres de l’UE ». En attendant, la Commission doit rendre pour fin mars 2017 un rapport sur la pertinence de ces NMA fixés ans les annexes. Un autre rapport doit étudier la pertinence d’un mécanisme de dédommagement des agriculteurs dont la production serait contaminée au-delà des NMA.

Par Matthieu Combe, journaliste scientifique

 

Ingénierie & BTP : 10 conseils pour augmenter sa rentabilité en réinventant son cycle projet

Les grands ingénieristes et acteurs du secteur de l’énergie font face à un marché en évolution constante et à de fortes pressions : concurrence qui s’internationalise, évolution des normes et des réglementations, clients de plus en plus exigeants (coûts, innovation, transfert de connaissance…).

Ils répondent à ces enjeux grâce à leur puissance d’innovation et à leur souplesse opérationnelle. Ainsi, ils sont capables de chercher des relais de croissance hors du territoire national, d’intégrer aisément des équipes pluridisciplinaires, de faire collaborer des « cascades de sous-traitants » ou de co-concevoir pour réduire les investissements et les risques.

Conserver et améliorer sa rentabilité impose de développer cette capacité à s’adapter rapidement et à innover dans les méthodes projet. Cela nécessite de pouvoir répondre à des questions telles que :

·         Comment apporter une vue personnalisée des informations des opérationnels au top management ?

·         Comment garantir la confidentialité et la sécurité des données dans un environnement multi-projets ?

·         Comment développer l’agilité de l’organisation et des processus ?

·         Comment passer d’une vision cloisonnée de l’information à une vision partagée et collaborative ?

·         Comment constituer une « mémoire » du projet pour la phase d’exploitation ?

·         Comment accélérer le lancement des projets pour réduire les coûts ?

·         Comment piloter le processus contractuel et les exigences ?

 

Des questions auxquelles ce guide répond, à travers une démarche simple et éprouvée sous la forme de 10 conseils opérationnels.

 

Au sommaire

·         Introduction : une capacité d’adaptation cruciale

·         Les trois clés pour des cycles projets dynamiques et évolutifs

o    1ère clé : structurer et interconnecter les informations

o    2ème clé : organiser la collaboration et les process métier

o    3ème clé : capitaliser et consolider la connaissance

·         10 conseils pour réinventer votre cycle projet

·         Conclusion : les gains et la mise en place de la démarche

·         Auteurs et références

Le titane et le zirconium sont de faux frères

Le titane et le zirconium, deux métaux cristallins utilisés notamment dans l’industrie (plus particulièrement pour les applications nucléaires et l’aéronautique), ont des structures électroniques très proches (même nombre d’électrons dans leur couche externe). Ils cristallisent également de façon semblable, c’est-à-dire que lorsque les atomes se structurent en réseau cristallin, ils adoptent une disposition comparable.
Malgré leurs nombreux points communs, les physiciens ont montré, contre toute attente, que ces deux métaux réagissaient différemment aux contraintes mécaniques. En étirant un échantillon pur de chacun de ces métaux dans un microscope électronique à transmission à différentes températures – entre -170°C et +20°C –, ils ont observé et comparé les « défauts linéaires » qui apparaissaient : des dislocations qui évoluent au fur et à mesure de la contrainte exercée. Deux comportements ont été observés : des dislocations animées d’un mouvement saccadé transitant par différents plans dans le titane ; des dislocations glissant continument dans un unique plan dans le zirconium.
La simulation en soutie​​​n à l’observation

​​Pour comprendre cette différence de mobilité, les chercheurs ont donc modélisé à l’échelle atomique le cœur des dislocations sur le supercalculateur Curie de Genci, exploité par les équipes du Très Grand Centre de calcul du CEA (TGCC), en Île-de-France​. Ces simulations montrent que les dislocations peuvent adopter deux configurations différentes : une glissant facilement en continu, l’autre difficilement. Chacune de ces deux configurations existe dans les deux métaux, mais avec une stabilité (ou récurrence) différente : les dislocations les plus stables dans le titane sont celles glissant difficilement, contrairement au zirconium.
Avec cette nouvelle vision de la plasticité dans le titane et le zirconium purs, il est à présent possible de modéliser sur des bases physiques robustes le comportement plastique des alliages correspondant. Que ce soit dans les alliages de titane ou de zirconium, les éléments d’addition – en particulier l’oxygène – affectent profondément le comportement plastique du matériau. L’objectif sera alors d’étudier comment les éléments d’alliage interagissent avec les différentes configurations des dislocations et modifient à la fois leur stabilité et leur mobilité. Les enjeux technologiques associés sont importants puisque les alliages de zirconium et ceux de titane sont des matériaux de structure couramment utilisés dans l’industrie nucléaire et dans celle des transports. 

Glissement de dislocations dans du titane pur observé in situ dans un microscope électronique à transmission à une température de 150K. © Daniel Caillard / CEMES​​​

Glissement de dislocations dans du zirconium pur observé in situ dans un microscope électronique à transmission à une température de 150K. © Daniel Caillard / CEMES​​

 

  • Références
    ​Dislocation locking versus easy glide in titanium and zirconium, E. Clouet, D. Caillard, N. Chaari, F. Onimus and D. Rodney, Nature Materials (2015), www.nature.com

Source : portail.cea

Et aussi dans les
ressources documentaires :

Demain peut-être un robot pour jouer les profs de technologie à bord de l’ISS

Une équipe de chercheurs est parvenue à développer « une mémoire autobiographique » pour le robot français Nao, qui lui permet de transmettre des connaissances à des humains après les avoir lui-même apprises auprès d’autres hommes, a annoncé jeudi le CNRS (Centre National de la Recherche Scientifique) français.

La mémoire autobiographique concerne les événements personnellement vécus.

Au lieu d’employer des plans préétablis, le robot peut apprendre en temps réel par interaction directe avec un humain qui n’est plus derrière un ordinateur mais qui lui parle et le touche.

« Nao mémorise ce qu’il a vu, les positions qu’il a apprises, ce qu’on lui a dit », explique à l’AFP Anne-Laure Mealier, doctorante qui a participé aux travaux.

Blanc et bleu, le sympathique robot Nao, développé par la société Aldebaran Robotics depuis plusieurs années, ajoute donc une corde à son arc grâce à une équipe de l’Institut cellule souche et cerveau (Inserm/Université Claude Bernard Lyon 1), dirigée par Peter Ford Dominey, directeur de recherche CNRS.

Pour le CNRS, « cette avancée technologique pourra notamment être utilisée pour les opérations sur l’ISS où le robot, membre permanent de la station, serait le trait d’union pour le partage des connaissances entre les différents équipages » généralement renouvelés tous les six mois.

Les résultats des travaux de l’équipe ont été présentés jeudi lors d’un symposium international sur les robots au Japon.

Pour tester leur système, les chercheurs ont imaginé un scénario qui pourrait se passer à bord de l’ISS.

Une carte électronique est endommagée. Nao joue le rôle de l’assistant du scientifique suivant ses consignes, apportant ou tenant les éléments de la carte au cours de la réparation.

Grâce au souvenir de cet événement, si cette même panne se reproduit, le robot pourra montrer à un nouveau membre de l’équipage, via un système vidéo, la réparation qui avait déjà été réalisée.

Il pourra également répondre à des questions sur l’événement précédent tout en aidant à la nouvelle réparation.

Si jamais un descendant de Nao se retrouve un jour dans l’ISS, il y trouvera un compagnon: l’humanoïde Robonaut 22, développé par la Nasa, installé depuis 2011 à bord de la station où il doit pouvoir aider les astronautes sur certaines tâches délicates notamment pour les sorties dans l’espace.

Les chercheurs français souhaitent désormais tester leur robot Nao dans les conditions réelles des opérations spatiales, en apesanteur. Mais aussi développer un autre domaine d’application, l’assistance aux personnes âgées, le robot jouant cette fois-ci le rôle d’un aide-mémoire personnel.

Le CNRS a posté sur YouTube une vidéo sur les exploits de Nao: https://youtu.be/LWS1m_pLNDs

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Les métaux lourds impliqués dans les grandes extinctions du passé ?

Plusieurs événements d’extinction de masse du Paléozoïque ont façonné l’évolution de la vie sur notre planète. Bien que certaines de ces crises, dont les extinctions de l’Ordovicien et du Silurien (il y a environ 485 à 420 millions d’années), aient été responsables de l’éradication de 85% des espèces marines, les mécanismes responsables de ces crises restent mal compris.

Des paléontologues ont observé la présence élevée de phyto- et zooplanctons fossiles malformés, dits tératologiques, dans des couches sédimentaires datant de l’Ordovicien-Silurien et correspondant aux étapes initiales des événements d’extinction. Ces organismes anormaux se retrouvant dans de nombreux dépôts, aussi bien en Suède, qu’au Canada ou en Libye, les chercheurs se sont interrogés sur les origines de ces malformations.

Les effets tératologiques de la pollution aux métaux lourds sur le plancton actuel sont bien établis : ces toxines provoquent des anomalies morphologiques chez les organismes aquatiques et la présence d’individus malformés sert habituellement d’outil pour détecter une contamination. Les chercheurs ont donc mesuré les concentrations en métaux dans certains des spécimens fossiles ainsi que dans les roches qui les entourent, pour un des événements du Silurien. Leurs résultats montrent que ce plancton ancien contient des niveaux élevés de métaux lourds, tels que le fer, le plomb et l’arsenic. Les abondances des différents éléments dans les fossiles et dans les roches, combinées avec la forte présence de formes tératologiques, suggèrent que les métaux ont été absorbés par les organismes lorsqu’ils étaient vivants et se sont en même temps déposés dans les sédiments alentour. Un empoisonnement par métaux lourds semble donc être la cause des malformations observées dans le microplancton. Les corrélations récurrentes entre l’apparition de ces organismes malformés et les événements d’extinction durant les périodes de l’Ordovicien et  du Silurien pourraient indiquer que la contamination par des métaux toxiques est un facteur, jusqu’ici insoupçonné, ayant contribué aux phénomènes d’extinction dans les océans anciens.

Des changements observés dans les rapports isotopiques pour le carbone, l’oxygène et le soufre suggèrent qu’aux mêmes périodes la concentration en oxygène diminue dans les couches profondes de l’océan. Le scenario pourrait donc être le suivant : l’anoxie des eaux favorisant la solubilité de certains éléments et entrainant des changements dans les cycles chimiques, les concentrations en métaux y augmentent. Ces eaux profondes pauvres en oxygène et riches en métaux remontent ensuite à la surface. Là, elles se mélangent aux eaux du plateau continental qui accueillent un écosystème très riche, entrainant l’extinction de nombreuses espèces et une pollution des sédiments. La toxicité due aux métaux semble ainsi constituer le “chaînon manquant” qui relie les extinctions en masse des organismes marins à l’anoxie généralisée de l’océan profond. L’existence des fossiles de plancton malformé, indicateurs de cette pollution métallique, pourrait donc fournir un nouvel outil pour identifier les phases précoces de ces crises catastrophiques dans les archives géologiques.

© Thijs Vandenbroucke
Spécimen malformé de chitinozoaire, un fossile de micro-zooplancton du Silurien du genre Margachitina.

Références :
Metal-induced malformations in early Palaeozoic plankton are harbingers of mass extinction ; T. R. A. Vandenbroucke, P. Emsbo, A. Munnecke, N. Nuns, L. Duponchel, K. Lepot, M. Quijada, F. Paris, T. Servais and W. Kiessling ; Nature Communications ; 25 août 2015.
DOI : 10.1038/ncomms8966

Source : cnrs

Et aussi dans les
ressources documentaires :

Connaître la température de l’eau grâce aux surfeurs

S’agit-il d’un simple outil que le surfeur de demain utilisera au quotidien pour rassurer ses proches en leur indiquant sa position, ou afin d’être informé des meilleurs spots ou doit-on parler de réelle innovation ? À première vue, la portée scientifique paraît limitée puisque les stations scientifiques effectuent déjà ce travail. Les premiers résultats obtenus avec le dispositif concorderaient d’ailleurs avec ceux de la station scientifique la plus proche. Mais l’océan est vaste et les surfeurs pourraient apporter une aide précieuse en permettant aux scientifiques de recueillir un grand nombre de données (ils en espéreraient 40 millions rien qu’en Grande-Bretagne)

 

L’objectif est bien là : obtenir davantage de donnée, décrire plus parfaitement la réalité sur l’état de la mer. L’Agence Science-presse donne cet exemple : puisque l’on sait que « la température de l’eau influence la vie et la survie des animaux et des plantes, connaître cette donnée est primordiale, notamment pour anticiper l’invasion d’algues nuisibles ». 

 

Autre attrait pour le surfeur : avoir accès à ses statistiques personnelles et ainsi connaître le nombre de vagues surfées, la vitesse sur la vague…

 

On pourrait rapprocher ce procédé à l’application mobile de navigation GPS Waze dans la mesure où la contribution vient directement de l’utilisateur, pour faciliter la vie de l’utilisateur. Comme pour Waze, où l’utilisateur signale l’état du trafic en temps réel (embouteillage, accident…), le dispositif permettra, peut-être, de se rendre compte du niveau de pollution de certaines zones. En ce sens, il s’inscrit dans la tendance actuelle des outils collaboratifs créés par et pour les utilisateurs.

 

Par Sébastien Tribot

Et aussi dans les
ressources documentaires :

Un écran tactile fabriqué avec une simple imprimante à jet d’encre

Voilà un tuto insolite. La vidéo mise en ligne au mois de mars par des chercheurs présente une méthode accessible à tous pour créer son propre écran lumineux tactile. Pour cela, il suffit de disposer d’une imprimante standard à jet d’encre, pas besoin d’imprimante 3D. Seule spécificité, une encre spéciale, compatible avec les imprimantes grand public, qui dépose un film d’ 1/10e de mm sur une feuille de papier. Il ne reste plus qu’à alimenter le film pour qu’il s’éclaire. Le procédé a le mérite d’être simple, ouverte aux particuliers et de permettre une grande liberté de forme et de taille de l’écran. Des logiciels de mise en page comme Word ou Powerpoint suffisent à paramétrer le contour de l’écran voulu. Il est aussi possible d’imprimer son écran sur des supports en bois, en métal et en plastique.

Ces écrans luminescents peuvent s’intégrer à des objets comme une montre, un vêtement, des bijoux et même une plante verte ! Comme le montre la vidéo explicative, il est possible de transformer ces objets en alerte d’appel par exemple : quand on reçoit un appel, l’écran s’allume.

Pour aller plus loin, cette méthode peut s’appliquer à de l’impression 3D. Cette fois, ce n’est plus un écran lumineux qui est fabriqué mais bel et bien un objet en volume capable de s’illuminer et de se commander par le toucher.

Découvrir la technique d’impression jet d’encre d’un écran luminescent :

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

Une planète poids-plume

Grâce au téléscope Kepler, les astronomes ont encore pu découvrir de nouvelles exoplanètes. Parmi les dernières, un système de 3 exoplanètes en orbite autour de l’étoile Kepler-138 située à 200 années-lumières de la Terre. C’est donc dans une galaxie très lointaine qu’évoluent ces planètes au profil proche de notre Terre. Les scientifiques ont donc pour mission de mesurer ces exoplanètes afin de les caractériser. Pour réussir un tel exploit à plus de 200 années-lumières de distance, les astronomes combinent différentes mesures. Tout d’abord, ils s’intéressent à la baisse de luminosité de l’étoile lorsque Kepler-138b passe devant. De quoi en savoir plus sur la taille de la planète. Puis, les astronomes mesurent la période orbitale, c’est-à-dire le temps que met la planète à tourner autour de son étoile. La précision des instruments est telle qu’il est possible de détecter les phases d’accélération et de décélération liées à l’attraction des autres planètes du système. Cette fois, les scientifiques ont tous les éléments pour connaitre la masse de la planète. D’après les mesures, Kepler-138b a des dimensions similaires à Mars, avec une masse valant 0.067 fois celle de la Terre. Toutefois, de nature probablement rocheuse, elle est trop chaude pour accueillir la vie humaine.

Cette exoplanète est 2000 fois plus légère que la première exoplanète « pesée » il y a à peine 15 ans, la preuve que les outils d’exploration spatiale sont toujours plus précis et continuent de progresser.

Par Audrey Loubens


 

Et aussi dans les
ressources documentaires :

La protection de l’environnement dans le marc de café

Pour y parvenir, il suffit de tremper le marc de café dans l’hydroxyde de sodium (également appelé soude caustique) et de chauffer le tout à 900 °C. On obtient alors un charbon actif en moins d’une journée, un record selon l’étude publiée jeudi dans la revue Nanotechnologie.

Le charbon actif est une structure composée principalement d’atomes de carbone, généralement obtenue après une étape de carbonisation à haute température, présentant une très grande surface qui lui confère un fort pouvoir absorbant.

Du charbon actif a déjà été fabriqué à partir de pneumatiques usagés, de coques de cacao, de pépins de raisin…

« La grande nouvelle, c’est que ce processus est rapide et que les matériaux de base sont bon marché », explique Christian Kemp, auteur de l’étude avec des collègues de l’Université nationale de science et de technologie d’Ulsan en Corée du Sud.

Le méthane, extrêmement polluant et au pouvoir très réchauffant, a le potentiel, dans sa forme pure, d’être une source de carburant propre pour véhicules.

Selon l’étude, transformer, à grande échelle, ce gaz dangereux en source d’énergie pourrait freiner le changement climatique.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Néonicotinoïdes: la pulvérisation foliaire présente un risque pour les abeilles

Les conclusions sont conformes à celles atteintes par l’EFSA il y a deux ans, lorsqu’elle avait évalué les risques encourus par les abeilles suite à l’utilisation de ces trois substances en tant que traitement de semences ou sous forme de granules.

Après avoir renforcé les restrictions concernant l’utilisation des néonicotinoïdes en 2013, la Commission européenne avait demandé que toutes les autres utilisations de ces produits fassent l’objet d’une évaluation.

L’utilisation de ces trois substances en tant que traitement de semences ou de sol est actuellement interdite sur les cultures qui attirent les abeilles et sur les céréales autres que les céréales d’hiver, excepté dans les serres. Leur utilisation dans des traitements foliaires est interdite sur les cultures qui attirent les abeilles et les céréales, sauf dans les serres ou après la floraison.

Prochaines étapes

Au moment d’introduire ces restrictions, la Commission avait annoncé qu’elle lancerait, dans les deux ans qui suivraient, un examen de toutes les nouvelles informations scientifiques disponibles concernant les risques posés pour les abeilles par ces trois néonicotinoïdes appliqués en traitement des semences et en granules.

Dans le cadre de ce processus, l’EFSA a demandé aux autorités nationales, aux institutions de recherche, au secteur de l’industrie et aux autres parties intéressées de soumettre toute nouvelle information pertinente dont ils auraient connaissance.

Ces informations doivent parvenir à l’Autorité avant le 30 septembre 2015. Après avoir reçu un nouveau mandat de la Commission européenne, l’EFSA étudiera ces informations et formulera ses conclusions dans une évaluation des risques mise à jour.

Source : efsa

La présence de kétoprofène et d’ibuprofène dans l’eau du robinet ne présenterait pas de risques

L’eau destinée à la consommation humaine (EDCH) provient d’eaux d’origine souterraine et de surface, traitées pour être rendues potables. Selon le milieu naturel d’où proviennent ces eaux, elles peuvent contenir diverses substances chimiques d’origine naturelle ou non. La présence de résidus de médicaments dans les eaux mobilise depuis plusieurs années les autorités sanitaires et la communauté scientifique.
Le kétoprofène et l’ibuprofène ont été retrouvés dans des EDCH lors de la campagne nationale d’analyses des résidus de médicaments humains et vétérinaires menée en 2009 par le laboratoire d’hydrologie de Nancy (LHN) de l’Anses. Ces deux médicaments font partie de la famille des anti-inflammatoires non stéroïdiens (AINS). L’ibuprofène est l’AINS le plus utilisé en France en médecine humaine. Le kétoprofène est utilisé en médecine humaine et en médecine vétérinaire.
L’Anses s’est autosaisie afin d’évaluer les risques sanitaires liés à la présence de kétoprofène ou d’ibuprofène dans les EDCH, sur la base de la méthode générale d’évaluation des risques sanitaires liés à la présence de résidus de médicaments dans l’EDCH qu’elle a proposée en 2013.
Le travail des experts a également porté sur deux métabolites de l’ibuprofène observés dans l’environnement : le 2-hydroxyibuprofène, qui avait été quantifié dans les EDCH lors de la campagne d’analyse menée par le LHN, et le carboxyibuprofène.

Conclusions de l’Agence

Les évaluations menées par les experts à partir des données disponibles permettent de conclure à l’absence de risque sanitaire lié à la présence de kétoprofène et d’ibuprofène dans les eaux destinées à la consommation humaine aux doses d’expositions connues en France.
En l’absence de donnée toxicologique pour les deux métabolites principaux de l’ibuprofène, le 2-hydroxyibuprofène et le carboxyibuprofène, il n’est à l’heure actuelle pas possible de conclure quant au risque sanitaire potentiel lié à leur présence dans les EDCH. 

Source : www.anses.fr

La nourriture pourrait modifier notre comportement

Nul ne conteste que certains aliments – café et chocolat par exemple – contiennent des molécules qui stimulent le cerveau. Aujourd’hui, de nouveaux éléments indiquent que la nourriture pourrait jouer un rôle plus subtil et réellement modérer notre comportement, en influençant la composition et l’activité des bactéries contenues dans le corps humain.

L’intestin contient une vaste communauté de bactéries qui cohabitent en harmonie dans notre corps. Nous partageons notre alimentation avec ces micro-organismes et la nature de notre régime alimentaire influence le type de bactéries que nous accueillons.

Les travaux récents des chercheurs à l’institut Farncombe de Recherche en Santé Digestive et l’Institut du Corps et du Cerveau de l’université de McMaster ont apporté des preuves évidentes que ces bactéries résidant dans l’intestin influençaient la fonction cérébrale. Ainsi, de jeunes souris élevées dans un environnement sans germe ont un profil chimique cérébral différent et montrent moins d’anxiété que les souris élevées dans des conditions normales. De plus, le comportement des souris adultes peut être changé en perturbant la composition de leurs bactéries résidentes, par l’administration orale d’antibiotiques notamment.

Ces observations montrent que nos bactéries intestinales influencent la fonction cérébrale, vraisemblablement via la production de métabolites. Cette recherche présente un potentiel thérapeutique concernant la gestion des troubles du comportement.

Les docteurs Bercik et Collins ont démontré que des bactéries commensales spécifiques, administrées en tant que compléments alimentaires sous la forme de probiotiques, pouvaient induire des changements dans la chimie cérébrale et réduire les comportements d’anxiété chez la souris. Les chercheurs, en collaboration avec le Dr Elena Verdu, du même institut, ont aussi montré que ces bactéries probiotiques spécifiques pouvaient, chez la souris, restaurer un comportement alimentaire normal précédemment perturbé par une infection de l’estomac.

Ainsi, il est possible d’influencer une gamme de comportements, variant de l’appétit à l’humeur, soit en fournissant des bactéries probiotiques spécifiques, soit en promouvant la croissance sélective de bactéries dans l’intestin par modifications des composants alimentaires.

Le Dr. Bercik est actuellement en train de conduire un essai clinique d’un probiotique sur le syndrome de l’intestin irritable, le problème gastro-intestinal le plus commun observé dans notre société. Jusqu’à 60% des patients atteints de ce syndrome présentent des troubles tels que l’anxiété ou la dépression. Cet essai va déterminer si le probiotique Lactobacillus améliore les symptômes gastro-intestinaux mais également s’il réduit les symptômes d’ordre psychiatrique.

« Cette notion selon laquelle les bactéries intestinales peuvent influencer la chimie cérébrale et le comportement est nouvelle et la plupart des travaux orignaux ont été conduit à l’université de McMaster » explique Collins. « La possibilité que nous pourrions modifier le comportement en changeant la composition bactérienne intestinale, en utilisant des probiotiques ou des modifications alimentaires, est excitante. Mais j’insiste sur le fait que nous devons être prudents et ne pas extrapoler nos travaux sur les humains pour le moment. Nous devons attendre les résultats de l’étude clinique ».

Pour en savoir plus :
Nature Communication : “Microbiota and host determinants of behavioural phenotype in maternally separated mice”
Nat Commun. 2015 Jul 28 ;6:7735. doi : 10.1038/ncomms8735

Source : diplomatie.gouv

Et aussi dans les
ressources documentaires :

Quantifier l’impact des éruptions volcaniques sur le climat

L’éruption du volcan Pinatubo, survenue en juin 1991 et considérée comme la plus importante du 20ème siècle, a injecté 20 millions de tonnes de dioxyde de soufre dans la stratosphère et provoqué un refroidissement global moyen de 0,4°C.

Pour quantifier le refroidissement temporaire induit par les grandes éruptions de magnitude supérieure à celle du Mont Pinatubo survenues ces 1 500 dernières années, les scientifiques ont généralement recours à deux approches : la dendroclimatologie, basée sur l’analyse des cernes de croissance des arbres, et la simulation numérique en réponse à l’effet des particules volcaniques. Mais jusqu’à maintenant ces deux approches fournissaient des résultats assez contradictoires, ce qui ne permettait pas de déterminer avec précision l’impact des grandes éruptions volcaniques sur le climat. Les refroidissements simulés par les modèles de climat étaient en effet deux à quatre fois plus importants et duraient plus longtemps que ce que les reconstitutions dendroclimatiques établissaient. Les écarts entre ces deux approches ont même conduit certains géophysiciens à douter de la capacité des cernes de croissance d’arbres à enregistrer les impacts climatiques des grandes éruptions volcaniques passées et à remettre en cause la capacité des modèles à les simuler fidèlement.

Réconcilier les deux approches

Aujourd’hui, des chercheurs de l’Université de Genève (UNIGE), de l’Institut de recherche pour le développement (IRD), du Centre national de la recherche scientifique (CNRS) et du Commissariat à l’énergie atomique et aux énergies alternatives (CEA) sont parvenus à réconcilier les deux approches et à proposer une méthode capable d’estimer avec précision les effets que pourraient avoir les futures éruptions de forte magnitude sur le climat, pour ensuite mieux anticiper leurs impacts sur nos sociétés.

Dans cette équipe pluridisciplinaire, les dendrochronologues ont réalisé une nouvelle reconstitution des températures estivales de l’hémisphère nord pour les 1 500 dernières années. Ils ont analysé la largeur mais surtout la densité de cerne d’arbres, qui est très sensible aux variations de température et qui avait été négligée par le passé.

Les données ont été récoltées à travers tout l’hémisphère nord, de la Scandinavie à la Sibérie, en passant par le Québec, l’Alaska, les Alpes et les Pyrénées. Toutes les éruptions majeures ont ainsi été clairement détectées dans cette reconstitution. Les résultats ont montré que l’année qui suit une grande éruption est caractérisée par un refroidissement plus prononcé que celui observé dans les reconstitutions précédentes. Ces refroidissements ne semblent toutefois pas persister plus de trois ans à l’échelle hémisphérique.

Les physiciens du climat ont, quant à eux, calculé le refroidissement engendré par les deux plus grandes éruptions du dernier millénaire, les éruptions du Samalas et du Tambora, toutes deux survenues en Indonésie en 1257 et 1815, à l’aide d’un modèle climatique sophistiqué. Ce modèle prend en compte la localisation des volcans, la saison de l’éruption, la hauteur d’injection du dioxyde de soufre et il intègre un module microphysique capable de simuler le cycle de vie des aérosols volcaniques depuis leur formation, suite à l’oxydation du dioxyde de soufre, jusqu’à leur sédimentation et élimination de l’atmosphère. « Cette approche inhabituelle permet de simuler de façon réaliste la taille des particules d’aérosols volcaniques et leur espérance de vie dans l’atmosphère, ce qui conditionne directement l’ampleur et la persistence du refroidissement provoqué par l’éruption », explique Markus Stoffel, chercheur à l’UNIGE. Ces nouvelles simulations montrent que les perturbations des échanges de rayonnement, dues à l’activité volcanique, étaient largement surestimées dans les simulations précédentes, utilisées dans le dernier rapport du GIEC (Groupe d’experts intergouvernemental sur l’évolution du climat).

Pour la première fois, les résultats produits par les reconstitutions et les modèles climatiques convergent quant à l’intensité du refroidissement et démontrent que les éruptions de Tambora et du Samalas ont induit, à l’échelle de l’hémisphère nord, un refroidissement moyen oscillant entre 0,8 et 1,3°C pendant l’été 1258 et 1816. Les deux approches s’accordent également sur la persistence moyenne de ce refroidissement évaluée à deux-trois ans. Ces résultats ouvrent la voie à une meilleure évaluation du rôle du volcanisme dans l’évolution du climat.

Source : CEA

Et aussi dans les
ressources documentaires :

Stylo à encre conductrice

L’entreprise AgIC Inc. basée à Tokyo a conçu un marker dont l’encre contenant de l’argent conduit l’électricité.

Gagnant du concours TechCrunch Tokyo 2014 pour les startups, le PDG Shinya Shimizu de l’entreprise voit surtout dans l’immédiat des possibilités en matière d’éducation et de divertissement pour son produit pouvant transformer une feuille de papier en circuit électrique. Certaines écoles ont d’ailleurs déjà prévu d’utiliser ces outils dès l’année prochaine.

Cependant, Shimizu rêve déjà plus grand pour cette encre. Son avantage, selon AgIC, est qu’elle sèche très rapidement et contrairement à ses concurrentes, peut également être imprimée grâce à une imprimante à jet d’encre. Grâce à cela, AgIC peut également imprimer des circuits électriques sur de très grands papiers spéciaux de l’entreprise, les enrouler et même enlever l’encre grâce à des fluides correcteurs. Cela permettrait à ce nouveau produit d’être utilisé sur les murs de maisons intelligentes pouvant ainsi détecter automatiquement les mouvements de ses habitants selon Shimizu.

Shimizu souhaite également améliorer encore l’encre pour qu’elle puisse fonctionner sur du papier ordinaire.

Sources :

Et aussi dans les
ressources documentaires :

Google : les recherches les plus étonnantes des Américains

Un site américain dédié au logement a eu l’idée de recenser les recherches les plus populaires depuis 11 ans et de cartographier les résultats les plus étonnants qui arrivaient dans le top du classement.

Saviez-vous que les habitants du Nevada cherchent désespérément la composition exacte du menu secret de McDonald’s ? (Nous enquêtons bien sûr sur cette affaire).

Dans le Tennessee, toute la question est de savoir si l’animal légendaire Bigfoot existe pour de vrai.

A Washington, les Américains souhaiteraient porter des sandales avec des chaussettes. Mais ils hésitent.

Les autres Etats s’intéressent plutôt au golf frisbee (nous avons vérifié, cette discipline sportive existe en France, avis aux amateurs ?)

Ils s’interrogent : « mais où est donc Internet ? »

Et cherchent des vêtements pour chiens (l’automne sera frais).

Voici les recherches les plus insolites de chaque Etat :

Par Iris T.

Et aussi dans les
ressources documentaires :

ENI annonce la découverte d’un immense gisement de gaz offshore au large de l’Egypte

Le gisement pourrait représenter un potentiel de 850 milliards de mètres cubes, sur « un secteur de 100 kilomètres carrés », assure la compagnie dans un communiqué, parlant de « champ de gaz super-géant ».

Le ministère égyptien du Pétrole a confirmé la découverte, faite à 1.450 mètres de profondeur, précisant que « les opérations de développement » devraient durer quatre ans.

Le directeur général d’ENI, Claudio Descalzi, « s’est rendu au Caire pour informer le président égyptien Abdel Fattah al-Sissi de ce succès important, et discuter de la découverte avec le Premier ministre Ibrahim Mahlab », selon le communiqué de la compagnie.

Il devait aussi rencontrer le ministre du Pétrole Sherif Ismail.

« Il s’agit de la plus grande découverte de gaz jamais faite en Egypte et en mer Méditerranée », se félicite le groupe phare italien, assurant que cette découverte pourrait également « devenir l’une des plus grandes réserves de gaz naturel au monde ».

Le communiqué d’ENI précise que cette découverte, « après son développement total », va aider à couvrir « les besoins en gaz naturel de l’Egypte durant des décennies ».

Le président du Conseil italien Matteo Renzi a téléphoné au président al-Sissi, pour « discuter ensemble de l’impact de cette découverte sur la stabilité énergétique de la Méditerranée et sur les perspectives de développement de la région », a indiqué le palais Chigi.

« Compliments à l’ENI pour cet extraordinaire résultat d’un travail de recherche qui s’insère dans le cadre des rapports entre l’Italie et l’Egypte, dans une optique de partenariat stratégique qui concerne plus généralement tout le continent africain », a ajouté M. Renzi, dans un message de félicitations à M. Descalzi.

Cette découverte a été effectuée dans la zone d’exploration « Zohr », exploitée par l’ENI qui en détient la licence d’exploitation à 100%, à la suite d’un appel d’offre que la compagnie avait remporté en janvier 2014.

L’ENI va délimiter au plus vite le gisement pour assurer son développement rapide en utilisant au mieux les infrastructures déjà existantes, en mer et à terre.

M. Descalzi a estimé que « cette découverte historique sera en mesure de transformer le scenario énergétique d’un pays entier qui nous accueille depuis 60 ans » (depuis 1954).

ENI est le principal producteur d’hydrocarburants du pays avec une production de 200.000 barils d’équivalent pétrole par jour.

M. Renzi se félicite d' »être l’ami » du président egyptien. Le plus grand pays du monde arabe a un intérêt stratégique et économique très important pour l’Italie, alors que la Libye voisine, où l’Italie a beaucoup investi, a sombré dans le chaos et connait une montée de l’islamisme jihadiste, inquiétante pour l’Egypte.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Informatique : les souris passent à la 3D

Le système n’a pas pour but de faire de Word une expérience IMAX, mais plutôt d’offrir aux designers la possibilité de naviguer dans leurs esquisses et de les modifier en manipulant des objets 3D avec des interactions 3D.

« Notre nouvelle technologie remet en question ce qu’un curseur peut ou ne pas faire, » explique Tomás Dorta, chercheur principal à l’École de design de l’Université de Montréal. « En fait, le curseur devient un instrument de dessin et de contrôle. Pour démontrer les techniques que nous dévoilons aujourd’hui, nous contrôlons le curseur à partir d’une tablette, mais des dispositifs comme les téléphones intelligents ou les montres intelligentes pourront éventuellement être utilisés parce qu’ils ne reposent pas nécessairement sur le référencement externe des mouvements. »

Que signifie la notion de plan de contrôle ? « L’analogie que nous utilisons pour expliquer la façon dont le curseur réussit à sélectionner des objets dans l’espace est celle du Filet à papillons – il suffit d’effectuer un mouvement de balayage avec le curseur 3D, précise le professeur Dorta. Le designer peut utiliser des gestes ou des mouvements, par exemple le pincement ou l’inclinaison, pour manipuler des objets. » Aux fins de la démonstration, les chercheurs ont choisi d’utiliser leurs curseurs 3D avec le système de design Hyve-3D, un environnement 3D complètement immersif qui permet de dessiner directement sur des tablettes portatives et de se servir de celles-ci pour manipuler les esquisses et créer un modèle en 3D dans un espace.
Un designer immergé dans la conception d’un salon par exemple pourrait utiliser cette technique pour visualiser différents ameublements à l’échelle et même peaufiner la décoration.

Les images immersives sont le résultat d’une illusion d’optique créée au moyen d’un projecteur d’images à haute résolution, d’un écran sphérique concave en tissu d’un diamètre de 5 m, et d’un miroir en forme de dôme servant à projeter les images sur l’écran. Des techniques spécialisées permettent de projeter en temps réel la scène en 3D sous forme sphérique.

Le lancement du système Hyve-3D et du curseur 3D est appuyé par Univalor, la société responsable de la commercialisation des innovations technologiques de l’université, et l’entreprise en démarrage Hybridlab inc. Plusieurs brevets sont en instance. « Nous croyons que les applications du curseur 3D vont bien au-delà des esquisses et pourraient comprendre notamment la conception architecturale, l’imagerie médicale et bien sûr les jeux informatiques, ajoute M. Dorta. Il n’est nullement question ici de gadgétiser le curseur, mais plutôt de repenser la façon dont les humains interagissent avec les ordinateurs dans le cadre du processus de création. »

 

Source : France Diplomatie 

Et aussi dans les
ressources documentaires :

Un neurone à l’origine de la marche à reculons de la mouche

Comment la mouche est-elle capable de faire marche arrière ? Une question à laquelle les chercheurs de l’Institut de recherche en pathologie musculaire ont trouvé une réponse. Leurs travaux sont parus dans Science et expliquent comment ils ont étudié 3500 lignées de drosophiles aux profils de système nerveux différents. Parmi elles, ils ont identifié celle dont la marche arrière était la plus remarquable, à savoir la lignée Moonwalker. Une fois sélectionnée la drosophile la plus apte à partir en marche arrière face à un obstacle ou bloquée dans une impasse, l’équipe de Salid Bidaye a testé le rôle de certains neurones dans cette compétence. Pour cela, ils ont « éteint » les neurones de la mouche puis l’ont placé dans une situation qui exigeait qu’elle se déplace à reculons. Le pauvre animal s’est retrouvé incapable de s’en sortir. En y regardant de plus près via les outils de l’optogénétique, les chercheurs ont mis à jour les deux seuls neurones mis en jeu, un dans le cerveau et un situé dans l’abdomen. Plus précisément, le neurone du cerveau suffit à activer la marche arrière chez la drosophile, tandis que le neurone de l’abdomen sert plutôt dans la mise en œuvre des mouvements en inhibant les mouvements liés au déplacement vers l’avant. De quoi mieux comprendre comment les neurones pilotent la locomotion des drosophiles.

Par Audrey Loubens

Et aussi dans les ressources documentaires :

A-t-on trouvé un moyen de détecter la matière sombre ?

De ces deux composantes de l’Univers on ne sait que peu de choses : l’énergie sombre constituerait 68% de l’Univers, la matière sombre 27 %. Des chiffres énormes en comparaison de celui de la matière que nous connaissons – la matière baryonique – qui est seulement de 5 %.

La matière noire a jusqu’à aujourd’hui échappé aux observations des scientifiques. Les télescopes les plus puissants se sont révélés inefficaces. Mais si son existence n’est pas mise en doute, c’est parce que les chercheurs ont, grâce au phénomène de lentille gravitationnelle, décelé ses effets sur la matière visible. Ils se sont aperçu d’une déformation de l’image de corps lointains alors qu’il ne devait y avoir aucun obstacle entre l’observateur et l’objet observé. L’explication est qu’entre ces deux points figure quelque chose imprimant un fort champ gravitationnel qui dévie les rayons lumineux. Les scientifiques ont supposé qu’il devait s’agir de la fameuse matière noire. Elle expliquerait aussi pourquoi les galaxies ne s’éloignent pas plus rapidement les unes des autres bien qu’il semble que l’expansion de l’Univers s’accélère (selon le projet de cartographie WiggleZ Dark Energy Survey). Quoi qu’il en soit, elle reste une énigme dont les chercheurs ont que plus que jamais à coeur de découvrir les mystères.

On suppute que l’énergie sombre et la matière sombre interagissent avec la matière baryonique dans des circonstances rarissimes. Mais, détail fâcheux, cet événement doit être si extraordinaire et sporadique que les détecteurs ne sont pas encore parvenu à débusquer ces interactions. Cependant, point de découragement au sein de la communauté scientifique. Une douzaine de détecteurs massifs traquent sans relâche une potentielle collision entre de la matière sombre et un noyau d’atome avec l’espoir de découvrir d’infimes vibrations attestant de cette rencontre.

La collaboration de groupes de chercheurs européens en physique des particules baptisée Cryogenic Rare Event Search with Superconducting Thermometers (CRESST), impliquée dans la recherche de matière noire, a mis au point des détecteurs cryogéniques particuliers. Elle utilise notamment de petits cristaux à même de repérer les petites variations de température qu’engendrerait le choc entre particules de matière sombre et un noyau d’atome. Par ce biais, elle est en mesure, au même titre que le CERN avec le Large Hadron Collider, de repérer les particules très légères. Cela ouvre peut-être une brèche dans la recherche de particules de matière sombre.

Par Sébastien Tribot

Et aussi dans les ressources documentaires :

USA: une voiture électrique Tesla obtient la meilleure note jamais enregistrée

« Cela nous a soufflé », a indiqué le responsable des essais automobiles pour la revue, Jake Fisher, en précisant que la voiture avait même dépassé les 100 points sur l’échelle normale qui avait en conséquence été modifiée pour tenir compte des performances de ce véhicule.

Il s’agit du modèle P85D à deux moteurs électriques, un devant, un derrière, ce qui en fait une quatre roues motrices.

Le modèle sur lequel la P85D est basée, le modèle S, avait déjà reçu il y a deux ans, une note de 99/100 dans les tests de Consumer Report, à l’époque la meilleure note jamais attribuée à une voiture, électrique ou non.

Suite à cette publication, le titre de Tesla décollait en Bourse, gagnant 7,29% à 241,22 dollars vers 15H20 GMT.

Tesla s’est imposé sur le marché des voitures électriques aux Etats-Unis en vendant des modèles luxueux comme le modèle S vendu autour de 80.000 dollars (70.000 euros) ou le P85D (130.000 dollars).

Il doit présenter très prochainement un nouveau véhicule dans la gamme des SUV, le modèle X, mais avait indiqué début août qu’il risquait de ne pas atteindre son objectif de 55.000 voitures vendues cette année, l’objectif se situant dorénavant entre 50.000 et 55.000 unités.

jld/soe/faa

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

La transition énergétique transforme les transports

«L’État crée les conditions pour que la part de l’énergie produite à partir de sources renouvelables utilisée dans tous les modes de transport en 2020 soit égale à 10 % au moins de la consommation finale d’énergie dans le secteur des transports et à au moins 15 % en 2030 », fixe le texte de loi.

D’ici 2030, au moins 7 millions de bornes seront installées sur le territoire pour recharger les véhicules électriques et les hybrides rechargeables. Un crédit d’import « transition énergétique » de 30 % s’appliquera pour l’acquisition d’un système de recharge pour les véhicules électriques à domicile.

Des transports publics qui passent au vert

La loi prévoit d’imposer, d’ici 2025, pour les parcs de véhicules de moins de 3,5 tonnes gérés par l’Etat et ses établissements publics, 50 % de « véhicules à faibles émissions » dans leurs renouvellements, dès lors que le parc excède 20 véhicules. Ces véhicules seront électriques ou « de toutes motorisations et de toutes sources d’énergie produisant de faibles niveaux d’émissions de gaz à effet de serre et de polluants atmosphériques », précise le texte de loi. Un décret fixera ces références. La proportion est portée à 20 % du renouvellement pour les collectivités territoriales. Pour  les véhicules de plus de 3,5 tonnes, la proportion dans le renouvellement est fixée à 50%.

A partir de 2020, les transporteurs publics exploitant plus de 20 autobus et autocars, devront acquérir 50 % de « véhicules à faibles émissions définis en référence à des critères fixés par décret » dans leurs renouvellements. La totalité du renouvellement devra se faire avec ces véhicules à partir de 2025. Pour la RATP, la proportion minimale de 50 % s’applique dès 2018.

Avant 2020, pour les loueurs de voitures, les taxis et les exploitants de voitures de transport avec chauffeur, chaque renouvellement doit contenir au moins 10 % de véhicules à faibles émissions (lorsque le parc dépasse 10 véhicules).

Le covoiturage et l’autopartage favorisés

La loi définit le covoiturage comme « l’utilisation en commun d’un véhicule terrestre à moteur par un conducteur et un ou plusieurs passagers, effectuée à titre non onéreux, excepté le partage des frais, dans le cadre d’un déplacement que le conducteur effectue pour son propre compte ».

Les véhicules autorisés en covoiturage pourront bénéficier de conditions de circulation privilégiées et de prix privilégiés sur autoroute. Notamment, les sociétés concessionnaires d’autoroutes devront créer ou développer des places de covoiturage. D’ici un an, le Gouvernement remettra au Parlement un rapport évaluant l’opportunité de réserver, sur les autoroutes et les routes nationales, une voie aux transports en commun, aux taxis, à l’auto-partage, aux véhicules à très faibles émissions et au covoiturage.

A partir de 2018, toute entreprise d’au moins 100 travailleurs située dans un territoire couvert par un plan de déplacements urbains devra établir « un plan de mobilité pour améliorer la mobilité de son personnel et encourager l’utilisation des transports en commun et le recours au covoiturage ». Les entreprises de plus de 250 salariés doivent quant à elles faciliter le covoiturage pour les déplacements entre le domicile et le travail.

Le Syndicat des transports d’Ile-de-France  pourra délivrer un label « auto-partage », organiser des services publics de transport de marchandises et de logistique urbaine, d’auto-partage et location de bicyclettes dans les communnes qui n’en présentent pas. Il pourra aussi développer des plateformes de covoiturage et créer un « signe distinctif » des véhicules utilisés dans le cadre d’un covoiturage.

Des places et conditions de circulation privilégiées

Le code la route est modifié : «les véhicules à très faibles émissions, en référence à des critères déterminés par décret, peuvent notamment bénéficier de conditions de circulation et de stationnement privilégiées ».

Des zones de circulation restreintes autorisées aux seuls véhicules les moins polluants, pourront également être créées dans les villes et les zones couvertes par un plan de protection de l’atmosphère. De même, entre juillet 2015 et jusqu’au 1er janvier 2017, une commune couverte par un plan de protection de l’atmosphère peut interdire à certaines heures l’accès aux véhicules les plus polluants.

Le vélo fortement favorisé

Le vélo fait son entrée dans la transition. Soit par la mise à disposition gratuite de flottes de vélos pour les salariés pour les trajets domicile-travail, disposition qui offre droit à l’entreprise à une réduction d’impôt égale à 25 % du prix d’achat de ladite flotte. Soit par la mise en place d’une « indemnité kilométrique vélo » pour les salariés pour ces mêmes trajets. Le montant de l’indemnité sera fixé par décret et exonéré de cotisations sociales, dans la limite d’un montant défini par décret.

La France pévoit également un « déploiement massif, avant 2030, de voies de circulation et de places de stationnement réservées aux mobilités non motorisées, en particulier de stationnement sécurisés pour les vélos ».  Ainsi, toute nouvelle construction comprenant un parking devra inclure des places de stationnement sécurisé pour vélos et de prises de recharge pour véhicule électrique ou hybride rechargeable. Cette obligation s’imposera aussi lors de travaux sur des parking à proximité d’habitations, bâtiment tertiaire ou industriel, etc. Un décret précisera les modalités en fonction de la taille et la catégorie des bâtiments concernés.

La grande distribution et les aérodromes mettent la main à la patte

D’ici le 31 décembre 2016, la grande distribution va devoir établir un programme d’actions pour réduire les émissions de gaz à effet de serre et de polluants atmosphériques dues au transport de ses marchandises. L’objectif est de réduire l’intensité de ces polluants – le rapport entre volume des émissions de polluants et les quantités de marchadises commercialisées – de 10 % en 2020 et de 20 % en 2025, par rapport à 2010.

Les aérodromes devront également prévoir un plan d’action similaire, répondant aux mêmes objectifs pour 2020 et 2025, pour réduire la pollution des activités directes et au sol. Ces plans d’actions seront évalués par l’ADEME qui en dressera un bilan national pour le 31 décembre 2017.

Deux dispositions insolites

Les amateurs de « tuning » vont déchanter. « Est puni d’une amende de 7 500 € le fait de réaliser sur un véhicule des transformations ayant pour effet de supprimer un dispositif de maîtrise de la pollution, d’en dégrader la performance ou de masquer son éventuel dysfonctionnement, ou de se livrer à la propagande ou à la publicité, quel qu’en soit le mode, en faveur de ces transformations », prévoit le texte. De plus, le contrôle des émissions de polluants atmosphériques et de particules fines sera renforcé lors du contrôle technique, par décret avant 2017.

La loi prévoit de réduire l’exposition des populations aux pollutions atmosphériques. Des objectifs nationaux de réduction des émissions de polluants atmosphériques seront définis par décret pour 2020, 2025 et 2030. Un plan national de réduction de ces émissions devra être arrêté au plus tard le 30 juin 2016. Mais ce plan exclut les « émissions de méthane entérique naturellement produites par l’élevage de ruminants». Les éleveurs seront certainement satisfaits, pour une fois.

Par Matthieu Combe, journaliste scientifique

Sur l’énergie, Hollande respecte (presque) tous ses engagements

Mis à mal au Sénat, les engagements présidentiels sont finalement adoptés. La part du nucléaire dans la production d’électricité devra finalement bien atteindre 50 % en 2025 (au lieu de 77% en 2014). Le Sénat refusait d’établir un calendrier précis, préférant la formule floue « à terme ». 

De même, la capacité du parc nucléaire est bien plafonnée à sa puissance actuelle, soit 63,2 gigawatts (GW). De son côté, le Sénat avait tenté de la relever à 64,85 GW en vue de la mise en service de l’EPR de Flamanville, d’une puissance de 1,65 GW. Résultat : si l’EPR de Flamanville est un jour mis en service, (malgré les anomalies découvertes sur la cuve du réacteur et de nombreux retards), cela signifie qu’il faudra fermer au moins deux réacteurs de 900 MW pour ne pas dépasser ce plafond. Mais quels réacteurs fermer ? Sur  la promesse de François Hollande de fermer Fessenheim en 2016, la loi reste muette.

On aurait pu espérer que cette question soit tranchée par la prochaine programmation pluriannuelle de l’énergie (PPE). Celle-ci doit définir des objectifs à atteindre sur la période pour les évolutions du mix énergétique. Pour ce faire, elle fixera notamment la part d’électricité produite par chaque source d’énergie et ce de façon à atteindre les objectifs de plus long terme du texte : 50 % d’électricité d’origine nucléaire en 2025, 40 % d’électricité d’origine renouvelable en 2030, etc. Une première période devait s’étendre entre 2015 et 2018, avant d’avoir des programmations tous les 5 ans : 2018-2023, 2023-2028… Dans le texte final, il est simplement précisé que la première période de la première programmation s’achève en 2018, sans en fixer de date de début. Vraisemblablement, elle ne verra pas le jour avant 2016. Dans cette perspective, difficile d’imaginer une fermeture de Fessenheim cette même année.  

Développer les énergies renouvelables, diminuer les émissions de gaz à effet de serre

La France va devoir fortement diminuer sa consommation énergétique. Le texte prévoit une baisse de 50 % de la consommation énergétique en 2050 par rapport à 2012, avec un objectif intermédiaire de 20 % en 2030. Les émissions de gaz à effet de serre devront également être divisées par quatre d’ici 2050 par rapport à 1990. Un objectif intermédiaire de baisse de 40% a été introduit pour 2030. Pour atteindre tous ces objectifs, la loi prévoit le développement des énergies renouvelables, une réduction de la consommation énergétique primaire en énergies fossiles de 30% en 2030, la rénovation de l’ensemble des bâtiments à l’horizon 2050 en fonction des normes « bâtiment basse consommation », la multiplication par 5 de la quantité de chaleur et de froid renouvelables et de récupération livrée par les réseaux de chaleur et de froid d’ici 2030 (passer d’environ 2,8 à 14 millions de français alimentés par ces réseaux en renouvelables). 

Les énergies renouvelables ne représentaient que 13,7 % de la consommation finale d’énergie en 2012. Les objectifs sont de porter cette part à 23 % en 2020 (confonformément aux anciens objectifs) et de 32 % d’ici 2030. A cet horizon, la loi prévoit que « les énergies renouvelables doivent représenter 40 % de la production d’électricité, 38 % de la consommation finale de chaleur, 15 % de la consommation finale de carburant et 10 % de la consommation de gaz ».

Un nouvel article majeur a fait son entrée dans le texte. La France décide d’une vraie taxe carbone, en fixant un nouvel objectif d’augmentation du prix du carbone. Votée au Sénat en deuxième lecture, l’amendement a été repris par les députés. Il a pour objectif de quadrupler entre 2016 et 2030 le prix du carbone, à travers la contribution climat énergie, de 22 euros la tonne de CO2 à 100 euros, en passant par un objectif intermédiaire de 56 euros en 2022. Ainsi, le charbon et le fioul devraient disparaître progressivement au profit du gaz.

Alors que le projet de loi a été adoptée avec plus de 2 ans de retard, la question demeure sur la rapidité de publication des décrets, nécessaires pour fixer plusieurs dispositions pratiques. La ministre de l’écologie a annoncé que les premiers décrets seront publiés dès la rentrée 2015. 18 décrets et 27 ordonnances seraient en préparation.

Par Matthieu Combe, journaliste scientifique

La transition énergétique veut diminuer les gaspillages

Le texte fait la part belle au développement de l’économie circulaire. Il promeut, par ordre de hiérarchie, « la prévention de la production de déchets, notamment par le réemploi des produits et, suivant la hiérarchie des modes de traitement des déchets, à une réutilisation, à un recyclage ou, à défaut à une valorisation des déchets ». Avec pour objectif de réduction de 10 % des quantités de déchets ménagers et assimilés produits par habitant en 2020 par rapport à 2010, le texte comprend plusieurs dispositions.

Une gestion des déchets repensée

Une nouvelle filière de valorisation des déchets organiques verra le jour « en orientant vers ces filières de valorisation, respectivement, 55 % en 2020 et 65 % en 2025 des déchets non dangereux non inertes, mesurés en masse », de façon à ce que le tri à la source des déchets organiques, en vue de leur valorisation, soit généralisé « avant 2025 ».

Suite aux résultats de l’expérimentation portant sur l’extension des consignes de tri à l’ensemble des emballages plastiques, cette extension devra être déployée sur tout le territoire « avant 2022 », en vue de leur recyclage prioritaire. Pour optimiser la compréhension du tri par les ménages, les consignes de tri et les couleurs des contenants associés devraient enfin être harmonisés. Cette transition se fera progressivement, au fur et à mesure du renouvellement naturel du parc de poubelles. L’objectif est une harmonisation nationale en 2025.

Les déchets issus d’une collecte séparée ou d’une opération de tri dans une installation dédiée qui ne seront pas recyclabes dans des conditions de rentabilité suffisantes devront être valorisés énergétiquement. Le réemploi, le recyclage et la collecte des biodéchets devant se développer, ainsi qu’à défaut, la valorisation énergétique, les objectifs de réduction de déchets enfouis sont ambitieux. Ils visent à réduire de 30 % les quantités de déchets non dangereux non inertes – les déchets qui peuvent brûler ou être valorisés sans présenter de caractère dangereux ou toxique vis-à-vis de l’environnement ou de la santé humaine – admis en installation de stockage en 2020 par rapport à 2010, et de 50 % en 2025. Pour aider un peu plus l’atteinte de cet objectif, le texte vise à « réduire de 50 % les quantités de produits manufacturés non recyclables mis sur le marché avant 2020 ».

Une filière de récupération des déchets dans le BTP devra se développer fortement d’ici 2020. En effet, le texte vise à valoriser sous forme de matière 70 % du secteur du bâtiment et des travaux publics en 2020, alors qu’aujourd’hui cette filière est quasiment inexistante. En 2020, 15 millions d’habitants devront être couverts par une tarification incitative en matière de déchets et 25 millions en 2025.

Diminution des déchets en matières plastique et de la vaisselle jetable

Certains articles de la loi sont apparus, puis ont disparu, avant d’être réamandés. Ainsi en est-il de l’interdiction de la vaisselle jetable en plastique. Le Sénat voulait installer un tri des déchets à la source, l’Assemblée nationale a préféré tout simplement l’interdire. Le texte final prévoit que « au plus tard le 1er janvier 2020, il est mis fin à la mise à disposition des gobelets, verres et assiettes jetables de cuisine pour la table en matière plastique, sauf ceux compostables en compostage domestique et constitués, pour tout ou partie, de matières biosourcées ».

Les lobbies de l’industrie plastique ont été à l’oeuvre pour essayer de supprimer l’interdiction des sacs plastiques en matières plastiques prévue par le texte. En vain. Ainsi, l’ensemble des sacs en matières plastiques à usage unique destinés à l’emballage de marchandises, mis à disposition dans un lieu de vente seront progressivement interdits. Qu’ils soient gratuits ou payants ! A partir du 1er janvier 2016 pour les sacs de caisse et à compter du 1er janvier 2017 pour les autres. Après, seuls les « sacs compostables en compostage domestique et constitués, pour tout ou partie, de matières biosourcées » seront autorisés. Un décret précisera la teneur biosourcée minimale que ces sacs devront contenir. Une disposition similaire concerne les emballages plastiques pour l’envoi de la presse et de la publicité pour le 1er janvier 2017. Un rapport sur l’impact économique et environnemental de ces interdictions dera être remis au Parlement au plus tard au 1er janvier 2018.

La fin des épaves sur la voie publique, chez les privés ou dans les ports

Trop d’épaves de véhicules sont abandonnées par leurs propriétaires sur la voie publique suite à une détérioration ou un vol. Cela sera enfin interdit. En effet, pour un véhicule laissé sur la voie publique ou sur le domaine public, un maire pourra faire évacuer ce véhicule, aux frais du titulaire du certification d’immatriculation lorsqu’il est connu, soit vers un centre de véhicules hors d’usage agréé s’il est irréparable, soit vers une fourrière, si le véhicule est techniquement réparable.

De même, plusieurs épaves hors d’usage rouillent dans des jardins privés. Si « ce véhicule peut constituer une atteinte grave à la santé ou à la salubrité publiques, notamment en pouvant servir de gîte à des nuisibles susceptibles de générer une telle atteinte, peut contribuer à la survenance d’un risque sanitaire grave ou peut constituer une atteinte grave à l’environnement », le maire dispose des mêmes pouvoirs. Simplement, dans ce cas, le délai d’attente avant intervention est de 15 jours, contre 10 jours pour le cas précédent, suite à la mise en demeure du propriétaire.

La loi s’intéresse également aux épaves de navires. Tout propriétaire devra désormais notifier par écrit au ministre chergé de la mer son « intention de recycler le navire dans une installation ou des installations de recyclage de navires données, dans des conditions fixées par voie réglementaire », sous peine d’un an d’emprisonnement et de 100 000 € d’amende. La même peine s’applique pour un propriétaire de navire qui ne disposerait pas à bord de l’inventaire des matières dangereuses présentes. A partir de 2017, les metteurs sur le marché de navires de plaisance ou de sport devront payer une éco-contribution pour le recyclage et les traitement des déchets de leurs produits.

L’obsolescence programmée punie par la loi

« L’obsolescence programmée désigne l’ensemble des techniques par lesquelles un metteur sur le marché vise, notamment par la conception du produit, à raccourcir délibérément la durée de vie ou d’utilisation potentielle de ce produit afin d’en augmenter le taux de remplacement », telle est la définition donnée par la loi. Une peine de 2 ans d’emprisonnement et de 300 000 € d’amende est prévue en cas d’obsolescence programmée avérée de la part d’un constructeur. L’amende peut monter jusqu’à 5 % du chiffre d’affaires hors taxes le plus élevé réalisé en France en cas d’avantages avérés tirés par l’entreprise.

Le texte prévoit aussi de développer la deuxième vie des objets, « notamment des équipements électriques et électroniques, des textiles et des éléments d’ameublement » ; des objectifs seront définis ultérieurement pour chaque filière par les filières à responsabilité élargie des producteurs.

Le texte prévoyait de nombreuses dispositions pour lutter contre le gaspillage alimentaire. Mais la quasi-totalité des dispositions a été retoquée par le Conseil Constitutionnel. pour l’agriculture ou la valorisation énergétique, notamment par méthanisation.

Par Matthieu Combe, journaliste scientifique

Transition énergétique : le bâtiment dans tous ses états

« La France se fixe comme objectif de rénover énergétiquement 500 000 logements par an à compter de 2017, dont au moins la moitié est occupée par des ménages aux revenus modestes, visaint ainsi une baisse de 15 % de la précarité énergétique d’ici 2020 », stipule l’article 3 de la loi de transition énergétique pour la croissance verte. La loi précise par ailleurs que l’nemseble du parc immobilier français devra être rénové en fonction des normes « bâtients basse consommation » ou assimilées, à l’horizon 2050. Pour concrétiser ce grand objectif, plusieurs dispositions nouvelles encadrent la rénovation énergétique des bâtiments et des logements, pour les rendre plus économes.

La rénovation énergétique devient obligatoire

Le Gouvernement veut s’attaquer en priorité aux bâtiments les plus énergivores. D’ici 2025, « tous les bâtiments privés résidentiels dont la consommation en énergie primaire est supérieure à 330 killowhatteurs d’énergie primaire par mètre carré et par an doivent avoir fait l’objet d’une rénovation énergétique ».

La loi instaure aussi l’obligation de réaliser des travaux de rénovation énergétique, dès lors qu’un bâtiment subit de lourds travaux d’entretien. Cela comprend les ravalements importants, la réfection ou l’isolation de la toiture, l’installation d’équipements de contrôle et de gestion active de l’énergie ou encore les travaux d’aménagement de nouvelles pièces pour les rendre habitables. Pour les copropriétés, cette obligation concernera seulement les travaux affectant les parties communes. Par ailleurs, un rapport sera remis au gouvernement dans un an, afin d’évaluer la possibilité d’instaurer un bonus-malus pour inciter les propriétaires à réaliser des travaux d’économies d’énergie.

Un décret définira le calendrier de mise en oeuvre de cette obligation en fonction de la performance énergétique du bâtiment, sa catégorie et précisera les équipements concernés, mais aussi les exceptions lorsque ces travaux ne sont pas réalisables. « Cette obligation de rénovation est prolongée par période de dix ans à partir de 2020, jusqu’en 2050 avec un niveau de performance à atteindre renforcé chaque décennie, de telle sorte que le parc global concerné vise à réduire ses consommations d’énergie finale d’au moins 60 % en 2050 par rapport à 2010, mesurées en valeur absolue de consommation pour l’ensemble du seceur », précise le texte de loi.

La loi crée un carnet de santé numérique de suivi et d’entretien de chaque logement « Il mentionne l’ensemble des informations utiles à la bonne utilisation, à l’entretien et à l’amélioration progressive de la performance énergétique logement et des parties communes lorsque le logement est soumis au statut de copropriété », présente la loi. Ce carnet regroupe les informations concernant l’isolation, les travaux, les coûts des factures d’électricité et de gaz, etc. Remis à l’achat ou à la location, il sera obligatoire pour les constructions neuves dès 2017 et à l’occasion d’une mutation en 2025. Un décret précisera les modalités d’application.

Enfin, les frais de chauffage dans les immeubles collectifs devront être individualisés. Une sanction de 1500 € par logement pourra être adressée à l’encontre de chaque immeuble en cas de manquement.

Des aides pour accompagner les particuliers

Puisque la rénovation énergétique devient obligatoire, il faut être en mesure d’aider les foyers les plus modestes. Pour ce faire, plusieurs aides, crédits d’impôts et moyens de financement sont mis en oeuvre.

Un Fonds de garantie de la rénovation énergétique, géré par la Caisse des dépôts et consignations (CDC), est ainsi créé. Ses ressources seront définies en loi de finances. Sous condition de ressources fixées par décret, ce fonds facilitera les prêts pour les ménages modestes qui souhaitent entreprendre des travaux de rénovation énergétique et pour les prêts collectifs en copropriété. Des sociétés régionales de tiers-financement seront également créées pour avancer le coût des travaux aux foyers modestes.

Depuis le 1er septembre 2014 et jusqu’au 31 décembre 2015, le crédit d’impôt pour la transition énergétique permet de bénéficier d’un taux unique de réduction d’impôts de 30 % sur l’achat d’équipements permettant une meilleure efficacité énergétique ou sur des travaux de rénovation énergétique. Le montant total des dépenses en faveur de la transition énergétique ouvrant droit au crédit d’impôt ne peut pas excéder 8 000 € pour une personne célibataire, veuve ou divorcée et 16 000 € pour un couple marié ou pacsé. Accessible aux propriétaires, l’éco-PTZ permet de bénéficier d’un prêt à taux zéro jusqu’à 30 000 €, sans intérêts, remboursable sur 10 ans, pour financer les travaux de rénovation.

Dernière disposition pour aider les foyers modestes : un chèque énergie pour les ménages modestes remplacera progressivement les tarifs spéciaux du gaz et de l’électricité. Attribué sous conditions de revenus et selon la composition du foyer, il permettra aux ménages de payer leur facture énergétique, des travaux de rénovation ou acheter des équipements électriques, « lorsque le remplacement d’un ancien équipement permet un gain substantiel de performance énergétique », fixé par décret. La généralisation du chèque énergie interviendra « au plus tard au 1er janvier 2018 », après un test dans plusieurs zones également définies par décret. Ce chèque sera nominatif et sa durée de validité sera limitée dans le temps en fonction de son usage.

D’autres dispositions en vrac

Des plateformes territoriales de la rénovation énergétique vont être mise en place partout en France. Elles conseilleront et orientereront les ménages qui souhaitent réaliser des travaux de rénovation énergétique, « en fonction de leurs besoins, vers des professionnels compétents tout au long du projet de rénovation ». Elles fourniront des informations « techniques, financières, fiscales et réglementaires » nécessaires à des travaux de rénovation énergétique.

L’utilisation des matériaux biosourcés sera encouragée lors de la construction ou de la rénovation des bâtiments. Par ailleurs, la loi prévoit la remise de plusieurs rapports au Parlement : un consacré aux subventions et à la création d’un fonds pour lutter contre la précarité énergétique, un sur l’opportunité d’aides fiscales à l’installation de filtres à particules sur l’installation de chauffage au bois des particuliers, un sur la mise en place d’une seule aide globale subordonnée à la présentation d’un projet complet de rénovation et un sur la nécessité d’effectuer une évaluation de la performance énergétique des travaux réalisés.

Tous les cinq ans, le Gouvernement devra faire analyser l’ensemble du parc national de bâtiments publics ou privés, à usage résidentiel ou tertiaire, au regard notamment de leur performance énergétique. Il comprendra aussi une présentation des stratégies de rénovation économiquement pertinentes, en fonction des types de bâtiment et des zones climatiques et une estimation des économies d’énergie attendues.

Par Matthieu Combe, journaliste scientifique

Le Conseil Constitutionnel censure un peu la transition

Les membres du Conseil Constitutionnel ont censuré les articles portant sur l’obligation de rénovation des bâtiments privés résidentiels à l’occasion d’une mutation à partir de 2030, l’obligation pour la grande distribution de définir un programme d’actions pour limiter les émissions de gaz à effet de serre et de polluants atmosphériques d’ici fin 2016 et la modification des règles de composition du capital des éco-organismes (articles 6, 44 et 83).

La fin du gaspillage alimentaire chez les enseignes annulée

La pression citoyenne a été forte pour faire entrer la lutte contre le gaspillage alimentaire dans le texte. La version finale votée à l’Assemblée nationale comprenait de nombreuses dispositions pour ce faire. Les invendus propres à la consommation humaine devaient faire l’objet de don ou de transformation. Le reste aurait du être destiné à l’alimentation animale, utilisé en compost pour l’agriculture ou valorisé énergétiquement, notamment par méthanisation. La grande distribution se voyait interdire le fait d’asperger ses invendus à l’eau de Javel pour les rendre impropres à la consommation ou à toute forme de valorisation, sous peine d’une amende de 3750 € Ces dispositions devaient entrer en application au 1er juillet 2016. D’ici là, les commerces dont la surface de vente est supérieure à 400 m2 auraient dû signer une convention avec une ou plusieurs associations pour leur fournir gratuitement les denrées alimentaires. Des contraventions de 3e classe (amende forfaitaire inférieure à 3000€) étaient prévues en cas de manquement.

Mais voilà, le Conseil constitutionnel a censuré l’ensemble de ces dispositions pour des raisons de procédure. La ministre de l’écologie et de l’énergie, a annoncé vouloir réunir rapidement les représentants de la grande distribution pour leur proposer de faire « de manière volontariste et contractuelle ce que prévoyait la loi ». Affaire à suivre…

Un vice de procédure ?

60 sénateurs du parti Les Républicains dénoncent la façon dont s’est tenue la commission mixte paritaire en mars dernier. Selon eux, elle n’est pas conforme aux règles constitutionnelles. « Le constat d’échec a été, en effet, imposé par son président, M. François BROTTES, Député, président de la commission des affaires économiques, sans vote ni même consultation des membres de la commission mixte paritaire », dénoncent-ils dans leur saisine. Ainsi, les sénateurs accusent la « décision unilatérale du président de la commission mixte paritaire de mettre un terme aux travaux de cette commission avant tout vote» et une absence de dialogue au sein de la commission mixte paritaire ».

Si un vote avait eu lieu, les sénateurs républicains estiment que le texte aurait penché vers la version des sénateurs, celle proposant une part du nucléaire abaissée à 50 % du mix électrique national « à terme » et non « en 2025 », ainsi qu’une capacité nucléaire plafonnée à 64,85 gigawatts (GW) au lieu de 63,2 GW. « L’échec de la commission mixte paritaire sans avoir à procéder à un vote a modifié le résultat qui aurait été obtenu s’il avait laissé ses membres procéder à un tel scrutin », affirment-ils.

Dans son avis, le Conseil Constitutionnel a écarté tous ces « griefs de procédure ».

Les députés du parti Les Républicains en remettent une couche

Les députés républicains n’ont pas tardé à rejoindre leurs collègues sénateurs. Le 28 juillet, ils saisissaient le Conseil constitutionnel pour 9 articles qu’ils jugeaint méconnaître « des dispositions et principes de valeur constitutionnelle ».

Le Conseil constitutionnel a donné raison à ces députés sur 3 articles et s’est auto-saisi de la question du gaspillage alimentaire. Les articles dénoncés, mais qui ont été jugés conformes à la Constitution par le Conseil, portent notamment sur les objectifs globaux de la loi, l’interdiction, à compter du 1er janvier 2020, de la mise à disposition des gobelets, verres et assiettes jetables de cuisine en matière plastique et le seuil de 500 mètres d’éloignement des éoliennes par rapport aux zones d’habitation. 

Par Matthieu Combe, journaliste scientifique
 

La déformation des matériaux observée pendant l’essai

A Mines ParisTech, le Centre des Matériaux collabore étroitement avec des industriels de tous univers : automobile, aéronautique, production d’énergie, etc. Le but de ses travaux : développer de nouveaux matériaux, caractériser des matériaux ou encore aider les industriels à modéliser leurs matériaux à des fins de calcul de durée de vie ou de dimensionnement (quelle épaisseur de matière faut-il donner à une pièce pour qu’elle supporte la sollicitation thermomécanique qui lui est appliquée en service ?). Les matériaux dits structuraux vont tenir leur fonction de part leur forme. Ainsi une culasse en aluminium doit conserver sa géométrie pendant tout son fonctionnement. De même une aube de turbine dispose d’un profil géométrique bien spécifique. Si celui-ci change, son rendement est altéré et dans certains cas, cela peut conduire à des dysfonctionnements.
Pour mener ces recherches, le Centre des Matériaux de Mines ParisTech réalise différents types d’essais sur les matériaux : essais mécaniques monotones à basse ou haute température, essais de fatigue à plus ou moins haute température, etc. Le microscope numérique VHX de Keyence est employé pour une première expertise. Il sert à l’analyse de l’état des éprouvettes avant et après un essai. Il permet d’observer les défauts de surface ou de microstructures (joint de grains, porosités, inclusions, etc.). « Nous apprécions particulièrement la capacité d’analyse 3D des surfaces du VHX. Nous effectuons un relevé de la topographie avant et après l’essai. Notre objectif est de décrire comment s’est déroulé l’endommagement du matériau », rapporte Alain Köster, enseignant-chercheur à Mines ParisTech.
L’emploi du microscope numérique pour ce type d’application est tout à fait classique. Mais le Centre des Matériaux revendique un savoir-faire spécifique : la capacité d’observer les éprouvettes in situ, c’est-à-dire pendant l’essai, et cela à haute température (jusqu’à 1200°C). « Nous avons conçu un support pour recevoir la partie optique du VHX. Nous travaillons à des distances au moins supérieures à 85mm (distance focal fixe à 85mm et 95mm). L’objectif, dont la température est surveillée par un thermocouple, est protégé de la chaleur par un écran thermique et par un système de balayage d’air », décrit Alain Köster.
Avant d’acquérir un microscope numérique VHX, le Centre des Matériaux de Mines ParisTech avait recours à des caméras classiques pour conduire ses observations mais le couple résolution/contraste n’était pas suffisant. « L’utilisation du VHX a nettement amélioré la qualité et la résolution des images. La capacité de mesure immédiate sur les images captées est intéressante mais ce n’est pas le plus important pour nous car nous pouvons tout à fait les effectuer en différé », note Alain Köster. Que les mesures soient faites en direct ou différé, leur finesse a grandement été améliorée grâce à la qualité d’images du VHX. Il est désormais possible de mesurer une fissure d’environ 500 µm avec une résolution meilleure que 5 µm contre 30 µm auparavant.
Pour les essais in situ, la souplesse d’utilisation du VHX et la facilité de changement de l’objectif sont prisées. « Au départ, les fissures sont très petites puis grandissent. Nous passons donc d’un objectif à grossissement fort à des objectifs à grossissement plus faible en cours d’essais tout en conservant les distances de travail à 85 mm », explique Alain Köster. Les images prises par le VHX peuvent être exportées vers un PC pour réaliser des traitements tels que la corrélation d’images pour mesurer les champs de déplacement et les longueurs de fissures.
Outre la qualité des images fournies, le microscope numérique VHX de Keyence est apprécié pour sa compacité. « Son concept tout en un (écran, unité centrale et source de lumière), sa caméra déportée et son faible encombrement sont très intéressants pour nous », conclut Alain Köster.

 

Multi-percée – Agrandissement x50
Analyse du trou et de fissures
Coalescence-fissure – Agrandissement x200
Mesure de fissure – Agrandissement x1000
Séquence de fissuration – Agrandissement x50

Energie: des radiateurs plus économes bientôt « offerts » pour remplacer les vieux (Royal)

« Il s’agit de faire en sorte que la loi de transition énergétique profite aussi directement aux gens, soit populaire », a expliqué la ministre sur France 2.

Précisant qu' »un million d’ampoules led » vont être distribuées notamment aux « personnes à petites retraites » en échange de « deux ampoules qui consomment beaucoup d’électricité », la ministre a expliqué »: « nous allons lancer la même opération sur les vieux radiateurs électriques qui consomment énormément d’électricité, qui pèsent très lourdement sur les budgets des ménages ».

« Il y aura plusieurs dizaines de milliers de radiateurs qui seront offerts pour cet échange et pour enclencher la citoyenneté écologique », a-t-elle ajouté.

Ce dispositif, qui n’est pas encore totalement finalisé, concernera les quelque 200 « territoires à énergie positive pour la croissance verte », fers de lance de la transition énergétique, a-t-on indiqué au ministère de l’Ecologie. Les territoires ayant obtenu ce label bénéficient d’une aide financière pour leurs projets.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »