Des émanations de méthane sur Mars de source inconnue

Ces résultats de ces observation publiés dans la revue américaine Science qui paraîtra jeudi, ont fait l’objet d’une présentation à la conférence annuelle de l’American Geophysical Union réunie à San Francisco cette semaine.

A partir d’informations collectées pendant plus de vingt mois, ces chercheurs ont constaté que les émissions régulières de méthane dans le cratère de Gale où le robot explorateur s’est posé en août 2012, étaient moitié moins importantes que ce qu’ils pensaient trouver.

Il s’agit d’émanation constante de méthane provenant de la décomposition de la poussière du sol sous l’effet de la lumière du soleil et des matériaux organiques transportés par les météorites.

Mais ils ont aussi découvert que les niveaux de méthane dans le cratère près de l’endroit où se trouvait Curiosity « connaissait des pics dix fois plus élevés parfois en l’espace de seulement 60 jours martiens ce qui est surprenant étant donné que ce gaz a une durée de vie d’environ 300 ans », expliquent les auteurs de cette recherche dont Christ Webster, du Jet Propulsion Laboratory de la Nasa.

« Ces résultats suggèrent que le méthane est produit occasionnellement ou s’échappe du sol près du cratère de Gale et qu’il se disperse rapidement une fois que ces sources se tarissent », poursuivent ces chercheurs.

Le robot Curiosity ne dispose pas d’instrument permettant d’établir l’existence de la vie sur la planète rouge. L’objectif de cette mission était s’établir si Mars dans un passé lointain réunissait les conditions nécessaires à l’existence de la vie microbienne ce qui a été fait. Le robot a ainsi démontré que l’eau coulait à une certaine époque sur la planète et que d’autres éléments-clé à l’existence de la vie étaient présents.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Certificats d’économies d’énergie: les nouvelles règles fixées pour le 1er janvier

« Deux décrets et deux arrêtés doivent être publiés, et nous sommes confiants sur le fait que cela sera bien fait pour le 1er janvier », a indiqué Loïc Buffard, un des responsables du dossier à la Direction générale de l’énergie et du climat, administration dépendant du ministère de l’Ecologie et de l’Energie, à l’occasion d’un débat organisé par le BIP/Enerpresse.

La phase actuelle du dispositif des CEE doit en effet s’achever le 31 décembre, la troisième couvrant la période 2015-2017.

Créé en 2006, le mécanisme des CEE oblige les fournisseurs d’énergie (EDF, GDF Suez, Total, etc.) à mettre en place et financer des actions d’économie d’énergie (rénovation thermique des bâtiments, changement de chaudières, énergies renouvelables, etc.), sous peine de fortes pénalités.

Depuis plusieurs semaines, les acteurs de ce dispositif, notamment les sociétés collectives qui gèrent pour le compte des fournisseurs d’énergie leurs obligations, s’inquiétaient de voir les fournisseurs arrêter de financer des opérations d’économie d’énergie en raison du flou réglementaire.

« Après des rebondissements législatifs, les sociétés collectives sont rassurées », a commenté Frédéric Utzmann, PDG de Certinergy, l’une de la trentaine de ces sociétés qui existent en France.

Le principal décret attendu doit notamment fixer le futur quota d’économies d’énergie à atteindre au niveau national.

Début octobre, le ministère de l’Ecologie et de l’Energie avait indiqué qu’il serait porté à 700 térawattheures-cumac (TWhc), qui correspond à la quantité d’énergie qui doit être économisée grâce aux actions mises en place, au lieu des 660 Twhc initialement prévus.

Une décision saluée par les acteurs du dispositif.

L’autre texte très attendu est l’arrêté qui révise les types d’actions qui peuvent donner droit à des CEE. Elles concernent par exemple les travaux d’isolation, l’installation de chauffages plus performants, la rénovation de l’éclairage extérieur.

Par rapport à la période précédente, le cadre réglementaire prévoit également de simplifier la procédure de validation des CEE par l’administration ou encore l’élargissement des sanctions en cas de non respect des objectifs qui sont aujourd’hui exclusivement pécunières.

mhc/mpa/fka/bg

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Pourquoi le méthane océanique n’est-il pas relâché dans l’atmosphère ?

Le méthane est l’un des principaux gaz à effet de serre naturel. Il est présent en quantités importantes dans les planchers océaniques sous forme d’hydrate de méthane, appelé plus familièrement « glace qui brûle ». Ce composé est stable à partir d’une certaine pression et à basse température. A cause du changement climatique et du réchauffement des océans, on craint un dégel des hydrates de méthane océanique, qui provoquerait un dégagement massif de ce gaz à effet de serre et donc un emballement du réchauffement planétaire. Les scientifiques pensent d’ailleurs qu’un pareil dégel a joué un grand rôle dans l’extinction permienne il y a 250 millions d’années, qui a vu la disparition de 90% des espèces marines et 70% des espèces terrestres.

Heureusement, l’oxydation anaérobique (oxygène ne venant pas de l’air) du méthane couplée à sa réduction sulfate empêche près de 90% du méthane produit en environnement marin d’être relâché dans l’atmosphère. Toutefois, ce mécanisme est longtemps resté énigmatique.

Le mécanisme de consommation du méthane océanique enfin compris

Une équipe internationale de chercheurs de l’Université Ben-Gourion du Néguev, de l’Université de Cambridge et du California Institute of Technology viennent de publier dans la prestigieuse revue Proceedings of the National Academy of Sciences (PNAS) une nouvelle description de ce mécanisme. Les chercheurs ont mis en évidence le rôle-clé des oxydes de fer dans la stimulation de la réaction. En plus de son rôle de nutriment, le fer sous sa forme oxydée en forte concentration accélère les réactions d’oxydation et de réduction sulfure anaérobiques du méthane dans des proportions beaucoup plus importantes qu’estimées précédemment.

Les chercheurs basent leurs conclusions sur des expériences faites en laboratoire sur des échantillons de sédiments océaniques au sein desquels la mesure des rapport isotopiques de sulfure, oxygène et carbone a permis de remonter la chaîne des réactions chimiques impliquées.

Ces résultats seront très utiles à l’affinage de la modélisation des cycles de gaz à effet de serre utilisés pour comprendre la dynamique du climat à l’échelle de la planète.

Source : bulletins électroniques

Charbon: la demande mondiale va continuer à croître mais moins vite d’ici 2019

Après avoir atteint 3,3% par an entre 2010 et 2013, la croissance de la demande mondiale de charbon sera de 2,1% en moyenne par an d’ici à 2019, prévoit l’AIE dans son rapport annuel sur le marché du charbon publié lundi.

L’an dernier, l’AIE avait envisagé une croissance annuelle de 2,3% entre 2014 et 2018.

« Malgré son image d’une industrie déclinante, le charbon est toujours la colonne vertébrale de la production d’électricité dans le monde », a commenté Maria van der Hoeven, la directrice exécutive de l’AIE.

Les politiques mises en place pour lutter contre le changement climatique, auquel le charbon est un des principaux contributeurs, « échoueront pour la plupart à stopper la croissance de la demande de charbon » d’ici 2019, a-t-elle ajouté.

Malgré une diversification de ses sources d’énergies, la Chine, principal producteur, consommateur et importateur de charbon dans le monde, représentera encore les trois cinquièmes de la hausse de la demande d’ici à 2019, avec une prévision de croissance de la demande de 2,6% par an.

Le pays n’aura pas donc encore atteint son pic de consommation à cette date, estime l’agence basée à Paris.

La demande de charbon sera par ailleurs tirée par d’autres pays comme l’Inde et les pays d’Asie du Sud-Est, mais aussi le Japon et la Corée du Sud, qui compensera le recul de la consommation de l’Europe et des Etats-Unis.

Il atteindra par exemple 1,7% par an aux Etats-Unis, le développement des gaz de schiste ayant conduit à fermer des centrales à charbon.

En Europe, la croissance de la demande ces dernières années « n’était qu’une hausse temporaire, largement due aux prix bas du charbon et du CO2, aux prix élevés du gaz et à la fermeture partielle des centrales nucléaires en Allemagne », explique l’AIE.

Depuis 2012, le contexte économique morose, l’amélioration de l’efficacité énergétique et le développement des énergies renouvelables a inversé la tendance.

L’AIE estime aussi que de nombreuses incertitudes pèsent sur ses prévisions, comme les politiques qui pourraient être mises en place contre le charbon et surtout le niveau de ses prix, qui ont encore beaucoup baissé sur un an.

Pendant des années, de nouvelles capacités ont été mises en services, tirées par la demande, mais depuis 2011, le marché se trouve dans une situation de surproduction, qui pousse les prix vers le bas.

Mais selon Maria van der Hoeven, « la consommation de charbon sous sa forme actuelle est simplement insoutenable », nécessitant « d’accélérer rapidement » le déploiement de la capture et de la séquestration du carbone et d’augmenter les investissements dans des centrales électriques à base de charbon plus efficaces, notamment dans les pays émergents.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Revue du web #72 : les vidéos les plus étonnantes de décembre 2014 (2/3)

Cette semaine dans la revue du Web :

  • Trier et rassembler des piles pour un robot ? Un jeu d’enfant ;
  • Une robe imprimée en 3D fait son entrée au MoMA ;
  • Un « petit train » magnétique d’une grande simplicité, et à peu de frais ;
  • Joli timelapse d’une comète qui explose dans l’atmosphère ;
  • Le gadget (inutile?) de la semaine : des montagnes russes pour vendre une maison ;
  • Et en bonus : petit florilège de machines à pseudo-mouvement perpétuel.

Trier et rassembler des piles pour un robot ? Un jeu d’enfant !

Alors que la lobotomie infinie d’un travail répétitif n’a rien de séduisant pour le commun des mortels, c’est pourtant le sel de la vie des deux robots qui viennent ouvrir notre soixante-douzième Revue du Web. Présentés lors de l’édition 2014 du Pack Expo, ayant eu lieu le mois dernier à Chicago, les robots du géant japonais FANUC (abréviation de Factory Automation NUmerical Control) impressionnent toujours autant.

Pour la démonstration, une ligne d’emballage de piles 9 volts a été installée sur le stand de la FANUC America, pour laisser les deux robots stars exprimer tous leurs talents. Une caméra repère la position des piles sur le tapis principal de la chaîne d’emballage. Un premier bras robotique ultra nerveux vient rassembler une par une les piles en une ligne de quatre piles, qu’un second bras robotique vient collecter et placer sur un second tapis, qui va en direction opposée. Leur travail coordonné, absolument hypnotique, explique peut-être pourquoi le fabricant japonais est le premier producteur de robots industriels au monde.

Une robe imprimée en 3D fait son entrée au MoMA :

Puisque les bonnes idées sont rarement orphelines, les robes imprimées en 3D sont depuis peu légion – presque autant que les imprimantes 3D elles-mêmes, disent même les mauvaises langues. La robe dont il est ici question se démarque néanmoins de ses consœurs : la pièce, entièrement imprimée en 3D, l’a été d’une seule traite, et n’est pas constituée de plusieurs petits bouts assemblés les uns aux autres. C’est essentiellement pour cette raison que cette robe, créée par le studio new-yorkais Nervous System et imprimée par Shapeways, vient de faire une entrée remarquée dans la collection permanente du Museum of Modern Art de New-York (MoMA).

Le projet de départ – un bracelet imprimé en 3D – a vite glissé vers quelque chose d’infiniment plus complexe et de plus grande échelle, cette superbe et aérienne robe cinématique. Les 3316 charnières de l’ensemble rendent les 2279 pièces triangulaires individuellement mobiles, une petite prouesse rendue possible par les meilleures techniques de modélisation actuelles. On réalise ensuite une simulation virtuelle de la robe « en boule », pliée, une technique couramment utilisée pour imprimer d’un seul tirant des pièces trop imposantes pour une imprimante 3D. Le résultat est bluffant !

Copyright illustrations :Nervous System

Un « petit train » magnétique d’une grande simplicité, et à peu de frais :

Nostalgiques des petits trains électriques de votre enfance ? Un internaute particulièrement dégourdi a imaginé un dispositif ultra simple rappelant plus ou moins l’un de ces fameux jouets miniatures, nécessitant trois fois rien et à peu de frais. Avant tout, armez-vous d’un long ressort en cuivre, d’une petite pile classique (LR6) et de quelques puissants aimants d’un alliage de néodyme fer bore (structure cristalline tétragonale de formule Nd2Fe14B). Pour construire ce qui fera office de train, il suffit de placer un ou plusieurs de ces aimants aux pôles négatifs et positifs de la pile. Le ressort en cuivre fera lui office de « circuit » de fortune, sans qu’il n’y ait rien à modifier. Une fois le train dans le circuit, la magie opère : la petite locomotive se met en mouvement.

C’est l’interaction électromagnétique, par le biais de la force de Lorentz, qui permet au « petit train » de se mettre en branle. Si l’on referme le circuit, tel un serpent qui se mange la queue, le petit véhicule semble ne plus jamais vouloir s’arrêter. Le principe est inchangé pour deux petites piles-véhicules, qui rentrent alors dans une course effrénée.

Une comète explose dans l’atmosphère

Le photographe américain Wes Eisenhauer a eu droit à une petite surprise alors qu’il préparait une vidéo en timelapse dans sa belle nature du Dakota du Sud. L’extrait vidéo, extrêmement court, nous permet tout de même d’admirer une comète exploser au moment de son entrée dans notre atmosphère. Les images ne laissent pas de place au doute : la pulvérisation du petit corps céleste a bien eu lieu.

Le gadget (inutile?) de la semaine : des montagnes russes pour vendre une maison

Vendre un bien immobilier n’est pas toujours une mince affaire, surtout lorsque le bien en question n’a rien d’exceptionnel. Le gadget (inutile?) de la semaine vient mettre en valeur une petite maison sans prétention de la commune néerlandaise d’Ermelo, au centre des Pays-Bas, et ce d’une manière pour le moins originale. L’agence immobilière Huizen Promoter, en charge de la vente de la maison, s’est mise en tête d’attirer l’attention d’acheteurs potentiels – et des médias – en construisant un petit circuit de montagnes russes… passant à travers la maison.

De la cuisine à la salle à manger en passant par les escaliers, la visite de la maison se transforme alors en une joyeuse traversée au pas de charge, idéale pour passer à côté de tous les défauts du bien convoité, mais laissant invariablement l’acheteur potentiel ravi. Le slogan de l’agence immobilière ? « Get more attention for your house ». Mission accomplie.

La vidéo du making-of (pensez à activer les sous-titres) :

Bonus : petit florilège de machines à pseudo-mouvement perpétuel

Si l’on est quelque peu familier des principes qui régissent la thermodynamique, l’idée d’une machine à mouvement perpétuel semble être une hérésie. Nombreux sont les grands esprits qui se sont penchés sur la question, du touche-à-tout Léonard de Vinci à l’horloger allemand Johann Bessler, rivalisant d’ingéniosité à chacune de leurs tentatives. Les exemples les plus aboutis donnent pourtant l’impression d’un mouvement perpétuel – c’était, le plus souvent, sans compter sur les forces de frottements.

Les deux vidéos qui viennent conclure cette soixante-douzième Revue du Web présentent un agréable petit florilège de machines à pseudo-mouvement perpétuel, dont certaines sont des reconstitutions de pièces historiques.

Par Moonzur Rahman

Un des satellites Galileo placé sur une mauvaise orbite pourrait être réhabilité

En août dernier, le programme de GPS européen Galileo commandité par l’ESA dévoilait publiquement l’échec de sa mission consistant à envoyer Sat-5 et Sat-6 dans la constellation européenne. Les deux satellites censés tourner sur une orbite circulaire à 23 000 kilomètres d’altitude inclinée à 55 degrés avaient en fait été placés sur une orbite elliptique basse autour de 17 000 kilomètres, inclinée à 49,8 degrés les rendant de fait caducs avant même d’avoir pu servir. Par la suite, l’ESA ouvrait une enquête pour déterminer les causes de cette bévue afin d’en tirer les conclusions qui conviennent. Il s’est avéré que le problème provenait d’une défaillance de tuyaux d’alimentation, ce qui aurait occasionné un gel de carburant dans le lanceur.

Passé cette constatation, les ingénieurs ont ensuite mis en place une suite de 11 manipulations effectuées sur 17 jours pour redresser au mieux la trajectoire orbitale de Sat-5. Et si elle n’est toujours pas idéale, elle est désormais dans un périmètre « sécurisé » comme l’affirme Didier Faivre, directeur de l’ESA. Un signe très encourageant selon lui : « Nous sommes maintenant dans un endroit sûr, nous pouvons travailler, au moins pour la phase de tests en orbite, et nous avons encore l’espoir que ce satellite pourrait être utilisé pour la navigation ».

La commission européenne statuera sur son éventuelle utilisation après observation des résultats des tests mais il n’est pas impensable que ce soit le cas un jour. Les réponses sont prévues pour le début de l’année prochaine. Quoi qu’il en soit, Didier Faivre se montre optimiste sur la situation actuelle. Quant à Sat-6, le deuxième satellite, il devrait connaître le même sort que son homologue et jouir de manoeuvres semblables afin de le mettre dans une orbite sécurisée et plus conforme à sa mission.

Par Sébastien Tribot

Toyota commercialise au Japon sa voiture à pile à combustible, le succès au rendez-vous

La Mirai (« futur » en japonais), qui peut parcourir 650 km avec un seul plein effectué en trois minutes, fonctionne sur le principe de l’électrolyse inversée: de l’électricité est générée en faisant passer dans un circuit des électrons extirpés d’atomes d’hydrogène. Ces derniers se combinent ensuite avec l’oxygène de l’air pour former de l’eau, seule substance rejetée par le véhicule.

Toyota n’a pas souhaité confirmer l’information du Nikkei sur un millier de commandes, indiquant simplement que « le nombre de commandes dépassait le chiffre de 400 ». Autrement dit, le groupe a déjà atteint l’objectif de ventes, modeste, qu’il s’était fixé d’ici à fin 2015.

Compte tenu des vertus écologiques de cette voiture (qui ne rejette pas de dioxyde de carbone – CO2) et de son prix très élevé de 7,23 millions de yens (près de 50.000 euros, taxe comprise), ce sont surtout des entreprises et des administrations qui ont manifesté leur intérêt pour la Mirai.

Mais elles vont devoir patienter faute de capacités de production suffisantes, actuellement de l’ordre de 700 véhicules par an. Face à ce succès, Toyota songe à tripler la cadence, un objectif qui devrait entraîner un investissement de 20 milliards de yens (135 millions d’euros), avait rapporté début décembre le Nikkei.

Après le Japon, Toyota prévoit de commercialiser cette Mirai en septembre 2015 aux Etats-Unis (où il espère en écouler plus de 3.000 d’ici fin 2017) et en Europe (où il vise la vente de 50 à 100 unités annuellement via le Royaume-Uni, l’Allemagne et le Danemark dans un premier temps).

Honda travaille sur un projet similaire attendu d’ici début 2016.

Pour accompagner le lancement de ce type de véhicules, le gouvernement japonais a prévu de faciliter l’installation de stations à hydrogène en assouplissant la réglementation et en apportant des aides.

L’objectif: atteindre 100 bornes de ravitaillement d’ici à mars 2016, contre une quarantaine actuellement, et diviser leur coût par deux avant 2020. Il faut aujourd’hui débourser 400 à 500 millions de yens (2,7 à 3,4 millions d’euros) pour construire une telle station, selon le Nikkei.

Les autorités envisagent d' »autoriser les opérateurs à utiliser un taux de compression plus élevé », ce qui permettrait d’éliminer un plafond limitant la capacité de stockage d’une station à sept pleins.

Parallèlement au lancement de la Mirai, première berline de ce type vendue à grande échelle dans le monde, Fujitsu a annoncé lundi le lancement d’un service permettant aux automobilistes de consulter en temps réel la localisation et les heures d’ouverture des stations à hydrogène.

anb/kap/ggy/lma

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

400 kg de cuivre les plus froids du monde

La machine n’a pas encore démarré qu’elle pulvérise déjà un record. Celui d’avoir refroidi 400 kg de cuivre à la température extrême de 6 mK, soit -273,144°C. Jamais une telle quantité de matière n’avait été portée à un froid aussi proche du zéro absolu. De quoi se féliciter du bon déroulement du projet avec une machine manifestement très efficace.

Et remercier le plongeur qui a découvert un navire sous 28 mètres de profondeur avec à son bord 1000 lingots de plomb immédiatement convoités par les physiciens de l’Istituto nazionale di fisica nucleare. En effet, ce plomb vieux de 2000 ans présente le gros avantage d’avoir une radioactivité quasi-nulle, l’idéal pour abaisser le bruit de fond des expériences consistant à mesurer des taux de radioactivité.

CUORE (Cryogenic Underground Observatory for Rare Events) est un détecteur actuellement en construction en Italie. Ses équipes l’utiliseront pour déterminer si les neutrinos sont leur propre antiparticule ou non, auquel cas ils seraient des fermions de Majorana. Pour en avoir le cœur net, CUORE s’intéresse à la double désintégration bêta mais sans émission de neutrino, une désintégration jusqu’ici jamais observée. Logique puisque d’après la théorie, celle-ci ne peut  survenir que dans le cas d’une particule de Majorana, à l’existence encore sujette à débat.

Une double désintégration sans émission de neutrino ne répond pas aux critères de la physique standard qui considère que lors d’une transformation, rien ne se perd rien ne se crée. Si une double désintégration bêta était effectivement observée, cela signifierait l’existence d’une autre physique. Une perspective terriblement existante.

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

Détectez les rayons cosmiques avec votre smartphone

Comment quantifier précisément le rayonnement cosmique qui atteint la Terre ? En créant un réseau de détecteurs ponctuels bien sûr ! L’idée repose sur le fait que le rayonnement cosmique produit des photons à haute énergie lorsqu’il pénètre dans l’atmosphère terrestre. Ces photons sont parfaitement détectables par les caméras équipant les smartphones. Il ne reste plus qu’à trouver une façon de réaliser les mesures et de collecter les données. 

Les scientifiques de l’Université de Californie ont donc réalisé l’application CRAYFIS (Cosmic Rays Found In Smartphones). Grâce à elle, n’importe quel smartphone se transforme en détecteur de photons à haute énergie, preuve de la présence du rayonnement cosmique. Les mesures couplées à la position du téléphone sont transmises aux chercheurs  qui n’ont plus qu’à cartographier le rayonnement cosmique à la surface de la planète.

D’après eux, il suffirait de 1000 smartphones répartis sur un kilomètre carré pour établir une carte représentative de la quasi-totalité du rayonnement cosmique réel. D’autant que les mesures ne nécessitent aucune action du propriétaire du smartphone. Après avoir installé Crayfis, la détection s’active automatiquement lorsque le téléphone est en charge et non utilisé.

Cette nouvelle approche de détection vient s’ajouter aux techniques déjà existantes, notamment l’ensemble de détecteurs géants situés à l’Observatoire Pierre Auger en Argentine dédié à l’analyse du rayonnement cosmique.

L’origine des rayons cosmiques reste incertaine et ce nouvel outil terrestre d’étude de ces particules nous venant directement du cosmos  permettra peut-être d’en savoir plus sur leur origine.

Par Audrey Loubens

Toucher une image virtuelle grâce aux ultrasons

Toucher l’intouchable, c’est désormais possible grâce aux ultrasons. Ultrahaptics, une société britannique, s’est inspirée des travaux de chercheurs de l’Université de Bristol. Ces derniers ont développé un algorithme pour contrôler l’émission d’ondes à une fréquence voulue en un point de l’espace donné.  Braquées sur la main d’un utilisateur, ces ondes acoustiques viennent alors stimuler un point de la peau et provoquer une sensation de contact.

La technique est suffisamment fine pour faire ressentir les notions de textures.  Combiné à un écran en 2D, le système permet d’interagir avec la surface sans la toucher. Le système UltraHaptics appliqué à un écran fonctionne à l’horizontal aussi bien qu’à la verticale et peut provoquer une pression de 20 Pa sur une cible située à 30 cm de distance.

UltraHaptics a passé la vitesse supérieure en s’attaquant à un système capable de fonctionner en 3 dimensions. Les scientifiques anglais ont réussi à coupler la version 2D avec un capteur de mouvement. Grâce à lui, la position de la main est connue et le système d’émission des ultrasons peut déterminer le moment où la main touche virtuellement une image virtuelle. Les ultrasons stimulent alors la peau et créent une sensation de toucher malgré l’absence de matière.  Pour l’instant, le système fonctionne avec des formes géométriques simples de type ronds, carrés et triangles.

Le caractère ludique du système est évident mais à quoi cela pourrait-il bien servir ? Les gamers pourraient ressentir le vent sur leur visage ou les balles virtuelles qui les atteignent pendant une partie de FPS. Ultrahaptics pourraient développer des applications pour non-voyants, ou pour des tables interactives de musées par exemple. En avril, Chris Harrison, expert en interaction homme-machine a déclaré après un test: « C’est vraiment bizarre, mais le système possède un énorme potentiel ».

Découvrez le système UltraHaptics :

Par Audrey Loubens, journaliste scientifique

30 ans après, le site de Bhopal n’est toujours pas décontaminé

C’était la nuit du 2 au 3 décembre 1984. L’usine chimique d’Union Carbide  explose, libérant dans l’atmosphère un nuage toxique de quarante-deux tonnes d’isocyanate de méthyle (MIC). Ce composé organique à base de phosgène, plus connu sous le nom de gaz moutarde,  survole la ville du nord de l’Inde et tue plus de 3500 personnes quasi-instantanément. L’usine construite dans la capitale de l’Etat du Madhya Pradesh produisait 5000 tonnes de pesticides par an, mais était surtout fournisseuse d’emplois. Une véritable manne pour les indiens qui  ont afflué dès 1978, faisant émerger autour de l’usine une véritable ville. Aucun ne se doutait que le rêve deviendrait cauchemar.

Comment une telle catastrophe a-t-elle pu se produire ? Bhopal est la conséquence terrible d’une succession d’incidents sous-estimés et non résolus. Tout commence par un dysfonctionnement. Une vanne restée ouverte alors qu’elle aurait dû être fermée provoque l’inondation d’un réservoir de MIC. La pression augmente, mais personne n’en tient compte. 3 heures plus tard, le couvercle en béton se fissure et la valve de sécurité explose, libérant le gaz hautement toxique sur une surface de 25 km².

Le drame de Bhopal est l’accident industriel le plus meurtrier. Au-delà des milliers de morts directement liés à l’intoxication au nuage de gaz, les terres et les eaux du secteur contaminées continuent à empoisonner les habitants. Les négligences dans la gestion de la sécurité de l’usine chimique ont conduit à des agissements contestables, comme l’enfouissement de déchets sous terre, qui ont pollué et polluent toujours les nappes phréatiques. L’explosion n’était en fait que le point d’orgue de plusieurs années de défaillances.

Derrière le drame de l’accident se révèle l’incapacité de nettoyer et de décontaminer. En effet, suite à la libération du nuage de MIC, le site n’a été fermé qu’au bout de 3 jours et n’est toujours pas décontaminé ! Il faut dire que le chantier est colossal et fait face à deux problématiques : le traitement des déchets du site et la décontamination des sols. Or, l’Inde ne dispose pas des compétences techniques pour incinérer les déchets. Il faut donc trouver un partenaire pour s’en charger. Début 2014, l’Allemagne était d’accord pour récupérer et acheminer sur son sol trois cent quarante sept tonnes des déchets indiens, avant de se rétracter. A ce jour, aucune solution n’est avancée pour le traitement des déchets, sachant que les trois cent quarante sept tonnes n’étaient qu’un début. On estime que plusieurs milliers de tonnes jonchent encore les sols. Malheureusement, si des indemnisations ont été versées aux familles ayant pu prouver qu’elles ont été touchées, rien n’a été entrepris au cours des trente dernières années pour assainir le territoire. Actuellement aux mains de Dow Chemical, l’usine d’Union Carbide reste abandonnée à son sort, et avec elle les populations locales.

Par Audrey Loubens, journaliste scientifique

La cigarette électronique en pleine tempête médiatique

« La cigarette électronique est, elle aussi, cancérigène », « Dangers de la cigarette électronique : une étude japonaise confirme la présence de substances cancérigènes », « La cigarette électronique serait plus cancérigène que le tabac » titraient respectivement Les Échos, Le Huffington Post et Europe 1. A l’origine de ces articles, un rapport d’experts de l’Institut national de la santé publique japonais qui révèle que certaines marques de e-cig contiennent du formaldéhyde, de l’acroléine, du glyoxal et du méthylglyoxal. Ces 4 substances chimiques sont toxiques, le formaldéhyde étant identifié comme cancérigène. Nous avons-nous-même relayé l’information ici

Mais très vite, des articles prenant le contre-pied ont déferlé, dénonçant une soi-disant désinformation et un traitement médiatique sensationnaliste : « Une vague de désinformation en provenance du Japon arrive sur nos côtes » pour www.ma-cigarette.fr,  ou encore « Journalisme : tourner 7 fois sa souris dans sa main avant de faire un copié-collé d’une dépêche AFP » paru sur le blog de Jacques Le Houezec, tabacologue militant en faveur de la cigarette électronique comme une aide à l’arrêt du tabac. 

Cette annonce serait-elle une fausse alerte ? Non, les cigarettes électroniques contiennent bien des substances toxiques et personne ne le conteste. En revanche, les pro-cigarettes électroniques s’agacent qu’une étude révélant la présence d’un seul cancérigène soit montée en épingle pour accuser la e-cig d’être cancérigène. Car l’étude ne conclue pas que la cigarette électronique est cancérigène, elle indique « seulement » que certaines d’entre elles peuvent contenir des concentrations élevées de composés carbonylés, à savoir des aldéhydes.

Ces affrontements médiatiques témoignent de la sensibilité du sujet mettant en jeu le puissant lobby du tabac face à ceux qui sont convaincus que la cigarette électronique peut libérer les fumeurs de leur tabagisme. Nul doute que l’affrontement  entre fumeurs, vapoteurs, industrie du tabac, organisation de santé et gouvernements ne fait que commencer. 

Par Audrey Loubens

Des robots simulent le quotidien d’une famille moyenne pour évaluer les dépenses énergétiques

L’Oak Ridge National Library (ORNL), un Institut américain de recherche sur l’électricité, est à l’origine de ce projet d’étude concernant les meilleurs matériaux à utiliser pour construire la maison la plus économe qui soit. Durant 6 années, l’expérience a simulé la vie au sein de trois maisons-tests aux termes desquelles l’ORNL a enfin pu déterminer la configuration optimale.

La première maison étudiée répond aux normes standards. Elle est représentative des habitations classiques,  c’est la maison témoin. La deuxième maison intègre des technologies d’économie d’énergie tandis que la troisième est alimentée par des panneaux solaires de 2.5kW. Chaque maison a été soumise au même protocole, la simulation étant strictement identique. Chaque jour la lumière s’allumait, le frigo s’ouvrait et se refermait à plusieurs reprises, la baignoire se remplissait et la télévision s’allumait. Chaque soir, la lumière s’éteignait. Plusieurs fois par semaine, la machine à laver et le sèche-linge fonctionnaient. En tout, ce sont pas moins de 100 points de mesures qui furent analysés dans ces maisons-robot. Tout ceci représentant les habitudes d’une famille. Pourtant, aucun humain n’a jamais activé ni TV ni lave-linge. Tout était robotisé, jusqu’à ce système de réservoir simulant la production de chaleur et d’humidité des corps humains.

Bilan : la maison la moins énergivore est celle avec les panneaux solaires. On s’y attendait un peu mais grâce à cette expérience unique, on connait l’économie réalisée. Ainsi, la deuxième maison permet d’économiser 37% d’énergie, et la troisième consomme 57% d’énergie en moins qu’une habitation classique, grâce à l’énergie produite de façon autonome via les panneaux solaires. Finalement, d’après cette expérience, le plus efficace pour abaisser les coûts reste de s’assurer de l’efficacité des fermetures (portes, fenêtres), qu’il n’y a pas de fuite et utiliser des lampes basse consommation. La facture énergétique de la maison avec panneaux solaires est de seulement 35$ mensuels, soit une économie annuelle de 317$ (254€) par rapport à une maison standard.

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

Le chantier des éoliennes en mer prend forme à Saint-Nazaire

Dans ses deux usines du port de Saint-Nazaire, Alstom produira les alternateurs et les nacelles des 80 éoliennes du futur parc en mer du banc de Guérande de Saint-Nazaire. En sortiront aussi, les alternateurs et nacelles qui équiperont les champs éoliens de Courseulles-sur-Mer et du Fécamp, remportés par les consortiums menés par EDF Energies Nouvelles. Les mâts et les pales de ces éoliennes proviendront quant à eux des deux usines Alstom de Cherbourg.

La production démarrera en février 2015. La première livraison de 5 éoliennes de présérie sera destinée à la ferme de Block Island aux Etats-Unis. A terme, 100 machines devraient être produites chaque année dans ces usines.

Un hub logistique en construction

Sur le site portuaire de Saint-Nazaire la construction d’un hub logistique destiné aux deux consortiums ayant remporté les appels d’offres pour l’installation des deux parcs éoliens en mer régionaux, commencera en mars 2015. Les premiers travaux débuteront  par la démolition d’une vingtaine de Blockhaus et l’extraction et la mise en décharge des sols pollués d’une ancienne station de déballastage.

Des travaux de renforcement du port sont aussi prévus, vu qu’une nacelle, par exemple, pèse environ 400 tonnes, soit le poids d’une rame TGV. « Une partie du quai va faire l’objet de renforcements à 15 tonnes au mètre carré, deux fois plus robuste qu’un quai classique, car les nacelles et les pâles font plusieurs centaines de tonnes sur de petites emprises« , précise  Philippe Léon, chef de projet du hub logistique.

Livré fin 2016, ce hub occupera une quinzaine d’hectares dont 11 hectares pour la plate-forme bord à quai proprement dite. « Le choix de Saint Nazaire est bien évidemment lié à la proximité du parc, mais aussi à la qualité des infrastructures proposées, au tissu économique et au tissu d’entreprises qui existent sur le bassin de Saint-Nazaire et qui maîtrisent déjà ces compétences de logistiques portuaires, de chargement de colis lourds« , vante Gaetan Duchene, chef de projet du parc éolien de Saint-Nazaire pour EDF Energies Nouvelles. Pour Nantes Saint-Nazaire Port, cet équipement représente un investissement de 10 millions d’euros.

Un hub pour deux parcs éoliens

142 éoliennes seront préparées sur le hub de Saint-Nazaire. Le premier utilisateur sera Eolien Maritime France (EMF), consortium européen regroupant EDF Energies Nouvelles et le danois Dong Energy Power, avec des éoliennes fournies par Alstom, pour le futur parc de Saint-Nazaire.

Ce parc sera installé entre 2018 et 2020 en mer du banc de Guérande de Saint-Nazaire, à 12 km des côtes, entre Le Croisic et Le Pouliguen. Il s’agit d’un parc de 80 éoliennes (Haliade 150-6MW) pour une puissance totale de 480 MW.  Il pourra alimenter en électricité et chauffage environ 720 000 habitants.

Dans un deuxième temps, GDF Suez, associé à Areva, EDP renewables et Neoen marine, retenus pour mener l’exploitation du champ des Deux îles, prendront possession du hub. 62 éoliennes, pour un total de 500 MW, seront installées entre 2021 et 2023, au large des îles d’Yeu et de Noirmoutier.

Et après? Quand les deux parcs éoliens seront construits, le hub pourra servir aux autres industriels présents sur le port. »L’idée est d’avoir une certaine cohérence industrielle pour que les sous-stations électriques ou les fondations métalliques qui sortiront de l’usine STX puissent bénéficier aussi des installations et des infrastructures du port sur le long-terme« , prévient Philippe Léon.

Comment va se passer l’assemblage des éoliennes en mer ?

L’utilisation de ce hub commencera pendant la phase de construction du parc éolien de Saint-Nazaire, prévue entre 2018 et 2020. Une fois pré-assemblées, les éoliennes seront chargées sur des navires spécifiques, dits « jack-up ». Ces bateaux ont la particularité de se pouvoir se relever en se posant sur le fond sur des pieux métalliques. Ils sont « auto-élévateur ». Une fois posés sur leurs pieux métallique, ils se « transforment » en plate-forme.

« C’est ici que vont converger toutes les pièces et composants essentiels. Les navires jack-up chargeront les pièces – nacelles, pâles, tronçons d’éoliennes – et partiront en mer pour les installer« , résume Gaetan Duchene. L’installation des éoliennes s’échelonnera sur 2 ans, mais elles entreront en production au fur et à mesure de leur assemblage.

« Le banc de Guérande est un plateau rocheux dont la profondeur se situe entre 12 et 23 mètres« , explique Gaetan Duchene. « Les fondations retenues pour ce projet seront des mono-pieux : il faut imaginer un cylindre métallique creux de 7 mètres de diamètre qui va être fiché dans le sol, sur lequel on va venir installer l’éolienne« , poursuit-il. Enfin, « le pieux est installé par batage. S’il ne descend plus par batage, on procèdera par forage« .

Suite au débat public qui a permis d’échanger avec le territoire, les demandes d’autorisation pour le parc éolien de Saint-Nazaire ont été déposées le 23 octobre, accompagnées de l’étude d’impact environnementale. « Ces autorisations seront instruites au cours de l’année prochaine par les services de l’état avec notamment une enquête publique« , prévient Gaetan Duchene.

Par Matthieu Combe, journaliste scientifique

Et aussi dans les
ressources documentaires :

Les carburants sont au plus bas depuis plus de quatre ans en France

Carburant privilégié des Français avec plus de 80% des ventes, le gazole a baissé de 3,44 centimes en une semaine pour s’établir à 1,1792 euro le litre vendredi dernier, montrent les chiffres hebdomadaires du ministère de l’Ecologie et de l’Energie.

C’est près de 16 centimes de moins depuis le début de l’année, et le niveau le plus bas observé depuis le 12 novembre 2010, quand le litre de gazole valait 1,1773 euro. Pour un plein de 50 litres, cela représente une économie d’environ 8 euros.

Les prix de l’essence sans plomb ont également poursuivi leur repli.

Deuxième carburant le plus vendu dans l’Hexagone, l’essence sans plomb 95 s’affichait à 1,3733 euro le litre, ce qui représente une baisse de 3,34 centimes d’une semaine sur l’autre. C’est un niveau plancher depuis le 26 novembre 2010.

Le litre de SP 98 a lui abandonné 3,04 centimes à 1,4395 euro, le niveau le plus faible depuis le 3 décembre 2010.

« Ces mouvements reflètent le fait que le brut a continué de baisser, combiné à une dépréciation de l’euro », a expliqué à l’AFP le président de l’Union française des industries pétrolières (Ufip), Jean-Louis Schilansky.

Les cours du pétrole restaient pénalisés lundi par la surabondance de l’offre, les perspectives moroses de demande et un dollar fort. A Londres, le baril de Brent a même atteint vers 09H45 GMT son niveau le plus bas depuis octobre 2009, à 67,35 dollars.

Selon M. Schilansky, les prix des carburants devraient se stabiliser autour de leur niveau actuel, à moins d’un nouvel accès de faiblesse des prix du brut.

« Dans tous les cas, on ne voit pas de facteur qui conduirait à la hausse dans les mois qui viennent », a-t-il dit.

L’Elysée a estimé que la baisse de l’or noir était correctement répercutée dans les prix des carburants à la pompe, à l’issue d’une rencontre lundi avec des professionnels du secteur. A cette occasion, l’objectif gouvernemental de revenir sur l’avantage donné au gazole a été réaffirmé.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

De l’ADN a survécu à un voyage dans l’espace

L’expérience remonte à 2011. Dans le cadre de la mission européenne Texus, des scientifiques ont déposé en certains endroits de la fusée Texus-49 des plasmides, des molécules d’ADN circulaires présentes dans les bactéries, avant de l’envoyer faire un tour dans l’espace. Les molécules attachées ont donc dû endurer les conditions extrêmes que peuvent subir des objets à l’entrée et à la sortie de l’atmosphère. Pendant un court laps de temps, elles ont été chauffé à 1000°C mais elles ont survécu et sont restées accrochées à la capsule. Chose inouïe, si le code génétique qu’elles contiennent n’est peut-être pas resté tout à fait intact, il est en tout cas resté déchiffrable et a pu être transmis à des cellules de bactérie et de tissus conjonctifs (TC). Signe de leur robustesse.

 

Toutefois, les molécules d’ADN n’ont pas toutes réagi de la même façon. En fonction de l’endroit où elles ont été placées, elles ont plus ou moins bien résisté.

Ainsi, celles qui étaient incurvées dans les rainures des têtes de vis ont un taux de survie plus important que les autres (53%). 

 

Cela a inévitablement engendré un questionnement chez nombre de scientifiques concernant l’origine de la vie. Certains se demandant si elle ne serait pas venue de l’espace comme le décrit le principe de la panspermie; cette théorie scientifique selon laquelle la vie aurait été apportée d’autres planètes, véhiculée par des matériaux extraterrestres comme les comètes, météorites et autres corps rocheux. Sachant qu’une centaine de tonnes atterrit chaque jour sur Terre, pourquoi pas me direz-vous. En tout cas, la résistance de l’ADN à ces conditions extrêmes peut conforter cette théorie.

 

Cette constatation va forcer les scientifiques à prendre davantage de précautions à l’avenir car si les molécules d’ADN survivent dans l’espace et restent agrippées à l’enveloppe d’une fusée, elles peuvent aussi se répandre et contaminer de leur présence certaines régions de l’espace, comme Mars. Ce que redoute Oliver Ullrich, professeur de l’Institut d’anatomie de l’Université de Zurich et co-signataire de l’étude parue sur la revue scientifique américaine PLOS ONE : « nous devons éviter une telle contamination dans notre recherche pour une vie extraterrestre ».

 
Par Sébastien Tribot

Négociations climat: « le sentiment d’urgence fait défaut » (Union européenne)

« Le sentiment d’urgence fait défaut, les questions fondamentales en jeu font retomber les parties dans leurs positions habituelles », a-t-il déploré lors d’une conférence de presse en marge de la Conférence de l’Onu sur le climat qui se déroule du 1er au 12 décembre dans la capitale péruvienne.

« Dans les jours prochains, nous devons redoubler d’efforts pour écouter les préoccupations des uns et des autres », a-t-il insisté, appelant les parties à « s’écouter » et non à « se donner des leçons ».

Depuis une semaine, les délégations des 195 pays membres de la convention de l’Onu sur le climat ont repris leurs négociations en vue de conclure un accord mondial sur les réductions de gaz à effet de serre dans un an à Paris.

Les positions des pays industrialisés, des pays les moins avancés et des grands émergents sont très éloignées sur de nombreux sujets tels que la prise en compte, ou pas, de la responsabilité historique des pays riches dans le réchauffement, l’aide financière aux pays du Sud ou encore le contenu des engagements qu’auront à produire les divers pays fin 2015, appelées « contributions nationales ».

« Nous pensons que les contributions nationales doivent se limiter aux efforts de réduction des émissions » de gaz à effet de serre, a affirmé M. Canete.

Les pays en voie de développement veulent y voir inclus leurs efforts d’adaptation au changement climatique et les moyens notamment financiers que les pays riches pourraient mettre en oeuvre pour les aider.

« Nous devons prendre en compte l’adaptation (dans le futur accord), mais pas dans les contributions nationales », estime Miguel Canete.

La question du périmètre des contributions doit faire l’objet d’une décision approuvée par tous d’ici la fin de la semaine.

Sur l’épineuse question de la « différentiation » entre les pays, « nous ne sommes pas d’accord avec une interprétation rigide  » de la convention de l’Onu qui a créé deux catégories (Annexes 1 et 2), l’une pour les pays développés et une pour les pays en voie de développement, a affirmé Miguel Canete.

Les grands émergents insistent pour ne pas être traités à la même enseigne que les pays industrialisés, au nom de leur droit au développement et de la responsabilité historique des pays du Nord dans le changement climatique.

« Le monde de 2015 n’est pas le monde de 1992 », date de signature de la convention de l’Onu sur le climat, a fait valoir le commissaire européen, en référence à l’essor de la Chine et de l’Inde qui sont entre temps devenues respectivement 1er et 4ème émetteur de GES au monde.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Reach/CLP : toute l’actualité de décembre (1/2)

Le Ministère publie un mode d’emploi pour la demande d’autorisation

Le ministère de l’Ecologie a mis en ligne le 2 octobre une brochure présentant les conditions de la demande d’autorisation ainsi que les étapes de cette procédure dans le cadre du règlement Reach. Elle s’adresse aux entreprises qui mettent sur le marché ou utilisent des substances chimiques préoccupantes, « susceptibles de provoquer des effets irréversibles graves sur la santé ou sur l’environnement ».

Le règlement PIC modifié

15/10/2014

Un règlement n° 1078/2014 de la Commission européenne du 7 août 2014, publié le 15 octobre, modifie une nouvelle fois le règlement relatif aux exportations et importations de produits chimiques dangereux, dit « règlement PIC ». Il n’est toutefois applicable qu’au 1er décembre 2014 afin de laisser suffisamment de temps aux industriels et aux Etats membres pour adopter les mesures nécessaires à son respect.

Plusieurs substances ont été ajoutées à la liste des produits chimiques figurant à l’annexe I du règlement, parties 1 et 2, c’est-à-dire soumis à notification d’exportation et répondant aux critères requis pour être soumis à la procédure de notification PIC.

La newsletter d’octobre est en ligne

16/10/2014

Nouvelle consultation pour éviter les tests sur les animaux

16/10/2014

L’ECHA a lancé un appel visant à collecter des informations sur des substances pour éviter les tests inutiles sur les animaux. 33 propositions sont concernées. Les informations relatives à ces substances sont à soumettre pour le 1er décembre 2014.

Rectificatif à la décision 2014/313/UE relatif aux biocides afin de tenir compte de l’évolution de la classification des substances

18/10/2014

La décision n°2014/313/UE de la Commission du 28 mai 2014 relative aux produits biocides a été rectifiée suite à l’évolution de la classification de certaines substances.

Nouvelle proposition de classification et d’étiquetage harmonisé

21/10/2014

L’ECHA a lancé une consultation pour l’harmonisation et l’étiquetage harmonisé de trois nouvelles substances. Les parties intéressées sont invitées à soumettre leurs commentaires sur le site de l’ECHA, et ce avant le 5 décembre 2014.

Nouvelle proposition de classification et d’étiquetage harmonisé

28/10/2014

L’ECHA a lancé une consultation pour l’harmonisation et l’étiquetage harmonisé de deux nouvelles substances. Les parties intéressées sont invitées à soumettre leurs commentaires sur le site de l’ECHA, et ce avant le 12 décembre 2014.

Plus d’informations sur :

http://echa.europa.eu/harmonised-classification-and-labelling-consultation

Proposition visant à actualiser le CoRAP

30/10/2014

L’ECHA a préparé une proposition visant à actualiser le plan d’action continu communautaire (CoRAP). Le projet de plan contient 134 substances qui sont proposées pour être évalués en 2015-2017 par les États membres en vertu du règlement REACH, 65 substances nouvellement sélectionnés et 69 substances du plan adopté et publié le 26 Mars 2014.

Nouvelles directives pour les titres des scénarios d’exposition

05/11/2014

Dans le cadre de la feuille de route sur le rapport sur la sécurité chimique et le scénario d’exposition (CSR/SE Roadmap), l’ECHA, le CEFIC et DUCC ont développé une approche visant à harmoniser les titres des scénarios d’exposition d’une manière plus cohérente et structurée.

Demande d’autorisation

12/11/2014

L’ECHA a publié les demandes d’autorisation couvrant 17 usages du trichloroéthylène. Les parties intéressées sont invitées à soumettre leurs commentaires sur le site de l’ECHA, et ce avant le 7 janvier 2015.

Nouvelle proposition de classification et d’étiquetage harmonisé

13/11/2014

L’ECHA a lancé une consultation pour l’harmonisation et l’étiquetage harmonisé d’une nouvelle substance. Les parties intéressées sont invitées à soumettre leurs commentaires sur le site de l’ECHA, et ce avant le 2 janvier 2015.

Nouvelle consultation pour éviter les tests sur les animaux

18/11/2014

L’ECHA a lancé un appel visant à collecter des informations sur des substances pour éviter les tests inutiles sur les animaux. 7 propositions sont concernées. Les informations relatives à ces substances sont à soumettre pour le 2 janvier 2015.

Rectificatif au règlement (CE) no 552/2009 de la Commission du 22 juin 2009 modifiant le règlement REACH

18/11/2014

Un rectificatif au règlement européen n° 552/2009 de la Commission du 22 juin 2009 modifiant le règlement européen n° 1907/2006 (règlement REACH), est paru au journal officiel le 18/11/2014. Ce texte modifie l’annexe XVII et concerne les phtalates dans les jouets et les articles de puériculture.

Règlementation Transport de marchandises dangereuses

22/11/2014

La directive européenne n°2014/103/UE vient modifier la directive du 24 septembre 2008 qui réglemente le transport des marchandises dangereuses au sein de l’Union européenne. Le texte renvoie à la version 2015 des accords internationaux relatifs au transport de marchandises dangereuses par route (ADR), par rail (RID) et par voie navigable (ADN).

Ces accords sont mis à jour tous les deux ans. La dernière version s’applique à compter du 1er janvier 2015, avec un période transitoire courant jusqu’au 30 juin 2015, période durant laquelle les anciennes versions peuvent continuer à être appliquées.

Publication d’une vidéo sensibilisant au règlement CLP

A partir du 1er Juin 2015, le règlement relatif à la classification, l’étiquetage et l’emballage (CLP) sera la seule règlementation pour classifier et l’étiqueter des substances et des mélanges avant mise sur le marché. L’ECHA a publié une vidéo de sensibilisation à l’importance du CLP.

Cette vidéo est disponible en 23 langues avec plus d’informations pour le grand public sur la page web dédié au CLP 2015.

Nouvelle FAQ sur les exemptions à l’autorisation

La nouvelle FAQ précise comment certaines utilisations spécifiques sont exemptes de l’autorisation. Celles-ci concernent des utilisations dans des médicaments, de la nourriture ou des aliments pour animaux, les produits phytopharmaceutiques, les produits biocides, des carburants, des produits cosmétiques et des matériaux au contact des aliments. Elles concernent également des utilisations comme combustibles dans des systèmes fermés, des utilisations dans les appareils médicaux, dans la recherche scientifique et le développement.

Nouvelle version de R4BP 3 (registre sur les produits biocides)

03/12/2014

La dernière version du R4PB pour les produits biocides est maintenant en ligne. Cette version est plus facile d’utilisation et présente 27 fonctionnalités en plus. Plus d’informations sur :

http://echa.europa.eu/support/dossier-submission-tools/r4bp

http://echa.europa.eu/view-article/-/journal_content/title/new-improved-version-of-r4bp-3-now-available

Le RAC et le SEAC d’accord sur des propositions

04/12/2014

Les comités sur les risques chimiques (RAC) et sur les analyses socio-économiques (SEAC) se sont entendus sur des propositions de restriction (2 propositions) et des demandes d’autorisation. Cet accord porte sur 43 projets d’avis pour des utilisations individuelles.

Modification du règlement CLP

05/12/2014

Le règlement européen n° 1297/2014 de la Commission du 5 décembre 2014 modifie, aux fins de son adaptation au progrès technique et scientifique, le règlement européen n° 1272/2008 relatif à la classification, à l’étiquetage et à l’emballage des substances et des mélanges. Ce règlement s’applique à compter du 1er juin 2015.

Par Céline Garobiaud

 

Et aussi dans les
ressources documentaires :

Google, « principal attribut de la puissance américaine » pour le patron d’Orange

« Au-delà de la force de Google et de sa technologie (…) qui est irrattrapable, il y a quelque chose de très politique », dans la dominance de Google dans le numérique, a souligné le PDG de l’opérateur français, au cours du sommet de l’économie, organisé à Paris.

« Google aujourd’hui est le principal attribut de la puissance américaine, alors qu’il y a vingt ans c’était peut-être les industries de l’armement, avec Boeing », a-t-il poursuivi au cours de la table ronde « A quand un Google français? »

« A cette puissance fait écho la faiblesse de l’Europe, atomisée, qui n’a pas de politique unifiée en matière de digital », a déploré le responsable appelant à un régulateur des télécoms et de la concurrence unique pour l’UE.

L’Union européenne est « un espace avec 28 pays, 28 régulateurs, qui est aussi un gruyère sur le plan fiscal. Pour Google, l’Europe est une passoire », a-t-il souligné.

Estimant que l’avance technologique du géant américain n’était plus rattrapable, Stéphane Richard a estimé cependant qu’il y avait « plein de domaines où l’Europe peut jouer une carte décisive au niveau mondial », notamment les objets connectés, le paiement mobile ou la robotique.

Google, qui a notamment une part de marché de plus de 90% dans les moteurs de recherche en Europe, fait l’objet d’une pression croissante en Europe après l’adoption d’une résolution symbolique au Parlement européen appelant à son démantèlement.

Le ministre des Finances britannique Georges Osborne a annoncé mercredi une nouvelle taxe de 25% sur les multinationales qui cherchent actuellement à échapper à l’impôt avec des montages fiscaux complexes, un dispositif baptisé « Google tax » même si elle ne vise pas seulement le géant américain.

lgo/smr/cb/ei

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

L’Agence spatiale européenne confie à Airbus une nouvelle mission d’observation de la Terre

« Cette mission a pour vocation de fournir des mesures de haute précision sur la topographie de la surface des océans » dans le cadre du programme d’observation de la Terre Copernicus, a indiqué Airbus D and S dans un communiqué vendredi.

« Le lancement (du satellite) Jason-CS/Sentinel-6 est prévu en 2020, a précisé le groupe.

Ce satellite effectuera des mesures « indispensables pour modéliser les océans et anticiper les augmentations du niveau des mers », indique le groupe.

Ainsi, il mesurera la distance qui le sépare de la surface de l’océan avec une précision de quelques centimètres et utilisera les données recueillies pour cartographier l’ensemble de la topographie de l’océan.

« Un tel degré de précision dans l’observation des variations de hauteur de la surface des océans permet de fournir des informations sur le niveau des mers, la vitesse et la direction des courants et le stockage de chaleur dans l’océan », selon Airbus D and S.

Le site d’Airbus D and S à Friedrichshafen (Allemagne) va assurer la maîtrise d’oeuvre du segment spatial et diriger le consortium industriel pour le compte de l’ESA.

Thales Alenia Space France construira l’instrument principal, un radar altimètre, tandis que d’autres instruments seront produits par la NASA ou fournis par l’Administration océanique et atmosphérique nationale des États-Unis (NOAA).

dlm/fpo/bpi/mr

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Les sèche-mains à air pulsé sont moins hygiéniques que du papier

Cette fois, le progrès n’a pas que du bon. Les sèche-mains à air pulsé qui ont envahi les toilettes de nombreux espaces publiques et privés sont en fait des nids à microbes et surtout une source de bactéries envoyées directement sur l’utilisateur lors de son fonctionnement. Les scientifiques britanniques qui se sont penchés sur la question du séchage des mains ont découvert que des sanitaires équipés de sèche-mains à air pulsé contenaient 27 fois plus de bactéries dans l’air que des toilettes avec des rouleaux de serviettes en papier.

Les universitaires de Leeds ont contaminé les mains de cobayes avec des bactéries de type Lactobacille. Ces bactéries lactiques sont non pathogènes et leur environnement de prédilection est un substrat glucidique, ce qui n’est pas du tout le cas des toilettes. Les personnes contaminées se sont ensuite lavé les mains avec chacun des trois systèmes étudiés : le sèche-mains à air pulsé, le sèche-mains électrique et la serviette en papier jetable.  

Immédiatement après ces lavages de mains, les chercheurs ont mesuré la quantité de bactéries dans l’air. Ils ont renouvelé la mesure un quart d’heure plus tard. Les résultats sont édifiants puisque pour 3 bactéries laissées par l’utilisation d’une serviette en papier, le sèche-mains électrique en laisse 16 tandis que celui à air pulsé en rejette 71 ! Une différence qui persiste dans le temps puisque 15 minutes après pour 1 bactérie retrouvée dans le cas du papier, il en reste 4 pour le sèche-mains électrique et 14 avec le sèche-main à air pulsée. Le problème du sèche-mains à air pulsé est qu’il expulse les bactéries, les projetant vers le visage en même temps que dans l’air, d’où la contamination de l’environnement.

Il est clair que si l’on souhaite éviter la propagation des bactéries, les sèche-mains à air pulsés sont donc à proscrire. Ce problème d’hygiène est pourtant connu depuis longtemps. En 2007, Frédéric Saldmann, médecin et auteur du livre On s’en lave les mains, alertait déjà contre le danger sanitaire de ces nouveaux sèche-mains. Ceci n’a pas freiné l’essor des sèche-mains à air pulsé, qui ont l’avantage de coûter moins chers à l’usage que les rouleaux de papier.

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

Votre vélo devient électrique et roule grâce au soleil

Le composant principal de ce kit DDS est une roue équipée d’un moteur de 250 watts et d’une batterie lithium-polymère de 36 volts, tous deux situées dans son moyeu. Ce dernier comprend aussi une série de panneaux solaires, qui sont protégés par un revêtement en plastique transparent.

Pour être paré d’un nouveau vélo électrique disposant d’une autonomie d’environ 10 km lorsque les batteries sont pleines, il faudra placer cette roue à la place de la roue arrière de votre vélo habituel. Selon Daymak, l’installation serait des plus simples et prendrait moins de 5 minutes. 

Dès que votre vélo est garé ou qu’il roule sous la lumière du jour, les panneaux solaires rechargent en continu  la batterie. Mais ce n’est pas tout. Une commande placée sur le guidon permet de régler le niveau d’assistance du moteur en fonction de vos envies. Il communique sans fil avec le moteur, et dispose de ses propres panneaux solaires pour charger sa batterie. Il est également possible d’opérer grâce à une application sur Smartphone communiquant en Bluetooth.

A en croire le constructeur, chaque exposition d’une heure au soleil recharge la batterie pour rouler un kilomètre en mode « tout électrique ». Néanmoins, si le soleil n’est pas au rendez-vous il est toujours possible de recharger la batterie du moteur et du contrôleur sur secteur, grâce au chargeur fourni. 

Ce kit DDS devrait être disponible début 2015 pour des roues de 26 et 28 pouces. Le prix public conseillé est de 699 dollars, soit autour de 550 euros

  • Découvrir le kit DDS de Daymak en vidéo

Par Matthieu Combe, journaliste scientifique

Et aussi dans les
ressources documentaires :

L’UE et les États-Unis encouragent les alternatives à South Stream

Des représentants de l’UE et des États-Unis se sont rencontrés à Bruxelles lors d’un Conseil de l’énergie le 3 décembre, deux jours après que Vladimir Poutine, le président russe, a annoncé l’abandon du projet de gazoduc South Stream, qui aurait transporté du gaz naturel sous la mer Noire vers la Bulgarie, la Serbie, la Hongrie, la Slovénie et l’Autriche.

La Haute-représentante aux affaires étrangères, Federica Mogherini, et le secrétaire d’État américain, John Kerry, étaient présents lors de cette réunion, parfaite démonstration d’unité contre l’utilisation des ressources énergétiques comme instrument politique par la Russie.

Après la réunion, des représentants de l’UE et des États-Unis ont déclaré que le gazoduc aurait renforcé la mainmise de la Russie sur le marché du gaz, alors qu’il est aujourd’hui nécessaire de diversifier les sources et les itinéraires d’approvisionnement.

« South Stream ne diversifiait rien, il s’agissait juste d’une autre route », a ainsi souligné un représentant de l’UE. « Le gaz ne serait pas passé par l’Ukraine, mais ce serait le même gaz ». Et pour les États-Unis, « South Stream n’était pas un projet de diversification pour la région ».

Des exemples de projets alternatifs

Les représentants des États-Unis ont salué des projets alternatifs nés dans les pays baltes, comme le terminal flottant « Freedom » permettant d’acheminer du gaz naturel liquéfié (GNL) en Lituanie, un nouvel accord d’interconnexion entre la Finlande et l’Estonie, ou encore des terminaux de GNL à Helsinki et Tallinn. Ce genre de projets doit servir d’exemple au reste de l’UE.

Le GNL n’est pas transporté dans des gazoducs, ce qui en fait une alternative possible au gaz naturel. L’utilisation de GNL permettrait également de diversifier les fournisseurs d’énergie et donc de réduire la dépendance de l’UE à la Russie.

Le gazoduc South Stream aurait permis à la Russie de livrer du gaz à l’Europe sans passer par l’Ukraine. La plupart des importations de gaz russe à l’heure actuelle, qui représentent 30 % des besoins annuels européens, transitent actuellement par l’Ukraine. En 2009, la Russie avait fermé les robinets de gaz suite à une dispute avec Kiev, ce qui avait engendré des pénuries dans l’UE.

La sécurité énergétique est devenue l’une des préoccupations essentielles des décideurs politiques depuis que la crise ukrainienne s’est aggravée cette année, soulignant encore la dépendance de l’UE vis-à-vis de la Russie.

Vladimir Poutine considère l’UE responsable de l’échec du projet de South Stream, abandonné suite à une décision de la Bulgarie. La Commission européenne avait incité le pays à mettre un terme au projet. Selon l’exécutif européen, celui-ci enfreignait certaines lois européennes.

« Nous avons été très clairs quant à la stratégie du secteur européen de l’énergie face au projet South Stream. Nous voulions que le projet soit suspendu et la dimension de la sécurité énergétique a conforté notre position », assure un représentant de l’UE.

Certains pays, comme la Bulgarie et la Serbie, ont exigé des compensations suite à la suspension du projet. L’exécutif européen a cependant coupé court à ces réclamations, soulignant qu’il s’agissait d’une affaire interne à l’UE, qui ne devait pas être discutée avec les représentants des États-Unis.

Le choix de la Turquie s’impose

L’abandon de South Stream devrait faire de la Turquie une plateforme gazière d’envergure. Moscou et Ankara ont en effet conclu un accord préliminaire sur le début de travaux liés à un gazoduc alternatif passant par la Turquie et qui se terminerait par une plateforme de distribution près de la frontière grecque.

Lors d’une conférence de presse, Vladimir Poutine a déclaré que cette plateforme pourrait alimenter l’UE, si ses membres le souhaitaient. 60 % environ du gaz naturel utilisé en Turquie vient de Russie.

« Nous allons sans aucun doute continuer à coopérer étroitement avec la Turquie », assure par ailleurs un représentant européen. « La Turquie peut permettre aux marchés européens de diversifier ses fournisseurs de gaz et les routes que celui-ci emprunte, ce qui est nécessaire au moyen et long terme. »

Le gaz et le pétrole provenant de la Méditerranée, de la mer Caspienne et d’Irak pourraient également transiter par la Turquie. « En ce qui concerne l’acheminement, la Turquie est un acteur essentiel », souligne un représentant européen, qui ajoute qu’une stratégie pour l’énergie intégrant la Turquie sera élaborée dans le courant du mois de décembre.

L’union énergétique

Plus tôt dans la semaine, l’Agence internationale de l’énergie a publié un rapport sur la politique énergétique de l’UE. Selon ce rapport, l’Europe restera dépendant du gaz russe pendant encore un certain temps.

Cette analyse est jugée intéressante par l’exécutif européen, qui souligne néanmoins que la responsabilité d’élaborer de nouvelles politiques et mesures lui revenait.

« Il existe incontestablement une volonté politique d’agir en ce qui concerne la sécurité énergétique à la Commission européenne et à l’UE. La sécurité énergétique sera probablement la première priorité de l’union énergétique, étant donné qu’il s’agit d’une sorte de précondition », rappelle un représentant de l’exécutif.

Des mesures ad hoc devraient également permettre à l’Union d’accélérer certains processus, comme dans le cadre de l’inversion des flux en Slovaquie, qui a permis à l’UE de vendre du gaz russe à l’Ukraine.

« L’Europe restera dépendante, si vous voulez utiliser ce terme, du gaz russe tant qu’il est l’option la moins chère. Ça n’est pas un problème. Ce qui est important, c’est de s’assurer que ça ne soit plus le cas le jour où il se pourrait que ce gaz ne soit plus livré. Nous devrons alors pouvoir nous fournir ailleurs », conclut le représentant.

EurActiv.com

Moteurs de recherche scientifiques : les alternatives à Google Scholar

Il existe aussi plusieurs moteurs de recherche spécialisés dans l’information scientifique, de bonne facture et très performants. Les moteurs de recherche scientifique permettent non seulement d’accéder aux métadonnées d’une revue, mais souvent à tous les articles de ses numéros, en liaison avec diverse bases de données de littérature scientifique. 

Ressources en libre accès

Les outils les plus efficaces sont sans doute ceux qui vous permettent d’effectuer des recherches, en plein texte, dans des ressources en libre accès. Le métamoteur d’origine allemande Base (Bielefeld Academic Search Engine) “moissonne” ainsi plus de 65 millions de documents scientifiques, issus de 3213 ressources libres. Plutôt impressionnant, et diablement efficace. 

Utilisant, comme Base, le protocole de partage de métadonnées de l’Open Archives Initiative (OAI), projet qui vise à faciliter l’échange d’archives numériques, le moteur américain OAIster propose de fouiller dans une large gamme d’archives open source (images, articles de journaux, textes, livres, vidéos, sons – 25 millions de notices en tout), de niveau universitaire, en provenance de plus de 500 institutions académiques. 

Biologie, médecine et chimie

Concernant la biologie, BioTechSearchEngine vous donnera accès à plus de 300 revues en libre accès. BioMedCentral vous permettra d’accéder aussi à 200 revues en biologie et en médecine, toujours en libre accès. Il existe aussi des moteurs de recherche destinés aux chimistes, très efficaces, comme PubChem, ou ProfusionChimie

Sciences de l’ingénieur, informatique, mathématiques

Pour les sciences de l’ingénieur, l’informatique et les mathématiques, il existe des moteurs plus spécifiques, comme celui de l’IEEE (Institut des ingénieurs électriciens et électroniciens), ou comme le très pointu CiteSeerX, à la fois bibliothèque numérique et moteur de recherche de documents en sciences de l’information et en informatique. Gratuit, TechXtra vous permettra aussi de rechercher des articles, des livres, des articles de journaux, des rapports techniques, des thèses, des mémoires, ou des ressources éducatives libres (OER). 

Le portail WorldWideScience s’avèrera aussi un moteur utile dans vos recherches. Il vous permettra d’accéder à une vaste base de brevets et de textes (de toutes disciplines) produits par les sociétés savantes du monde entier, de l’INIST (Institut de l’information scientifique et technique) à Science.gov, en passant par NARCIS (base développée par l’académie royale néerlandaise pour les arts et les sciences), le Canada Institute for Scientific and Technical Information, ou l’agrégateur de revues japonais, Journal@rchive.

Sciences humaines et sociales

Enfin, si vous effectuez des recherches dans le domaine des sciences humaines et sociales (SHS), vous pourrez vous tourner vers Isidore et Jurn

Le premier est une plateforme de recherche, ouverte aux étudiants, aux doctorants, aux enseignants et aux chercheurs. Conçu par le CNRS, Isidore moissonne une large base de données, menant vers des archives ouvertes, des bibliothèques numériques, des revues en ligne, d’actes de colloques, ou de catalogues tels que ceux du SUDOC, de la BnF, de la Bibliothèque du Congrès US, et de l’IRHT (Institut de recherche et d’histoire des textes). Au total, 3 millions de documents, en provenance de plus de 2000 sources. 

De son côté, Jurn permet de se plonger dans plus de 1000 revues électroniques, en accès libre, en art et sciences humaines.

Par Fabien Soyez

Découvrez le nouvel espace de lecture du site des Techniques de l’Ingénieur

Ce séminaire en ligne (INSCRIPTIONS ICI) sera l’occasion de découvrir le nouvel espace de lecture optimisé et notamment :

  • Une barre d’outils latérale, à gauche, qui regroupe toutes les fonctionnalités pratiques

Pour les articles de référence ou les fiches pratiques, découvrez le confort de lecture d’un affichage en plein écran.

Et toujours, pour une expérience de lecture personnalisée : annotez ou posez des mots clés (tags) sur vos articles, exportez la référence ou le permalien, jouez sur la taille des polices, partagez…

  • Sur la droite vous trouvez tous les compléments d’information

Sommaire, auteurs,  » en savoir plus », boîte à outils, articles liés, mots clés…

  • Un espace de lecture optimisé pour tous les navigateurs, les tablettes et smartphones. Pour chacune de ces versions, accédez facilement à l’ensemble des contenus et fonctionnalités

La notice d’utilisation est disponible en permanence dans votre espace « mon compte » (rubrique documentation du menu de gauche), nous vous proposons également de la télécharger ici.

Publié par P.T

L’intelligence artificielle « pourrait mettre fin à la race humaine », avertit Stephen Hawking

Dans un entretien avec la BBC, le scientifique a déclaré que ce type de technologie pouvait évoluer rapidement et dépasser l’humanité, un scénario comparable à celui des films « Terminator ».

« Les formes primitives d’intelligence artificielle que nous avons déjà se sont montrées très utiles. Mais je pense que le développement d’une intelligence artificielle complète pourrait mettre fin à la race humaine », a affirmé le professeur dans cet entretien.

« Une fois que les hommes auraient développé l’intelligence artificielle, celle-ci décollerait seule, et se redéfinirait de plus en plus vite », a-t-il déclaré.

« Les humains, limités par une lente évolution biologique, ne pourraient pas rivaliser et seraient dépassés », a poursuivi M. Hawking, considéré comme un des plus brillants scientifiques vivants.

Atteint de la maladie de Charcot, autrement appelée sclérose latérale amyotrophique ou SLA, Stephen Hawking se déplace en fauteuil roulant et parle à l’aide d’un ordinateur.

Il reste en faveur des nouvelles technologies de communication et a déclaré avoir été un des premiers à être « connecté » aux débuts d’internet.

M. Hawking a déclaré qu’internet avait apporté à la fois des dangers et des bénéfices, citant un avertissement du nouveau chef de l’agence d’espionnage électronique britannique GCHQ, selon lequel internet était devenu un centre de commandement pour criminels et terroristes.

« Les entreprises d’internet doivent faire plus pour contrer la menace, mais la difficulté est de le faire sans sacrifier la liberté et la vie privée », a soutenu l’astrophysicien âgé de 72 ans.

Stephen Hawking a annoncé mardi que son système de communication, amélioré par le groupe américain Intel, serait accessible gratuitement à la communauté scientifique en janvier 2015.

Tout en saluant les progrès, le scientifique a affirmé ne pas vouloir changer sa voix robotique, qui provient d’un synthétiseur conçu initialement pour un service d’annuaire téléphonique.

« Cette voix était très claire bien qu’un peu robotique. Elle est devenue mon signe distinctif et je ne la changerais pas pour une voix plus naturelle avec un accent britannique », a-t-il dit à la BBC. « Apparemment les enfants qui ont besoin d’une voix synthétique en veulent une comme la mienne ».

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Selon une étude japonaise, certaines e-cigarettes contiendraient des substances cancérigènes

Voilà de quoi relancer le débat entre fumeurs et vapoteurs. Alors que les cigarettes électroniques ont envahi la France, les doutes sur leur éventuelle nocivité semblent bien levés. Jeudi 27 novembre, des chercheurs de l’Institut national de la santé publique japonais ont remis leur rapport sur les vapeurs des cigarettes électroniques au ministère de la santé. D’après eux, les cigarettes électroniques sont loin d’être irréprochables.

Pour étudier la quantité de substances chimiques émises par une e-cig, l’équipe a utilisé une machine simulant l’inhalation d’un vapoteur. Dans chaque cas, le système a réalisé 15 bouffées, dix fois de suite. Parmi les différentes cartouches testées, certaines ont montré un taux élevé de produits cancérigènes.  Plus particulièrement, 4 substances toxiques sont très présentes. Il s’agit du formaldéhyde, de l’acroléine, du glyoxal et du méthylglyoxal. Le premier est classé comme un « cancérigène certain », impliqué dans les cancers touchant les fosses nasales, le deuxième est un irritant de la peau hautement lacrymogène, les deux derniers sont des aldéhydes génotoxique  et cytotoxique. Dans un premier temps, les tests ont ainsi révélé la présence de ces substances chimiques à la toxicité avérée, pour ensuite constater un taux parfois très élevé selon les marques étudiées. Pour l’une d’entre elles, le rapport précise que le taux de formaldéhyde est 10 fois supérieur à celui contenu dans une cigarette traditionnelle ! Toutefois, les chercheurs restent prudents et n’accusent pas ouvertement les e-cigarettes d’être cancérigènes. Une prudence liée principalement à la très grande variété de liquides qui empêche une conclusion globale. De plus, le fonctionnement de la cigarette électronique a aussi un impact car le taux de produits toxiques augmente lorsque le fil résistif surchauffe.

Ce qui est sûr, c’est que les e-cig sont loin d’être des dispositifs sans danger. Cet été déjà, l’Organisation mondiale de la santé (OMS) alertaient sur les dangers, déconseillant ces cigarettes aux femmes enceintes et préconisant de les interdire dans les espaces publics fermés. Si l’OMS reconnait que les cigarettes électroniques sont probablement moins nocives que les cigarettes normales, elle insiste sur le fait que les données restent insuffisantes pour conclure.  Autant de tergiversations qui n’émeuvent pas les fumeurs. Le marché des cigarettes électroniques  en France était de 4 millions d’euros en 2010 et est estimé à 275 millions en 2014. Un phénomène mondial puisque selon l’OMS, les ventes de produits liés aux cigarettes électroniques pourraient être multipliées par dix-sept dans les quinze prochaines années.

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

S’inspirer de l’effet lotus pour créer un revêtement super-hydrophobe

Une fois n’est pas coutume, la science vient s’inspirer du vivant pour répondre à certaines problématiques. Laissons les poncifs de côté, qui sont légion lorsqu’une équipe de chercheurs a le bon goût de venir piocher dans la quantité inépuisable d’astuces développées par les animaux ou les végétaux au cours de leur évolution, pour nous recentrer sur quelques unes de ces études parmi les moins médiatisées. Rappelons-nous par exemple les qualités auto-nettoyantes des pattes des rainettes qui ont permis de dessiner quelques pistes pour améliorer les surfaces collantes et les rendre elles-aussi auto-nettoyantes. Autre exemple, l’observation des fabuleuses qualités de navigation des chauves-souris pourrait nous amener à repenser complètement nos couloirs aériens.

« Effet lotus »
Ici, deux scientifiques de l’Institut Polytechnique et Université d’État de Virginie – plus connue sous le nom de Virginia Tech – se sont intéressés à ce que l’on appelle couramment « l’effet lotus », un phénomène de super-hydrophobie causé par une rugosité nanométrique et inspiré des feuilles de la plante aquatique du même nom, phénomène qui accorde à une surface des capacités auto-nettoyantes. Pour en être capable, la feuille de lotus s’appuie sur une double structure constituée d’un épiderme formant des papilles de quelques microns sur lesquelles repose une couche de cire hydrophobe, réduisant drastiquement les points de contact entre la surface et l’eau, qui ne peut alors plus atteindre les interstices de la surface de la feuille. L’eau n’a d’autre choix que de s’écouler en emportant avec elle les particules et poussières diverses se trouvant à la surface de celle-ci .

Hydrophobie et super-hydrophobie
L’hydrophobie se définit assez simplement : l’angle de contact d’une goutte d’eau, lorsqu’elle est sur une surface plane (localement), doit dépasser les 90 degrés. Au-delà de 150°, la surface est alors considérée comme étant super-hydrophobe. Un angle de contact égal à 180° signifie que la goutte d’eau est complètement sphérique, repoussant la zone de contact jusqu’à un simple point. À titre d’exemple, le Téflon d’une poêle n’est qu’hydrophobe, l’angle de contact moyen étant de 95°.

Polyvalence du cuivre
Piqués au vif par ce phénomène, Ranga Pitchumani, professeur d’ingénierie mécanique à Virginia Tech, et Atieh Haghdoost, jeune doctorant du laboratoire de Pitchumani, se sont attelés à la création d’un revêtement qui aurait tout aussi peu d’affinités avec les molécules d’eau – avec succès semble-t-il. Les chercheurs auraient réussi à définir une approche simple et bon marché permettant de protéger les surfaces métalliques à l’aide d’une fine pellicule de cuivre, à la fois super-hydrophobe, durable et ayant une bonne conductivité électrique. Enfin, c’est un matériau de premier choix ayant de nombreuses applications mécaniques, électriques et thermiques.
Cette polyvalence du cuivre est primordiale pour nos deux chercheurs, dont l’un des buts à atteindre était de rendre une surface super-hydrophobe sans en altérer ni les propriétés ni la texture, contrairement à la méthode du spray, de loin la plus répandue. Utiliser et traiter du cuivre pour protéger des surfaces en cuivre, ou plus généralement des surfaces métalliques leur a donc semblé tout naturel, bien qu’ils souhaitent développer leur procédé à d’autres matériaux.

Galvanoplastie ou électrodéposition
Le procédé, en deux étapes, s’appuie une technique assez commune appelée galvanoplastie, ou de manière plus descriptive « électrodéposition », qui permet d’appliquer sur une surface un dépôt métallique à l’aide d’un courant électrique continu, métal initialement présent sous forme de cations en solution dans un solvant. Les deux scientifiques se distinguent néanmoins en n’utilisant aucune matrice (procédé qu’ils ont fait breveté), ce qui ouvre la voie à la création d’un revêtement super-hydrophobe constitué du même matériau que celui de la surface à protéger, préservant ainsi ces propriétés thermiques et électriques.
La super-hydrophobie présente de nombreux intérêts : outre ses évidentes qualités d’imperméabilisation, elle permet de lutter assez efficacement contre le gel, souvent fatal pour les isolants électriques, les lignes à haute-tension, ou le revêtement des ailes d’un avion. Elle est également très efficace pour lutter contre la corrosion, l’accumulation de crasse et le « fouling », la colonisation d’un substrat (souvent immergé) par certains organismes.

Par Moonzur Rahman

Et aussi dans les
ressources documentaires :

Une impulsion lumineuse suffit à effacer un souvenir

Contrôler les neurones à l’aide de la lumière et maîtriser les souvenirs d’une simple impulsion lumineuse, voilà de quoi la science est désormais capable. Une équipe californienne vient de franchir une nouvelle étape en manipulant le cerveau de souris de façon à effacer un souvenir précis. Pour y parvenir, les hommes du Docteur Brian Wiltgen ont implanté un souvenir désagréable dans le cerveau des rongeurs en leur faisant subir une décharge électrique lorsqu’ils sont placés dans une cage.  Après un tel traitement, les souris ressentent la peur dès qu’elles s’approchent de ladite cage. C’est alors que les scientifiques désactivent les neurones associés à ce souvenir grâce à des impulsions lumineuses. La peur est oubliée et les souris pénètrent dans la cage comme si de rien n’était !

Comment les chercheurs font-ils pour désactiver uniquement  les bons neurones ? Pour bien comprendre l’expérience, il faut savoir que les souris utilisées pour l’expérience sont génétiquement modifiées de telle sorte que leurs cellules nerveuses produisent une protéine photosensible. Une fibre optique implantée directement dans le cerveau va alors permettre d’activer cette protéine à une longueur d’onde donnée. Cette dernière va alors fonctionner comme un interrupteur, allumant ou éteignant le neurone ciblé. Cette technique très récente s’appelle l’optogénétique. Les possibilités ouvertes par cette approche mixant optique et génétique lui ont valu d’être élue « Méthode de l’année » par le magazine Nature en 2010.

En  2012, l’équipe de Susumu Tonegawa au MIT parvenait déjà à reproduire un souvenir de peur à volonté. Les scientifiques avaient implanté dans le cerveau de souris génétiquement modifiés une canule de fibre optique qui leur permettait  de stimuler directement des neurones. Ils ont généré de la peur chez ces cobayes via des chocs électriques. Puis, alors que les souris étaient en sécurité, ils ont activé certains neurones grâce à la lumière, provoquant la peur des rongeurs, envahis par le souvenir des impulsions électriques. Ces travaux confirmaient ainsi que les souvenirs étaient stockés directement dans les neurones.

Fin août 2014, ce même groupe enfonce le clou avec une expérience encore plus incroyable. Cette fois, ils ont réussi à transformer un souvenir désagréable en bon souvenir, et réciproquement. Ces travaux parus dans Nature ont consisté à travailler avec deux groupes de rongeurs génétiquement modifiés. Le premier est conditionné par la peur tandis que l’autre l’est au plaisir. Puis, les scientifiques inversent les groupes. Les cobayes du groupe apeuré par les chocs électriques sont placés avec des congénères du sexe opposé, situation très plaisante, tandis que les autres sont à leur tour soumis à des chocs électriques. Suffisant pour qu’un souvenir chasse l’autre. Le premier groupe ayant connu la peur puis le plaisir pénètre à nouveau dans la cage tandis que le groupe préalablement conditionné au plaisir puis effrayé se met à fuir. Les chercheurs ont donc réussi à remplacer une émotion par une autre de nature opposée.

Ces trois expériences démontrent la puissance de l’optogénétique, technique capable de contrôles les neurones grâce à des impulsions lumineuses.

Here come the Men In Black…

Par Audrey Loubens, journaliste scientifique