Découvrez l’Extra Terrestrial Vehicle

Et si on réalisait, une fois devenu adulte et avec de gros moyens entre les mains, nos rêves de gosses. Tandis que certains ont à coeur de perfectionner les cabanes dans les arbres au point de les transformer en véritable maison dans les airs, d’autres comme Mike Vetter créent la voiture qu’ils avaient en tête étant enfant. Enfin, c’est ce que l’on peut se dire en regardant les images de l’Extra Terrestrial Vehicle, une voiture concept, tant son look délirant paraît sortir tout droit de l’espace. Ce n’est pourtant pas un UFO (Unidentified flying object).

L’Extra Terrestrial Vehicule est un peu à l’image de la Turbot-Rhino dans Spirou et Fantasio, une espèce de bolide aux lignes arrondies à l’allure incontestablement futuriste. Elle aurait été fabriquée à partir de matériaux ayant appartenu à d’autres véhicules, comme la Chevrolet Cobalt SS, et serait en série très limitée. Il n’existe que huit ELV dans le monde. Autre spécificité : elle ne dispose pas de lunette arrière; celle-ci est remplacée par une caméra.

Sachez que cette voiture est en vente et qu’elle coûte 89 000 dollars. Le prix pour un intérieur tout de cuir, daim et aluminium et un extérieur qui attirera assurément l’attention. De là à dire qu’il s’agit de la voiture du futur, il y a un pas que l’on ne se permettra pas de franchir.

Par Sébastien Soyez

Et aussi dans les ressources documentaires :

Une « bille » de l’effet cocktail identifiée in vitro

Trois équipes de recherche associant des chercheurs de l’Inserm et du CNRS à Montpellier ont découvert in vitro un mécanisme moléculaire qui pourrait jouer un rôle dans l’« effet cocktail ». Cette étude est publiée dans la revue Nature Communications.

Bien que très faiblement actifs lorsqu’ils sont pris indépendamment, l’éthinylestradiol, un œstrogène présent dans les pilules contraceptives, et l’insecticide trans-nonachlor, reconnu comme perturbateur endocrinien, ont la capacité de se fixer simultanément au récepteur des xénobiotiques (PXR) situé dans le noyau des cellules et l’activent de façon synergique.

« Les analyses à l’échelle moléculaire indiquent que les deux composés se lient coopérativement au récepteur, c’est-à-dire que la fixation du premier favorise la liaison du second, expliquent les chercheurs de l’Inserm et du CNRS dans un communiqué. Cette coopérativité est due à de fortes interactions au niveau du site de liaison du récepteur, de sorte que le mélange binaire induit un effet toxique à des concentrations largement plus faibles que les molécules individuelles.»  Lors de ce travail, les chercheurs ont analysé une quarantaine de produits chimiques, deux par deux, soit 750 combinaisons possibles. Mais cet effet n’a été retrouvé qu’entre ces deux  molécules.

Un effet cocktail qui peut faire des dégâts

Toute substance étrangère à notre organisme, ou xénobiotique, se fixe sur le récepteur PXR. Des enzymes et des transporteurs de détoxification cellulaire sont alors synthétisés pour éliminer ces molécules étrangères. « On pourrait penser que la liaison de l’éthinylestradiol et de l’insecticide trans-nonachlor est bénéfique pour l’organisme, puisqu’elle stimule la synthèse de protéines de détoxification cellulaire, confie William Bourguet, chercheur du Centre de biochimie structurale de l’université de Montpellier (CNRS/Inserm), et co-auteur de cette étude à Sciences et Avenir. Sauf que ces protéines peuvent détériorer toutes sortes de molécules de manière anarchique, et détruire des médicaments par exemple. C’est une vraie perturbation endocrinienne pour l’organisme ! ». Si le trans-nonachlor est interdit dans l’Union européenne depuis 1981, on le retrouve encore dans l’environnement et dans les tissus adipeux ; c’est un polluant organique persistant.

Ces résultats doivent désormais être vérifiés chez les animaux. « Si ces travaux sont confirmés in vivo, des retombées importantes sont attendues dans les domaines de la perturbation endocrinienne, la toxicologie et l’évaluation des risques liés à l’utilisation des produits chimiques », préviennent les deux instituts. Il y a sans doute d’autres mécanismes en jeu de la part des perturbateurs endocriniens. Ailleurs dans le monde, des équipes de chercheurs travaillent sur des récepteurs différents. À raison d’au moins 150 000 molécules qui pourraient avoir un impact en mélange sur 48 récepteurs différents, les chercheurs ont en effet du pain sur la planche ! En attendant, les équipes du CNRS et de l’Inserm projettent désormais de tester l’effet cocktail possible, deux par deux, parmi 1 600 médicaments couramment utilisés.

L’effet cocktail pourrait bientôt être prouvé scientifiquement à grande échelle. Les industriels de la chimie se contentant encore d’étudier l’effet toxique des molécules individuellement, sans se préoccuper de l’effet cocktail, doivent commencer à avoir des sueurs froides.

Par Matthieu Combe

Et aussi dans les ressources documentaires :

Fessenheim : Totem nucléaire français

Le nom de Fessenheim est apparu en 2012 dans la négociation entre Europe Ecologie Les Verts et les Socialistes en vue d’obtenir un accord électoral présidentiel. En échange de leur ralliement, les écologistes souhaitent une grande loi sur la transition énergétique qui graverait dans le marbre le désengagement progressif de l’atome (50% à l’horizon 2025) et l’arrêt d’une première centrale : Fessenheim. La doyenne des centrales nucléaire française, qui est dotée de deux réacteurs à eau pressurisée de 900 Mégawatts chacun, cumule des risques sismiques et de contamination de l’une des plus grande nappe phréatique du pays. La Droite l’opposition rappelle quant à elle que la centrale est aux normes et souligne que Fessenheim se trouve avant tout dans son bastion électoral alsacien. 

La loi sur la TE

Arrivé au pouvoir, François Hollande a dû user de trois ministres de l’Energie et de l’Ecologie en trois ans (D. Batho, P. Martin, S. Royal) pour parvenir à une loi sur la transition énergétique qui ménage le lobby nucléaire avec un plafonnement du parc installé tout en accélérant le développement des énergies alternatives et l’efficacité énergétique. C’est ainsi que la capacité du parc nucléaire français a ainsi été « plafonné » à son niveau actuel. Un moindre mal pour le secteur et une astuce pour le Président qui peut ainsi lier l’arrêt de Fessenheim à l’entrée en service de l’EPR de Flamanville, une nouvelle fois reportée à 2018, soit après les élections générales. François Hollande, dans une interview au Parisien, se justifie : « (l’arrêt de Fessenheim) En 2016, non, car la construction de l’EPR de Flamanville (Manche) a pris beaucoup de retard (…)

Mais ce qui importe, c’est d’engager toutes les procédures pour fermer Fessenheim. Nous le faisons. On pourra dire alors que c’est irréversible ». 

Symbole de l’héritage nucléaire

Le débat autour de l’avenir de la centrale de Fessenheim est caractéristique de la particularité énergétique française. Avec 75% de l’électricité produite par le nucléaire, la fermeture de la doyenne des centrales française est perçue comme le début du déclin du secteur et ce dans un contexte très difficile. La mise en service du fleuron de l’industrie nucléaire française, le réacteur de 3ème génération EPR, a encore été repoussée à 2018 cette fois (7 ans de retard sur le calendrier de départ) et la facture s’est considérablement alourdie (10,5 milliards d’euros contre les 3 initialement prévus) tout comme à Olkiluoto en Finlande. Seul l’EPR chinois devrait tenir délais et coûts. La filière est par ailleurs en pleine réorganisation : Areva, dans la tourmente financière, est ainsi en train d’être en partie absorbée par EDF. Et last but not least, la catastrophe de Fukushima a marqué les esprits, même les plus pro-nucléaires, sur la notion de risque et de l’inanité des prévisions probabilistes concernant les accidents nucléaires. 

En France, la montée en puissance des énergies renouvelables s’est heurtée à la nature d’un système haute tension centralisé sur de gros sites de production, moins à même de recevoir les contributions éparpillées des énergies renouvelables. Avec cette loi sur la transition énergétique, précédée par le Grenelle de l’Environnement sous la mandature précédente, les écologistes récoltent le principal fruit de leur accord pré-électoral avec les socialistes. 

Il ne suffit pas d’appuyer sur un bouton

Le fait que Fessenheim ne soit pas fermée avant 2018 dans le meilleur des cas était en réalité prévisible. « Pour fermer deux réacteurs comme ceux de Fessenheim, il ne

suffit pas de tourner un bouton », expliquait Ségolène Royal en septembre dernier. Il faut au minimum 4-5 ans pour mener à bien avec l’Autorité de sûreté les formalités administratives relatives à la fermeture d’une installation nucléaire. Sans compter les problèmes d’acceptabilité inhérents, et surtout le calendrier politique…

Le maire de Fessenheim, Michel Sordi (LR), a dit regretter que le politique ne se substitue à EDF pour fermer une centrale, faisant de sa ville le symbole de la filière nucléaire française. C’est pourtant bien le résultat des prochaines élections présidentielles en 2017 qui scelleront le sort de la centrale. La Gauche disposant d’un confortable second et dernier mandat pour finalement tenir sa promesse ; La Droite  promettant quant à elle de sauver la centrale alsacienne.

Romain Chicheportiche

Et aussi dans
les bases documentaires :

Risques : pollution de l’air dans les enceintes ferroviaires souterraines

Le contexte

Depuis le début des années 2000, des mesures de la qualité de l’air sont réalisées dans des enceintes ferroviaires souterraines (stations RER et métropolitaines à Paris, Lille, Lyon, Marseille, Rennes, Toulouse). Celles-ci ont notamment mis en évidence des concentrations en PM10 très supérieures à celles mesurées dans l’air extérieur. Les constituants majeurs identifiés sont différents métaux dont le fer, du carbone élémentaire et du carbone organique. D’autres polluants chimiques, présents à des concentrations parfois supérieures à celles mesurées à l’extérieur, ont été identifiés tels que des hydrocarbures aromatiques (toluène, phénanthrène, fluoranthène, anthracène et pyrène), et plus rarement le benzène, le dioxyde d’azote et le benzo(a)pyrène.

La connaissance de la toxicité des particules en suspension dans les enceintes ferroviaires souterraines apparaît bien plus limitée que pour les particules de la pollution atmosphérique urbaine. Dans ce contexte, l’Anses a été saisie par la Direction générale du travail, la Direction générale de la santé et la Direction générale de la prévention des risques pour la réalisation d’une expertise relative à la pollution chimique de l’air des enceintes de transports ferroviaires souterrains et aux risques sanitaires associés chez les travailleurs.

Les objectifs

Tout d’abord, le premier objectif est de réaliser un état des connaissances sur la pollution chimique de l’air dans les enceintes ferroviaires souterraines, sur la toxicité associée aux polluants, en particulier les particules en suspension, sur l’exposition individuelle des travailleurs, sur les effets sanitaires associés à cette exposition et sur l’efficacité des politiques de gestion existantes.

Sur cette base, le second objectif est d’évaluer les risques sanitaires des travailleurs exposés à cette pollution.

Et le cas échéant, le troisième objectif est de proposer des axes de recherches et de pistes de gestion pour réduire cette pollution et les risques sanitaires associés chez les travailleurs, en intégrant une réflexion sur les modalités d’articulation avec la gestion de l’exposition des usagers des transports.

Pollution de l’air dans les enceintes ferroviaires souterraines et risques pour la santé des travailleurs

Dans les enceintes ferroviaires souterraines, la pollution de l’air est dominée par la problématique des particules en suspension. La concentration des particules mesurée dans l’air est souvent exprimée en PM10 et en PM2,5 : il s’agit de particules qui pénètrent dans l’appareil respiratoire, capables, pour les plus fines (PM2,5) de se déposer au niveau des alvéoles pulmonaires.

Les concentrations massiques de PM10 et PM2,5 mesurées dans les enceintes ferroviaires souterraines  en France et à l’étranger sont très supérieures à celles mesurées dans l’air extérieur et dans l’air intérieur des logements. La source majeure de ces particules, riches en métaux dont principalement le fer, et en carbone, est l’usure des matériaux par la friction roue-frein des rames de voyageurs, suivie du contact roue-rail et du contact entre le matériel roulant et le système d’alimentation électrique.

Les particules de l’air dans ces enceintes ont des caractéristiques physicochimiques différentes des particules de l’air extérieur. Sur le plan épidémiologique, les données disponibles relatives aux travailleurs en enceintes ferroviaires souterraines ne permettent pas de statuer sur les risques à long terme. Bien que leur toxicité ait été à ce jour peu documentée, les données toxicologiques disponibles suggèrent qu’à concentration massique équivalente, elles sont au moins aussi toxiques à court terme que les particules de l’air ambiant extérieur.

L’expertise de l’Agence conclut qu’une inflammation des voies respiratoires et des effets consécutifs à cette inflammation sont probables en lien avec une exposition chronique aux particules des enceintes ferroviaires souterraines. Par analogie avec les risques sanitaires bien documentés des particules de l’air ambiant extérieur, des effets délétères sont attendus sur la santé cardiovasculaire et respiratoire. Sont concernés les travailleurs exerçant notamment dans les domaines de l’exploitation du transport, l’organisation du transport et des services, les commerces, la police, la sécurité, la prévention et l’action sociale. Les risques sanitaires sont vraisemblablement plus élevés pour les travailleurs en charge de la maintenance des infrastructures compte tenu des émissions des motrices diesel et des travaux de maintenance.

Les recommandations de l’Agence

Dans ce contexte, l’Agence recommande la mise en œuvre et la poursuite de mesures de prévention et de réduction des expositions pour l’ensemble de ces catégories de travailleurs et en particulier pour ceux en charge de la maintenance des infrastructures.

Au vu de l’absence de données scientifiques sur la toxicité à long terme des particules présentes dans l’air des enceintes ferroviaires souterraines et du corpus d’études épidémiologiques encore peu informatif pour évaluer les risques sanitaires liés à l’exposition chronique de cette population de travailleurs, l’Anses recommande que des travaux spécifiques soient conduits pour acquérir de nouvelles connaissances.

L’Anses suggère par ailleurs d’élaborer une valeur limite de gestion et de renforcer le dispositif de surveillance de la qualité de l’air de l’ensemble des réseaux afin de pouvoir évaluer l’efficacité des mesures d’amélioration de la qualité de l’air et de réduction des expositions des travailleurs.

Réduire la pollution de l’air ambiant dans son ensemble reste la priorité

L’Agence rappelle que la priorité de santé publique concerne la réduction de la pollution de l’air ambiant dans son ensemble. Dans ce contexte, le recours à des moyens de transport moins polluants que le transport routier, dont le transport ferroviaire, reste à encourager.

La pollution de l’air subie par les usagers du transport routier apparaît plus préoccupante pour la santé que la pollution de l’air des enceintes ferroviaires souterraines compte tenu des concentrations élevées au sein du trafic routier pour plusieurs polluants dont la toxicité est avérée, notamment : le nombre de particules fines, le carbone suie, des gaz comme le monoxyde de carbone, le dioxyde d’azote, le benzène et le toluène.

Source : anses

Et aussi dans les
ressources documentaires :

Les produits chimiques menacent la fertilité

On entend beaucoup parler de la toxicité présumée des perturbateurs endocriniens et de leurs effets délétères nombreux. Mais il faut bien le dire, la réglementation tarde à évoluer. Face à ce constat, la Fédération Internationale Gynécologie Obstétrique (FIGO), a lancé un appel le 1er octobre dans l’International Journal of Gynecology and Obstetrics pour demander des politiques globales de réduction des expositions aux produits chimiques toxiques. Le signal des professionnels est fort : ils ne peuvent plus se borner à quelques conseils sur les risques liés aux substances toxiques, ils doivent désormais plaider pour des politiques de protection des populations afin de faire bouger les lignes.

Selon la FIGO, rassemblant des professionnels de 125 pays, « les hausses dramatiques de l’exposition aux produits chimiques toxiques au cours des quatre dernières décennies menacent la santé et la reproduction de l’espèce humaine ». « Les professionnels de santé reproductive sont les premiers témoins de l’augmentation de troubles de la santé chez leurs patients », note Gian Carlo Di Renzo, Secrétaire honoraire de FIGO et auteur principal de cet Appel.

Les polluants sont partout et nous contaminent

Entre 70 000 et 100 000 produits chimiques existent aujourd’hui sur le marché, dominé par 4800 « produits chimiques à haut volume de production ». La toxicité de la majorité d’entre eux n’a pas réellement été évaluée. Parmi eux, les pesticides, polluants atmosphériques, plastiques alimentaires, solvants et autres perturbateurs endocriniens sont particulièrement inquiétants. Pour la FIGO, ces substances sont mises en cause dans de nombreuses pathologies « comme les fausses couches et pertes foetales, troubles de la croissance foetale, faible poids à la naissance, malformations congénitales, atteintes des fonctions cognitives ou du neuro-développement, cancers de l’appareil reproducteur, baisse de la qualité du sperme, comportements de types  troubles du déficit de l’attention et hyperactivité (TDAH), agressivité et hyperactivité de l’enfant ».

« Nous sommes en train de noyer le monde dans des produits chimiques non évalués et non sûrs, et nous en payons le prix fort en termes de santé reproductive », analyse Gian Carlo Di Renzo. Le coût économique est également important, une étude récente évalue les impacts des produits chimiques sur les systèmes de santé européens à au moins 157 milliards d’euros par an.

Dans son appel, la FIGO recommande aux médecins de conseiller aux femmes enceintes et allaittantes ainsi qu’aux couples souhaitant procréer, de manger bio, éviter les aliments transformés, les graisses animales et les poissons contenant du méthylmercure.

La toxicité des perturbateurs endocriniens ne fait plus aucun doute

Trois jours avant la publication de cet appel, l’Endocrine Society, autre société professionnelle internationale, rassemblant 18 000 chercheurs et cliniciens spécialisés dans l’étude du système hormonal, pointait également du doigt le rôle des polluants environnementaux dans plusieurs maladies émergentes. Selon elle, il n’y a plus de doutes que les perturbateurs endocriniens jouent un rôle dans l’augmentation des maladies chroniques, « dont l’obésité, le diabète, les troubles de la reproduction, les problèmes thyroïdiens, les cancers, les troubles hormonaux et neurodéveloppementaux ».

Alors que les preuves scientifiques s’accumulent sur la nocivité des perturbateurs endocriniens, la réglementation, elle, peine à évoluer. Les perturbateurs endocriniens n’ont toujours pas de définition officielle en Europe. Les travaux attendus pour décembre 2013 ont été reportés, sine die, en attendant un rapport sur le coût économique qu’aurait une réglementation sur les entreprises européennes.

Par Matthieu Combe, journaliste scientifique

Et aussi dans les
ressources documentaires :

Les énergies renouvelables représenteront 26% de la production d’électricité en 2020

D’ici 2020, 700 gigawatts de nouvelles capacités vertes seront installés, soit l’équivalent de 700 réacteurs nucléaires, et cela représentera presque les deux tiers des nouvelles capacités ajoutées au système électrique mondial à cette date, détaille l’AIE dans son rapport de moyen terme sur les énergies renouvelables, publié vendredi.

Le développement des énergies renouvelables sera particulièrement important dans les pays émergents. La Chine à elle seule représentera 40% des nouvelles capacités installées.

Dans de nombreux pays les énergies renouvelables, et notamment l’éolien terrestre et le solaire photovoltaïque, ont vu leurs coûts de production fortement baisser et deviennent compétitives par rapport à d’autres types d’énergies, explique l’AIE.

C’est notamment le cas en Afrique du Sud, au Brésil, en Inde, au Moyen Orient ou dans certains Etats des Etats-Unis.

L’agence a également évalué les investissements qui seront faits dans les renouvelables à l’avenir et elle prévoit que 230 milliards de dollars seront mobilisés chaque année d’ici 2020. L’an dernier, ils s’étaient élevés à 270 milliards de dollars.

Cette estimation découle « de la baisse du rythme d’installations de nouvelles capacités mais aussi de la réduction des coûts d’investissement pour les technologies les plus dynamiques », notamment le solaire et l’éolien terrestre.

Ainsi, la baisse des coûts de ces énergies, déjà observée ces dernières années, devrait se poursuivre. Pour l’éolien terrestre, les coûts des nouveaux parcs devraient baisser d’environ 10%, alors qu’ils ont déjà diminué de 30% entre 2010 et aujourd’hui.

Pour le solaire, les coûts vont encore se contracter d’un quart par rapport à leur niveau actuel, après une baisse de deux tiers depuis 2010.

– Réduire les incertitudes –

L’AIE s’avère plus prudente sur les biocarburants, avec une croissance qui se poursuivra malgré la baisse du prix du pétrole mais à un rythme stabilisé. Les biocarburants représenteront 4% de la demande de carburant du transport routier en 2020.

Il faudra un prix du baril aux environs de 100 dollars pour voir de nouveaux projets d’usine de production de biocarburants à l’échelle industrielle, estime-t-elle.

Le succès du développement des énergies renouvelables, et donc de la lutte contre le changement climatique, nécessite de « réduire les incertitude en matière de réglementation, qui freine un déploiement plus important », prévient toutefois l’AIE.

« Les gouvernements doivent supprimer les points d’interrogation qui entourent les renouvelables », indique le directeur exécutif de l’agence, Fatih Birol, cité dans un communiqué.

Si l’éolien terrestre et le solaire photovoltaïque « n’ont plus besoin d’un haut niveau de soutien (public) », leur attractivité « dépendra fortement du cadre réglementaire et du fonctionnement du marché », juge l’AIE.

Dans les pays émergents, les risques sont aujourd’hui « les barrières réglementaires, les contraintes de réseaux et les conditions microéconomiques », tandis que dans les pays développés « le développement rapide des renouvelables oblige à fermer des centrales électriques thermiques, mettant la pression sur les énergéticiens », détaille l’agence.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Deux mois après sa sortie, quid de Windows 10 ?

Ce qu’il faut retenir, c’est sa simplicité d’utilisation !

  • L’interface a été revue pour plaire aux anciennes comme aux nouvelles générations. En faisant le pont entre les anciennes versions Windows et l’interface que l’on peut retrouver sur tablette ou smartphone, l’affichage s’avère instantanément clair et ne déroute pas. À noter, le bouton « Démarrer » fait son grand retour après une absence remarquée sur Windows 8. L’accès aux applications et aux dossiers se fait naturellement.
  • Les applications Windows 8 ont été repensées pour les rendre plus efficientes.
  • Le mode recherche se veut plus efficace qu’auparavant et détecte des résultats pertinents, même si l’orthographe s’éloigne légèrement du nom du dossier ou fichier recherché.
  • Grâce aux early adopters, l’installation se fait sans trop de heurts et disons-le dans une relative bonne humeur. Et un détail qui a son importance concernant l’installation du nouveau système d’exploitation : elle est gratuite, en tout cas pour ceux qui souhaitent faire le passage de Windows 7, 8 et 8,1 à Windows 10 et dont l’âge de l’ordinateur ne dépasse pas 5 ans. Profitez-en tant que c’est possible car dans un an ce ne sera plus le cas.
  • Microsoft prend apparemment grand soin de ne pas désarçonner les utilisateurs mobiles. Windows 10 Mobile aura donc peu ou prou les mêmes applications que la version PC (Cortana, Agenda…), et elles seront, au même titre que l’affichage, optimisées pour une meilleure expérience. Il sera possible d’en synchroniser certaines comme le calendrier avec son smartphone, de sorte que la jonction entre chaque appareil se fasse naturellement. L’adaptation entre les supports se doit d’être totale pour la firme de Redmond.

Quelques nouveautés :

  • On peut signaler le remplaçant d’Internet Explorer, baptisé Edge. Le navigateur, a selon Microsoft, beaucoup de qualités. Il est performant – plus que Chrome et Firefox – et il permet d’annoter les pages Web visitées, entre autres.
  • Mais la grande nouveauté, c’est Cortana, l’assistant(e) personnel(le) de Windows. Désormais il est possible de communiquer avec son ordinateur, à la façon d’un « OK Google », ici remplacé par « Hey Cortana » puis de poser sa question. S’approche-t-on du film Her de Spike Jonze dans lequel Joaquin Phoenix s’éprend de son OS ?

Malgré tout, Windows 10 n’est pas exempt de défauts, loin s’en faut.

Parmi lesquels on peut trouver un sujet qui fera éternellement débat : celui relatif à la vie privée. Certains pensent que Windows 10 comporte des mouchards quand Microsoft se défend en évoquant sa politique transparente et le fait que chaque personne est libre de choisir quelles informations seront collectées. Certes le géant recueille des données, mais pas n’importe lesquelles et avec une finalité constructive, celle d’améliorer le produit pour l’utilisateur. Pas sûr néanmoins que cette défense fasse taire les critiques.

Après l’échec commercial et critique de Windows 8, Microsoft semble donc avoir compris les attentes du public. Ainsi, professionnels et particuliers devraient y trouver leur compte.

Par Sébastien Tribot

Et aussi dans les
ressources documentaires :

Les Etats-Unis durcissent les normes anti-pollution à l’ozone

L’Agence de protection de l’environnement (EPA) a ainsi finalisé les nouvelles normes proposées en novembre dernier qui ramènent la limite de ces émissions polluantes, aussi appelées « smog », à 70 parties par milliard (ppm) contre 75 ppm jusqu’à présent, soit une réduction d’environ 7%.

Cette finalisation intervient après une période de consultation de 90 jours des diverses parties prenantes.

« Dit simplement, la pollution à l’ozone signifie qu’il est plus difficile de respirer pour la population la plus vulnérable de notre société à savoir les enfants, les personnes âgées et ceux souffrant de maladies cardiaques et pulmonaires », a déclaré la patronne de l’EPA, Gina McCarthy.

« Cette décision est l’une des mesures les plus importantes que nous pouvons prendre pour améliorer la santé publique, réduire les coûts de la maladie et protéger la santé des enfants », a-t-elle ajouté dans un communiqué.

L’EPA précise que 23 millions d’adultes aux Etats-Unis et six millions d’enfants sont asthmatiques et que cette pollution à l’ozone peut l’aggraver.

L’Agence a indiqué avoir examiné près de 2.300 études pour cette révision des normes, dont plus d’un millier publiées depuis la précédente révision en 2008.

Selon les scientifiques consultés par l’EPA, une exposition à des niveaux d’ozone même inférieurs à 75 ppm est néfaste pour le système respiratoire.

Les nouvelles normes devraient se traduire par un gain de 2,9 à 5,9 milliards de dollars annuellement d’ici 2025, surpassant le coût annuel de 1,4 milliard pour les industries, souligne l’EPA.

L’ozone se forme dans la basse atmosphère sous l’effet du rayonnement solaire qui provoque une transformation photochimique des oxydes d’azote, du monoxyde de carbone et des composés organiques volatiles émis par les échappements des véhicules, des industries, des centrales au charbon et de certains solvants et peintures.

La loi américaine sur la propreté de l’air accorde une souplesse aux Etats pour l’application de ces nouvelles normes d’émissions d’ozone selon la gravité de leur problème de pollution. Certaines de ces régions pourraient avoir plusieurs années (d’ici 2020 à 2037) pour s’y conformer.

La décision de l’EPA a été critiquée à la fois par les groupes de protection de l’environnement et de médecins, qui la juge trop timide, et par les défenseurs des industries pour qui elle est économiquement très onéreuse.

La nouvelle limite « est la plus faible de celles recommandées par ses conseillers scientifiques », déplore l’Union of concerned scientists soulignant que cette limite « pourrait ne pas être suffisamment stricte (…) pour protéger la santé publique ».

Le Natural resources defense council affirme lui que les scientifiques de l’EPA avaient unanimement recommandé des normes inférieures à 70 ppm, jusqu’à 60 ppm.

Même reproche de l’American Thoracic Society qui affirme que la communauté médicale soutient depuis 2007 une limite de 60 ppm des émissions d’ozone.

Résumant le sentiment des industriels, le président républicain de la commission de la Science de la Chambre des représentants, Lamar Smith a fustigé la « régulation la plus coûteuse imposée aux Américains qui entraînera des millions de pertes d’emplois ».

« Protéger la santé publique et promouvoir la croissance économique ne sont pas des objectifs mutuellement exclusifs », a-t-il ajouté.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Volkswagen : la justice française ouvre une enquête pour tromperie aggravée

Le constructeur allemand est soupçonné d’avoir équipé des véhicules vendus dans le monde entier d’un logiciel permettant de tromper les contrôles antipollution. L’enquête du parquet concerne les voitures vendues en France.

Les investigations françaises ont été décidées après un signalement d’un élu de la région Ile-de-France, reçu jeudi par le parquet, et sur la foi des informations parues et des déclarations publiques sur cette affaire qui ébranle le géant allemand de l’automobile, a-t-on précisé.

Près d’un million de véhicules diesel vendus ces dernières années en France, de marques VW, Audi, Skoda et SEAT, ont été équipés du logiciel permettant de tromper les contrôles antipollution, selon la filiale française de Volkswagen.

Dans le monde, quelque 11 millions de véhicules ont été équipés du logiciel litigieux. Le scandale a provoqué la démission du l’ex-patron du groupe, Martin Winterkorn.

L’Organisation mondiale de la santé (OMS) a classé en 2012 les gaz d’échappement diesel comme cancérigènes certains.

L’enquête française a été ouverte pour tromperie aggravée sur une marchandise susceptible d’être dangereuse pour la santé. Elle a été confiée à deux services: les gendarmes de l’Office central de lutte contre les atteintes à l’environnement et à la santé publique (Oclaesp) et l’office anticorruption de la police judiciaire (Oclciff).

La ministre de l’Ecologie Ségolène Royal, qui a annoncé des tests aléatoires sur une centaine de voitures vendues en France, a dénoncé « une forme de vol du contribuable et de l’Etat » puisque les véhicules réputés propres bénéficient de primes et de bonus.

Parallèlement à l’enquête du parquet de Paris, plusieurs plaintes ont été annoncées en France, par une association écologiste, mais aussi par des propriétaires français de véhicules diesel Volkswagen et des actionnaires français du groupe.

Des actions judiciaires ont été déclenchées dans plusieurs pays, notamment une action de groupe aux Etats-Unis.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Alpha, premier vélo électrique à hydrogène fabriqué en série

« Il s’agit d’une première mondiale », s’est félicité Pierre Forté, 38 ans, président directeur général de Pragma Industries, la société conceptrice basée à Bidart, championne en matière de génération électrique à base de piles à hydrogène.

La principale innovation d’Alpha, qui dissimule sa pile dans un cadre un peu plus épais que la moyenne, est sa capacité de se recharger en moins de cinq minutes auprès d’une station de production d’hydrogène dédiée. « Alors qu’un vélo électrique se recharge en trois ou quatre heures », a insisté M. Forté devant journalistes et élus.

Autre nouveauté: son autonomie peut atteindre 100 kilomètres, contre quelques dizaines de kilomètres pour les vélos à assistance électrique classiques. « Le tout avec une empreinte environnementale minimale, car ces vélos sont constitués de composants toujours plus recyclables », a souligné M. Forté. « Ainsi la pile peut-être entièrement recyclée, avec une empreinte carbone vingt fois plus faible qu’un batterie au lithium », a-t-il assuré.

Selon M. Forté, « la pile du vélo fournit de l’électricité à partir d’hydrogène en ne rejetant que de l’eau pure » et « les stations de recharge peuvent produire l’hydrogène à partir d’énergies renouvelables, comme l’éolien ou le solaire ». Ces stations de recharge ont été mise au point avec l’entreprise savoyarde Atawey, spécialisée en autonomie énergétique.

« C’est assez incroyable d’être pionniers! » s’est réjoui le chef d’entreprise. « Nous n’avons pas de concurrents. Il existe des prototypes, mais ce sont des démonstrateurs », a-t-il dit.

Pragma Industries prévoit de commercialiser 100 unités en 2016 et un millier en 2017 pour un coût de production autour de 2.300 euros, « pas éloigné de celui d’un vélo électrique haut de gamme ».

La société vise dans un premier temps les flottes professionnelles et les collectivités.

Alpha sera dévoilé au grand public à l’occasion du 22e Congrès mondial des systèmes de transport intelligent (ITS) qui se déroule du 5 au 9 octobre à Bordeaux. Dix vélos seront mis à disposition.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Bus hybrides et électriques ont remplacé le diesel au salon du transport

Heuliez Bus-Iveco devient ainsi le sixième industriel à signer un accord avec la RATP.

Les chinois Yutong (en partenariat avec le français Dietrich) et Golden Dragon (avec le hollandais Ebusco), mais aussi l’espagnol Irizar et le polonais Solaris, fourniront eux aussi un véhicule électrique que le groupe pourra tester sur ses lignes franciliennes. Par ailleurs, une vingtaine de bus électriques a été achetée à Bolloré.

L’opérateur avait annoncé en juin vouloir expérimenter différentes technologies de bus électriques, pour remplacer d’ici 2025 ses 4.500 bus par de l’électrique (80%) et du biogaz (20%).

Pour la PDG de la RATP, Elisabeth Borne, cette annonce doit permettre au marché du bus électrique, encore balbutiant, de se développer, et de proposer des véhicules moins chers qu’aujourd’hui.

« Les constructeurs disent +il n’y a pas de marché+, les autorités organisatrices et les transporteurs, disent +il n’y a pas de fournisseurs+ », a pointé du doigt la patronne de la RATP, dans un entretien à l’AFP.

Pour arriver à des coûts proches de ceux du diesel, elle mise sur « un bon effet de série. On compte sur nos industriels. On regardera la facture globale ».

« Il faut que nos industriels réalisent que (l’électrique) est une technologie d’avenir », insiste-t-elle. « L’entrée de Bolloré sur le marché les a secoués un peu. Il n’y croyaient pas », ajoute-t-elle, faisant un parallèle avec l’industrie automobile et la voiture électrique.

« Les rares industriels qui présentent des solutions sont chinois. Mais dans les conditions d’usages européennes, ils ne remplissent pas le cahier des charges », souligne le patron de Keolis (filiale de la SNCF) et président de l’Union des transports publics et ferroviaires (UTP), Jean-Pierre Farandou.

Pour lui, « on ne peut pas dire que les bus chinois représentent une solution aboutie ».

Par ailleurs, si l’hybride « fonctionne », de même que l’électrique pour les petits bus, « la grande question du moment, c’est les bus de 12 mètres (bus classiques, NDLR). Il n’y a pas encore de solution éprouvée ».

Modèle économique des différentes solutions, recyclage des batteries, provenance de l’électricité, « avoir des idées arrêtées, définitives, peut être délicat, il faut être humble à ce stade », estime-t-il.

jul/smr/bir

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Navya Arma : la navette autonome, électrique et française

Navya Arma est le premier véhicule 100 % électrique, 100 % autonome et 100 % français produit en série dans la région lyonnaise. D’une capacité de 15 places (11 assises et 4 debout), cette navette est destinée à circuler, dans un premier temps, en circuit fermé.

Ce véhicule est disruptif : il ne possède pas de poste de conduite, soit ni volant, ni pédales. Entièrement autonome, il est quand même relié à un centre de supervision où un opérateur pourra agir en cas de problème rencontré sur le trajet ou le véhicule. Son pack de batteries rechargeable par induction, sans fil ni prise, le dote d’une autonomie flexible allant de 8 à 24 heures. La Navya Arma peut atteindre une vitesse de pointe de 45 km/h, ce qui n’est pas un inconvénient notable pour le moment, puisque généralement sur les sites d’application, la vitesse est limitée à 30 km/h. Elle est équipée d’un toit ouvrant, d’une vision panoramique et d’air conditionné.

Comment faire rouler un véhicule autonome ?

Pour être autonome en toute sécurité, les systèmes de guidage de la Navya Arma utilisent simultanément plusieurs technologies : télédétection par laser, caméra stéréovision, GPS RTK, Infra-rouge, IMU et odométrie. Une vérification et un contrôle centralisés de ses mouvements sont assurés à distance, et des systèmes d’arrêt d’urgence sont accessibles si besoin.

Pour programmer le circuit, les ingénieurs de la société Navya, le développeur et constructeur de ce véhicule, interviennent au début sur le site et cartographient la zone en 3D. Grâce à ses capteurs, la navette répète le circuit programmé avec une précision de 2 cm. Elle sait distinguer sur la route tous types d’obstacles, qu’ils soient fixes ou mobiles, et adapte sa trajectoire. « Elle s’adapte aux situations imprévues et accumule progressivement de l’expérience sur un parcours donné en mémorisant les obstacles fixes pour optimiser ses performances », assure l’entreprise. Elle peut croiser d’autres véhicules ou se faire dépasser sans perturbation et respecte les priorités sur son circuit.

La navette peut être appelée depuis un arrêt grâce à une borne ou depuis une application mobile. Elle échange avec les autres véhicules et les piétons, de façon visuelle ou sonore, grâce à ses feux, ses écrans et panneaux LED, mais aussi ses haut-parleurs externes, ses klaxons et buzzers. Elle informe ses passagers grâce à des haut-parleurs internes. Sur l’écran tactile présent à l’intérieur du véhicule, un passager peut voir le circuit et sélectionner un arrêt.

Des sites fermés aux routes urbaines

La législation actuelle ne permet pas aux véhicules totalement autonomes de rouler sur des routes ouvertes.  Les grands constructeurs et les acteurs tels que Google se limitent actuellement à développer des véhicules particuliers autonomes pour avoir une offre attractive lorsque la législation aura évolué. Mais, dès aujourd’hui, Navya fait le pari des véhicules autonomes sur circuit fermé. « Ce que vous voyez, il y a deux ou trois équipes dans le monde qui le font », assure Christophe Sapet, Président de la société Navya. Une seule autre est sur le même secteur : il s’agit de la société française Easy Mile. « On considère que l’on a à peu près un an d’avance sur ce marché », se félicite-t-il.

« Navya Arma est une parfaite illustration de la stratégie de notre société : développer des véhicules autonomes 100 % français opérationnels dès à présent sur des sites fermés, conformément à la législation en vigueur dans la grande majorité des pays du monde : aéroports, centrales nucléaires, hôpitaux, sites industriels, universités, campus, parcs d’attraction, explique Christophe Sapet. Notre potentiel de marché peut être esimé au niveau mondial à plusieurs milliers de véhicules à l’horizon 2025. L’Europe, à elle seule, atteindrait plus de 10 000 véhicules sur site fermé. Pour une deuxième phase de développement, nous disposons déjà d’une grande majorité des technologies et de l’expérience pour rouler sur route ouverte ».

Pour se procurer la Navya Arma, il faudra dépasser au bas mot 160 000 €. Mais grâce aux économies réalisées sur les salaires et sur la maintenance, la société Navya, estime que le coût d’une ligne de transport équipée d’une flotte de véhicules autonomes est de 30 à 40 % moins cher qu’une ligne classique. Les premières livraisons commenceront le 15 novembre.

Le véhicule sera dévoilé aux professionnels lors de l’ITS World Congress, du 5 au 9 octobre, à Bordeaux. Les visiteurs pourront utiliser, pendant la durée du salon, un des trois véhicules de série circulant sur la route liant le centre de Congrès au parc des Expositions. Cette route sera ouverte à la circulation.

La société Navya, basée à Lyon et à Paris, a été créée en juin 2014. Elle rassemble une équipe disposant de plus de 10 années d’expérience dans le domaine de la voiture autonome et regroupée à l’initiative de Robolution Capital, le fonds d’investissement présidé par Bruno Bonnell, cofondateur de la société Infogrames et ex-président des sociétés Infogrames et Atari.

Découvrir Navya Arma en vidéo

Par Matthieu Combe, journaliste scientifique

Et aussi dans les ressources documentaires :

De l’eau sur Mars : chronologie d’une découverte

Ces longues stries sombres (voir photo ci-dessous) seraient la preuve de l’écoulement et de la descente d’eau sur les pentes de Mars.

 « Ceci est terriblement excitant, confie  James Green, directeur de la division des sciences planétaires de la NASA : Nous n’avons pas encore été en mesure de répondre à la question : « Est-ce que la vie peut exister au-delà de la Terre ? », mais la découverte d’eau est un élément fondamental pour pouvoir imaginer que oui, la vie peut exister ailleurs. Nous avons maintenant, je pense, de grandes possibilités, dans certains endroits que nous avons identifié sur Mars,  d’approfondir de façon formidable nos connaissances. »

La volte-face de la NASA

Il s’agit d’un revirement complet de ton de la part de la NASA, dont les officiels concédaient régulièrement depuis des mois que le paysage triste et poussiéreux de Mars ne révèlerait très probablement pas quelconque trace de vie.

Mais cette semaine, John Grunsfeld, administrateur associé de la NASA, a évoqué l’envoi d’un vaisseau spatial dans les années 2020 vers l’une de ces régions, peut-être avec pour mission de détecter « sur site » toute trace de vie : « Je ne peux pas imaginer que ce ne sera pas une grande priorité de la communauté scientifique », a t-il commenté.

Il y a quelques milliards d’années, rivières, lacs et peut-être même océans étaient des habitués du paysage martien. Aujourd’hui pourtant, l’humidité y est modeste : quelques minuscules parcelles de terres humides, mais pas de flaque d’eau stagnante à la surface, par exemple.

Dans un article publié dans la revue Nature Geoscience, des scientifiques ont identifié des molécules gorgées d’eau : ce sont des sels (perchlorates) présents dans la trainée de l’orbite martienne. « Voilà une détection directe de l’eau sous la forme d’hydratation de sels », explique Alfred S McEwen, professeur de géologie planétaire à l’Université de l’Arizona, et investigateur principal des images provenant d’une caméra à haute résolution installée sur le Mars Reconnaissance Orbiter de la NASA : « Ce sel hydraté a été produit par une source d’eau, dans un passé récent, très récent. De l’ordre de quelques jours. »

Les scientifiques savent depuis longtemps que de grandes quantités d’eau restent – à l’état solide – dans les calottes polaires. Il y a eu quelques indices concernant la présence d’eau liquide mais rien d’assez convaincant jusque-là.

En 2011, le Dr McEwen et ses collègues ont découvert sur des photographies des stries sombres qui descendent le long des pentes des cratères, des canyons et des montagnes. Ces stries sont allongées pendant l’été, disparaissent quand les températures baissent et réapparaissent à la saison suivante.

Ces stries ont un nom : stries de pente linae, ou RSL. Des milliers d’entre elles ont à ce jour été repérées.

Les fameuses stries de pente Linae

Les scientifiques soupçonnaient depuis longtemps le rôle moteur de l’eau dans l’observation d’un tel phénomène. Mais comment le prouver ?

Lujendra Ojha, un étudiant de troisième cycle à l’Institut de technologie de Géorgie (Etats-Unis), se pencha vers un instrument dont dispose le vaisseau orbiteur qui récolte des données sur la planète rouge. Il s’agissait d’un spectromètre permettant d’analyser la couleur absorbée par les molécules pour mieux les identifier. Mais l’appareil, pas assez précis, ne permettait pas de certifier la présence d’eau dans les stries identifiées.

«Nous avons dû trouver de nouvelles techniques pour analyser la signature chimique des éléments que nous voulions analyser dans ces stries », résume  Mr Ojha, l’auteur principal de l’article paru dans  Nature Geoscience.

Les chercheurs ont ainsi réussi à identifier les signes révélateurs de la présence  de sel hydraté à quatre endroits. De plus, ces signes ont disparu avec l’arrivée du froid, « ce qui nous permet d’affirmer de manière définitive aujourd’hui qu’il y a une sorte d’eau liquide sur Mars », conclue Mr Ojha.

En fait, les sels de perchlorate abaissent la température de congélation de l’eau, qui a donc tendance à rester plus longtemps liquide. Sur Mars, bien que la température moyenne soit de -70 °C, on atteint quand même, à l’équateur, en été, plus de 70 °C.

Cependant de nombreux mystères demeurent. A commencer par la provenance de cette eau. Les scientifiques ne le savent pas encore.

Le docteur McEwen résume les hypothèses : «  l’eau ne  peut provenir que de deux directions : le haut ou le bas. Le perchlorate pourrait agir comme une éponge, en absorbant l’humidité de l’air. Mais l’humidité mesurée en surface est très faible : à peine 10 microns de pluviométrie si toute l’humidité à la surface se transformait d’un seul coup en pluie ! »

Mais cette idée ne peut être exclue pour le moment, car la partie inférieure de l’atmosphère martienne pourrait se révéler plus humide que ce que l’on ne pense : « nos mesures de ces zones sont pour le moment très rudimentaires, concède ainsi le Dr McEwen. Il faut aussi envisager la présence d’aquifères souterrains, glacés durant l’hiver et fondant partiellement quand les températures se réchauffent, formant les RSL… ». Tout cela ne reste que conjecture à l’heure actuelle.

La problématiqeu de la stérilisation

L’eau liquide est considérée comme l’un des ingrédients essentiels à la vie, et sa présence soulève la question de savoir si Mars, qui paraît si sec et aride, pourrait posséder des niches d’habitabilité pour la vie microbienne.

Christopher P. McKay, astrobiologiste au Ames Research Center de la NASA, ne pense pas que les RSL sont l’endroit le plus prometteur pour faire des découvertes révolutionnaires : « l’eau liquide qu’on trouverait dans les RSL serait de toute façon tellement salée que la vie ne peut pas s’y développer. En termes d’habitabilité par contre, cela ne signifie rien. »

Sur terre, on connait l’étang Don Juan – dans l’arctique – qui reste liquide tout au long de l’année malgré des températures très inférieures à zéro. L’étendue accuse une salinité extrêmement forte due à la présence de chlorure de potassium. « Si vous allez dessus, ça ressemble à une belle piscine. Mais aucun organisme vivant ne s’y est jamais développé », précise le Dr McKay.

Même si les pentes lineae (RSL) sont pour certaines d’un grand intérêt pour les chercheurs, la NASA n’a pas l’intention de les investiguer de sitôt.

Ces espaces géographiques sont pour le moment considérés comme des régions spéciales que les explorateurs robotisés de la NASA n’ont pas l’autorisation d’approcher. En effet, les rovers n’étant pas totalement stérilisés, ils pourraient être vecteurs d’« autostoppeurs microbiens » terriens qui contamineraient Mars.

De toutes les  sondes que la NASA a envoyées vers Mars, seules les deux sondes Viking en 1976 ont été « cuites » à des températures assez chaudes pour tuer les microbes de la Terre. Le prochain rover de la NASA qui partira vers Mars, et dont le lancement est prévu en 2020, ne sera pas propre lui non plus. Stériliser un engin spatial est très compliqué, car l’électronique embarquée supporte très mal la chaleur inhérente à un tel procédé. Cela pose également des problématiques insolvables en termes de design.

En choisissant le site d’atterrissage pour 2020, l’agence spatiale américaine s’est donc volontairement portée sur des endroits considérés comme non habitables en prenant soin d’éviter d’autres zones plus prometteuses, dont font partie les RSL.

Cette interdiction d’explorer va perdurer, alors que Curiosity est actuellement à moins de deux kilomètres du cratère Gale, où deux stries considérées comme prometteuses ont été identifiées.

Même si la NASA décidait d’y envoyer Curiosity pour voir de plus près ce qui se passe sans trop s’approcher, le trajet jusqu’au cratère durerait quelque chose comme… deux ans ! Pour le moment la possibilité d’un détour n’est pas exclue, la NASA se laissant le temps d’analyser plus en avant la situation.

Dans une interview suivant l’annonce de la NASA, le Dr Green – de la NASA – a déclaré que si les stries dans le cratère Gale s’avéraient être des RSL, l’agence spatiale envisagerait de se pencher plus précisément sur le risque de contamination réel posé par Curiosity. En effet, le rover martien est soumis aux ultra-violets depuis plusieurs années, et le risque réel de contaminer un habitat martien est aujourd’hui probablement infime : « Si nous pouvons aller en deçà de 20 mètres d’un RSL, nous pouvons utiliser le laser de Curiosity, et ainsi déterminer la nature de la roche en la vaporisant, grâce au spectromètre qui y est embarqué. Le mieux, évidemment, serait de pouvoir ramasser un fragment de RSL pour l’analyser, ça serait le top », conclut le Dr Green.

Traduit pas S.L

Source : New York times

Et aussi dans les
ressources documentaires :

Iran : Vers un changement de paradigme pétrolier ?

Le retour de l’Iran sur la scène pétrolière devrait contribuer à maintenir une offre déjà surcapacitaire et ainsi des cours du baril historiquement bas. Du moins en théorie car des obstacles restent encore à surmonter. S’ils le sont, nul doute que les exportations iraniennes modifieront les paramètres de l’équation pétrolière mondiale. Si les pays consommateurs devraient en tirer avantage, certains producteurs ont quant à eux du souci à se faire. 

Quels impacts sur le cours du brut ?

L’Iran produisait 2,87 millions de barils jour (Mbj) en juillet 2015 selon le rapport d’août de l’Agence internationale de l’énergie (AIE). Selon le ministre iranien du Pétrole, Bijan Zanganeh, le pays pourrait élever de 500 000 bj sa production immédiatement après la levée des sanctions, pour atteindre progressivement 4 Mbj en quelques mois. Dans un marché aussi volatile que le marché pétrolier, nul doute que ces nouvelles livraisons tireraient les cours du brut à la baisse, d’autant que la demande mondiale est en berne en raison notamment du ralentissement économique de pays tel que la Chine qui a vécu cet été un véritable krach boursier. On voit ainsi difficilement comment le prix du baril, qui est passé sous la barre symbolique des 45 $ cet été, pourrait remonter fortement à court terme.  

Des obstacles à lever

Si beaucoup d’analystes considèrent comme acquis le retour de l’Iran sur la scène pétrolière, des obstacles se dressent encore sur le chemin de Téhéran. Tout d’abord, l’accord obtenu en juillet dernier doit encore être ratifié par le Congrès américain, divisé sur la question. La date butoir du 17 septembre a ainsi été repoussée d’un mois en raison des diverses manœuvres politiques dont le Capitole est coutumier. Par ailleurs, Téhéran doit accentuer sa coopération avec l’Agence internationale de l’énergie atomique (AIEA) et devra transmettre un certain nombre de documents dans les prochaines semaines à l‘institution basée à Vienne. Et là encore, rien n’est gagné d’avance. Le 8 septembre dernier, l’agence onusienne a demandé à l’Iran de lever certaines « ambigüités » relative aux informations produites le mois précédant. Ce n’est qu’en fin d’année, voire plus probablement début 2016 que les sanctions pourront être progressivement levées, secteur par secteur. L’Iran aura alors la lourde tâche de remettre sur pied la filière pétrolière durement touchée par l’embargo. En effet, cette dernière a besoin d’énormément d’investissements pour relever sa production. Selon le ministre iranien de l’industrie, Mohammad Reza Nematzadeh, 100 milliards de dollars seraient nécessaire. Des investissements qui seront difficilement concevables sans le concours des compagnies pétrolières internationales. Plusieurs groupes historiquement liés au pays sont déjà sur les rangs. C’est le cas de Total, mais aussi Royal Dutch Shell, Eni ou encore Lukoil. Les compagnies asiatiques ne sont pas en reste et ont également annoncé leur intention de renforcer leurs liens avec Téhéran.  

Les gagnants et perdants

Dans la conjoncture actuelle, les pays consommateurs de pétrole ne peuvent que se réjouir d’un retour de l’Iran sur la scène pétrolière car il participera à maintenir une offre excédentaire et donc un cours du baril bas, élément fondamental pour l’économie. Les pays proches géographiquement de l’Iran voudront quant à eux relancer les grands projets d’infrastructures pétrolières et gazières gelés par l’embargo, notamment l’Inde (deuxième client de l’Iran après la Chine). 

Du côté des pays producteurs d’hydrocarbures, l’impact de ce retour est perçu de manière hétérogène. Les Etats-Unis ou la Norvège sont ceux ayant le plus à perdre car ils ont besoin de cours élevés pour couvrir leurs coûts. La Russie pourrait quant à elle voir son principal marché, l’Europe, concurrencé notamment en raison de la détérioration des relations diplomatiques depuis la crise ukrainienne. Pour rappel, le Vieux continent représentait 30% des exportations de l’Iran avant les sanctions. La hausse de la production iranienne ne fera que renforcer la stratégie de l’Organisation des pays exportateurs de pétrole (OPEP) qui consiste à maintenir une offre excédentaire pour faire baisser les cours et retrouver ses parts de marché. Une tactique qui impacte de manière très diverses ses membres. Ainsi, le Venezuela et l’Algérie souffrent énormément de ce manque à gagner. En revanche,  l’Arabie Saoudite ou le Qatar peuvent supporter cette situation à moyen terme en puisant dans leurs réserves de devises. Pour autant, ils ne voient pas forcément d’un bon œil ce retour en grâce, leurs craintes résident davantage dans l’influence politique retrouvée de l’Iran dans la région. 

Romain Chicheportiche

Et aussi dans les
ressources documentaires :

Rosetta observe le cycle de la glace d’eau sur la comète

Les comètes sont de grands agrégats de glaces et de poussières, qui perdent régulièrement une partie de leur matériel lorsqu’elles passent près du Soleil sur leur orbite très excentrique. Quand la lumière du Soleil chauffe le noyau gelé d’une comète, la glace dans le sol – composée principalement de glace d’eau, mais aussi d’autres substances volatiles – sublime. Le gaz qui en résulte migre dans le sol, emportant avec lui des poussières solides : ensemble, ce mélange de gaz et de poussières constitue la coma et les queues brillantes qui rendent observables de nombreuses comètes depuis la Terre.

Parvenue à destination en août 2014, Rosetta étudie de près, depuis plus d’un an, la comète 67P/Tchourioumov-Guerassimenko, surveillant la façon dont son activité augmente régulièrement au cours des mois. La comète a atteint le périhélie, le point le plus proche du Soleil sur son orbite de 6 ans et demi, le 13 août 2015, et s’éloigne maintenant vers l’extérieur du Système solaire.

Une des questions ouvertes étudiée par les spécialistes des comètes concerne les processus physiques qui alimentent l’activité de dégazage. L’idée est de comprendre comment s’extrait la glace d’eau de l’intérieur pour approvisionner la coma en vapeur d’eau.

Selon une étude présentée aujourd’hui dans la revue scientifique Nature, une équipe scientifique a observé de la glace d’eau qui apparaît et disparaît quotidiennement sur une région de la comète. Ces observations ont été fournies par l’instrument VIRTIS, le spectromètre imageur visible, infrarouge et thermique de Rosetta, en septembre 2014 lorsque la comète s’approchait du Soleil. « Nous avons trouvé ce qui maintient la comète en vie », explique Maria Cristina de Sanctis, de l’INAF-IAPS à Rome (Italie), première auteure de l’étude.

L’équipe a étudié un ensemble de données de VIRTIS recueillies en septembre 2014 et centrées sur Hapi, une région située sur le « cou » de la comète. Durant cette période, la comète se trouvait à environ 500 millions de kilomètres du Soleil, et le cou était l’un des endroits les plus actifs du noyau.

Lors de la rotation de la comète, qui effectue un tour complet en un peu plus de 12 heures, les différentes régions subissent des conditions d’éclairage variées.

« Nous avons vu des signes révélateurs de glace d’eau sur la région de la comète que nous avons analysée, mais seulement quand cette région sortait de l’ombre », ajoute Maria Cristina. « En revanche, quand le soleil brillait sur cette région, il n’y avait plus de glace. Cela indique un comportement cyclique de la glace d’eau au cours de la rotation de la comète. » Les données suggèrent que, lorsqu’une région du noyau est éclairée, la glace d’eau sublime dans les premiers centimètres du sol, se transformant en gaz et migrant vers la surface. Lorsque cette région se retrouve à l’ombre, la surface refroidit très rapidement ; les couches plus profondes, qui ont accumulé la chaleur solaire, refroidissent plus lentement et restent plus chaudes.

En conséquence, la glace d’eau sous la surface continue de sublimer et de migrer vers la surface à travers le sol poreux. Cependant, dès que cette vapeur d’eau « souterraine » atteint la surface froide, elle gèle à nouveau, créant ainsi une pellicule de glace fraîche sur cette région. Lorsque le Soleil se lève à nouveau sur cette région, les molécules dans la couche de glace nouvellement formée subliment immédiatement.
« Nous avions soupçonné qu’un tel cycle de la glace d’eau pouvait exister dans les comètes, sur la base de modèles théoriques et d’observations antérieures d’autres comètes, mais maintenant, grâce à la surveillance continue par Rosetta de 67P/Tchourioumov-Guerassimenko, nous disposons enfin d’une preuve observationnelle », précise Fabrizio Capaccioni, responsable scientifique de VIRTIS à l’INAF-IAPS à Rome, Italie.

À partir de ces données, il est possible d’estimer l’abondance relative de la glace d’eau par rapport à d’autres matériaux. Sur la portion sondée de la surface, la quantité de glace d’eau représente jusqu’à 10 ou 15% en masse, et elle est intimement mélangée avec les autres composants du sol. Les scientifiques ont également calculé la quantité d’eau qui a sublimé dans la région qu’ils ont analysée avec VIRTIS, qui représente environ 3% de la quantité totale de vapeur d’eau mesurée simultanément par MIRO, le spectromètre micro-ondes installé sur l’orbiteur de Rosetta.

« Il est possible que de nombreuses régions à la surface connaissent ce cycle, fournissant ainsi une contribution au dégazage global de la comète, mais d’autres mécanismes peuvent également
contribuer à l’activité », ajoute Capaccioni. Les scientifiques s’occupent actuellement de l’analyse des données recueillies lors des mois suivants, pendant lesquels l’activité de la comète a augmenté alors qu’elle se rapprochait du Soleil.

« Ces résultats nous donnent une idée de ce qui se passe sous la surface, à l’intérieur de la comète », en conclut Matt Taylor, responsable scientifique de la mission Rosetta de l’ESA. « Rosetta a la capacité essentielle de suivre les modifications de la comète sur des échelles de temps courtes ou longues, et nous avons hâte de pouvoir combiner toutes ces informations pour comprendre l’évolution de cette comète et des comètes en général. »

Référence

Ce travail de recherche fait l’objet d’un article intitulé « The diurnal cycle of water ice on cometary nuclei », par Maria Cristina de Sanctis, et al., publié dans la revue Nature, le 24 septembre 2015. Les résultats sont basés sur des spectres infrarouges obtenus les 12, 13 et 14 septembre 2014 par VIRTIS, le spectromètre imageur visible, infrarouge et thermique de Rosetta.

Source : cnrs.fr

 

Et aussi dans les
ressources documentaires :

Un scénario pour réconcilier la Terre et ses origines

En s’appuyant sur des expériences en laboratoire et sur des modélisations, cette équipe propose pour la première fois un scénario complet qui rend compte de ces différences : les collisions qui ont construit la Terre l’ont aussi amputée à répétition d’une fraction de sa masse, faisant évoluer sa composition chimique. Ces travaux sont publiés le 23 septembre 2015 dans la revue Nature Communications.

Comme toutes les planètes du système solaire, la Terre s’est formée par accrétion, c’est-à-dire par l’agglomération progressive de matériaux sous l’effet de la gravitation. La désintégration radioactive précoce et les impacts provoqués par la chute de ces matériaux sur la planète en formation ont généré sa fusion jusqu’à des profondeurs assez importantes pour permettre la ségrégation d’un noyau riche en fer, surmonté d’un manteau rocheux et d’une croûte. Aujourd’hui, les échantillons terrestres auxquels nous avons accès se réduisent à la croûte et à quelques fragments de manteau portés à la surface au hasard des mouvements convectifs. La composition chimique globale de notre planète reste méconnue et il faut donc utiliser des indices indirects (comme la densité des couches successives, déduite de la propagation des ondes sismiques), complétés par l’étude des météorites. Certaines, appelées chondrites, sont connues pour être les plus primitives et sont donc des témoins du matériel primordial qui a contribué à former les planètes. Parmi elles, les chondrites à enstatite ont une composition isotopique1 exceptionnellement proche de celle de notre planète, ce qui a conduit à les considérer comme la « matière première » dont a été formée la Terre. Néanmoins, notre planète semble appauvrie en silicium et enrichie en magnésium par rapport à ces météorites2. 

Des chercheurs du Laboratoire magmas et volcans (CNRS/IRD/Université Blaise Pascal) proposent pour la première fois un scénario complet permettant d’expliquer ce paradoxe, appuyé par des expériences et des modélisations. Selon eux, les embryons planétaires qui ont formés la Terre avaient bien la composition chimique des chondrites à enstatite, avant que des épisodes répétés de fabrication et d’érosion de croûte terrestre ne lui soustraient de grandes quantités de silicium – laissant un excès relatif de magnésium que nous observons aujourd’hui. 

De précédentes études ont montré que des croûtes différenciées ont pu se former sur les protoplanètes et les astéroïdes quelques dizaines de millions d’années seulement après la formation du système solaire, soit par cristallisation de la surface d’un océan magmatique3, soit par remontée de magmas dans un réseau de fractures (voir schéma, a et b). Dans cette étude, les chercheurs ont reproduit la formation de cette croûte primitive grâce à des expériences de fusion de chondrites à enstatite à différentes pressions. Les liquides produits se sont révélés très riches en silicium et très pauvres en magnésium. La croûte formée à la surface de la planète par la remontée de ces liquides devait donc bien être enrichie en silicium et appauvrie en magnésium par rapport à la Terre dans son ensemble. 

D’autre part, on sait que les impacts météoritiques subis par la Terre dans sa jeunesse ont non seulement conduit à sa croissance, mais ont aussi pulvérisé sa surface. Ces destructions répétées de la croûte terrestre ont pu durer environ 100 millions d’années, avant qu’un impact géant induise la formation de la Lune. Les impacts successifs4 ont donc fait évoluer la composition chimique de la planète, diminuant la proportion globale de silicium et augmentant celle de magnésium (voir schéma, c). En modélisant l’évolution de la composition chimique de la Terre par ce mécanisme, les chercheurs estiment que l’équivalent d’au moins 15 % de la masse actuelle de notre planète a dû être perdu au cours de son accrétion.

D’autres éléments chimiques ont des proportions différentes sur Terre et dans les chondrites à enstatite. La Terre est enrichie en éléments lithophiles5 réfractaires6, tels que l’aluminium ou le calcium et appauvrie en éléments lithophiles volatils, tels que le sodium ou le potassium. Pour expliquer ces divergences, les chercheurs proposent que lors de la vaporisation de la croûte par les impacts entre corps planétaires, les éléments volatils auraient été préférentiellement perdus sous forme de gaz, alors que les éléments réfractaires se seraient à nouveau condensés et seraient retombés sur la planète en formation (voir schéma, d). 

L’ensemble de ce scénario a pu se produire sur la proto-Terre, mais aussi sur tous les corps rocheux qui ont contribué à la croissance de la planète, dès lors qu’ils étaient suffisamment gros pour se différencier et produire de la croûte.

  • © Asmaa Boujibar et Denis Andrault

Les étapes de la différenciation planétaire (ségrégation du noyau, cristallisation de l’océan magmatique et formation de croûte par fusion partielle), suivies de l’érosion par les impacts, ont fait évoluer la composition chimique de la planète.

Ce scénario a pu se produire sur les différents embryons planétaires qui ont contribué à former la Terre.

 
 
  • © Asmaa Boujibar
    Collision d’un corps rocheux avec la Terre primitive, conduisant à la pulvérisation de croûte terrestre.
Notes :
  1. La composition isotopique désigne les proportions de divers isotopes (atomes d’un même élément chimique mais de masses différentes)
  2. A moins de faire l’hypothèse que le noyau contient environ 20 % de silicium (en masse), ce qui est incompatible avec sa densité.
  3. L’énergie accumulée lors d’impacts très puissants peut conduire à la fusion d’une partie du manteau et à la formation d’un océan magmatique. 
  4. Une étude récente montre qu’une planète en croissance subit environ 100 000 collisions (A collisional origin to Earth’s non chondritic composition? Bonsor et al., Icarus, 2015).
  5. Un élément lithophile est un élément ayant des affinités pour la croute et le manteau plutôt qu’avec le noyau.
  6. Un élément réfractaire est un élément qui, contrairement aux éléments volatiles, nécessite de très hautes températures pour se trouver sous forme gazeuse.
 
Références :
Cosmochemical fractionation by collisional erosion during the Earth’s accretion. Asmaa Boujibar, Denis Andrault, Nathalie Bolfan-Casanova, Mohamed Ali Bouhifd, Julien Monteux. Nature Communications, 23 septembre 2015.
DOI: 10.1038/ncomms9295

Et aussi dans les
ressources documentaires :

ENR : De la transition énergétique à la COP21

«  Aujourd’hui, il est certain que les objectifs affichés pour 2020 ne pourront pas être tenus. Au rythme des dernières années, et sur la base d’une consommation énergétique stable, en 2020, les énergies renouvelables représenteront près de 18 % de notre consommation et l’objectif de 23 % ne sera atteint qu’en 2028 », regrette le Syndicat des énergies renouvelables (SER) dans un communiqué.

Mais la loi de transition énergétique pour la croissance verte promulguée le 18 août dernier pourrait changer la donne. Pour ce faire, le SER souligne que les décrets d’application et les arrêtés devront être ambitieux et lisibles. Cela « permettrait de ramener à 2023 l’objectif de 23 % d’énergies renouvelables » et « devrait permettre d’être au rendez-vous de 2030 avec 32 % d’énergies renouvelables ». En 2020, les énergies renouvelables pourront alors représenter au mieux 20 % de notre consommation énergétique.

Des aspects réglementaires à consolider

La programmation pluriannuelle de l’énergie (PPE) doit définir pour chaque filière les objectifs de développement et les trajectoires à attendre pour honorer l’objectif de 2030. Les deux premières périodes couvrent 2016-2018, puis 2019-2023. Le SER demande une vision claire, qui favorise les filières les plus compétitives (éolien et photovoltaïque), sans pour autant oublier les filières émergentes prometteuses (notamment hydrolien et éolien flottant). Selon le syndicat, les zones non connectées au réseau pourraient devenir des territoires expérimentaux incorporant une forte part d’énergies renouvelables. Il recommande que la PPE y fixe des objectifs ambitieux.

Le SER demande d’accélérer encore le développement des énergies renouvelables, notamment en simplifiant et en diminuant le temps d’instruction des demandes d’autorisation. Il demande aussi de diminuer les délais de raccordement des capacités installées au réseau et aimerait voir « des appels d’offres récurrents avec des critères de sélection stables et des volumes stables». Enfin, il demande une exemption des bioénergies de la taxe intérieure de consommation dans la prochaine loi de Finances.

En route pour la COP21 !

La loi de transition énergétique prévoit une vraie taxe carbone en France, faisant passer la tonne de CO2 de 14,5 € aujourd’hui à 100 euros en 2030, en passant par un objectif intermédiaire de 56 euros en 2020. Si le SER se félicite de cette taxe française, il rappelle que pour que la réduction des gaz à effet de serre prévue par le futur accord de Paris en décembre prochain soit effective, il faut tendre vers un prix mondial du carbone. Car le prix des énergies fossiles ne peut pas être l’instrument de régulation d’une politique climatique mondial ; le prix actuel du pétrole et du charbon le confirme. « A défaut d’un accord mondial sur le prix du carbone, un accord au minimum européen constituerait un premier pas », souligne le syndicat.

Une fois l’accord élaboré, chaque pays devra se doter d’une feuille de route précise, notamment sur le développement des énergies renouvelables, avec des objectifs de court, moyen et long terme pour atteindre ses objectifs. « A ces trajectoires doivent être associés les moyens publics nécessaires : financiers, fiscaux, réglementaires, insiste le SER. Ces dispositions apporteront aux entreprises privées la visibilité nécessaire aux décisions d’investissements ».

Par Matthieu Combe, journaliste scientifique

Et aussi dans les
ressources documentaires :

Lifi, l’internet sans fil par la lumière bientôt dans les hôpitaux ?

Cela fait plusieurs années que le LiFi (pour Light Fidelity) existe. Cette technologie relativement peu connue du grand public qui consiste à faire circuler les données d’internet par la modulation d’amplitude de la lumière – traduire par le clignotement des ampoules – jusqu’à un récepteur situé sur un ordinateur, une tablette ou un smartphone; ce dernier étant chargé de décoder l’information envoyée par le lampadaire connecté préalablement au réseau grâce à un câble éthernet. Voilà, pour résumer, c’est ça le Lifi, une connexion internet haut débit sans fil, pouvant aller jusqu’à une dizaine de mètres.

Les atouts et les inconvénients

Présenté comme une technologie innovante et écologique, le LiFi dispose de plusieurs avantages. Du fait de son utilisation du spectre optique, elle évite, contrairement au Wifi traditionnel, les ondes radio, jugées dangereuses selon les points de vue. L’oscillation des LED est certes très importante, mais indécelable par l’oeil humain et n’occasionne donc aucune gène. Ses performances théoriques sont 10 fois plus élevées que le Wifi. Son débit pourrait grimper jusqu’à 1 Gbit/s. Qui plus est, « la bande LiFi est 10.000 fois plus large que la bande Wifi. Ce qui signifie que beaucoup d’utilisateurs peuvent être connectés en même temps à une seule borne ». Enfin, Lucibel invoque aussi un argument de poids : il ne serait pas possible de pirater une connexion LiFi parce qu’elle ne traverse pas les murs, celle-ci reste cloisonnée. La confidentialité des données serait ainsi assurée.

En revanche parmi les défauts, on notera l’obligation de laisser en permanence la lampe en activité sous peine de perdre le signal et sa portée limitée à une dizaine de mètres. Des défauts qui devraient dissuader les particuliers, ce qui n’est pas vraiment gênant dans la mesure où cette solution est clairement prévue pour les entreprises ou les sites sensibles types banques, crèches ou hôpitaux.

Présentation du premier prototype et annonce de son industrialisation

Le projet a aujourd’hui atteint une certaine maturation et il semble qu’une étape supplémentaire ait été franchie. Alors qu’auparavant on ne connaissait que la version unidirectionnelle bas débit, Lucibel, l’entreprise en charge du développement de cette technologie, a récemment fait la démonstration d’un luminaire LiFi bidirectionnel haut débit dans les locaux du promoteur immobilier Sogeprom (filiale de la Société Générale) à La Défense, en s’en servant pour communiquer via Skype. Le prototype était en test depuis juin 2015 dans quelques salles de réunion de Sogeprom.

La PME a toujours déclaré que l’éclairage n’était pas sa seule compétence mais qu’elle se destinait également à ouvrir une nouvelle voie dans la transmission de données, que ce soit dans les musées, ou dans les entreprises en apportant Internet. Cela a toujours été son crédo, une façon de se démarquer de la concurrence. Lucibel ne perd pas de vue son objectif. La start-up aurait d’ores et déjà commencé l’industrialisation du premier ensemble lampadaire/récepteur/émetteur. Quant à la commercialisation, elle devrait entrer en phase active à un moment en 2016.

Par Sébastien Tribot

Et aussi dans les
ressources documentaires :

Les salades contiennent-elles trop de pesticides ?

Générations Futures a acheté 31 salades dans les départements de l’Oise et de la Somme et les a fait analysées par le laboratoire belge Primorise, agréé par les autorités françaises. L’étude comprend 9 laitues, 8 feuilles de chênes, 5 frisées, 4 batavias, 3 scaroles et 2 roquettes. 29 sont d’origine Française, une provient d’Espagne et la dernière vient d’Italie.Sur les 31 échantillons analysés, 25 contiennent au moins un résidu de pesticide et 21 contiennent au moins un résidu de pesticide suspecté d’être perturbateur endocrinien. Seuls 6 salades ne contiennent aucun résidu. En moyenne, les échantillons testés contiennent un peu plus de 4 résidus de pesticides chacuns, dont 2 résidus perturbateurs endocriniens. Une salade en contenait même dix.
Ces résultats portent sur un nombre faible d’échantillons pour permettre de les généraliser à l’ensemble des salades vendues en France. Mais ils corroborent ceux de la Direction Générale de la Concurrence, de la Consommation et de la Répression des Fraudes ( DGCCRF) et de l’EFSA , l’autorité européenne de sécurité des aliments. En effet, le plan de surveillance de la DGCCRF publié en 2013 montre la présence de résidus de pesticides dans près de 58 % des échantillons de salades testés. De plus, selon un rapport de l’EFSA portant sur plus de 1000 salades, 36 % des échantillons contenaient plusieurs résidus, de 2 à 13.
De quelles quantités parle-t-on? Des LMR respectées mais un effet cocktail possible
L’ensemble des résidus détectés ont été comptabilisés, que les concentrations soient inférieures ou non aux limites de quantification. Dans un communiqué altertant sur une manipulation de Générations Futures, le collectif de producteurs Sauvons les Fruits et Légumes de France dénonce « la vaste manipulation que constitue cette pseudo-enquête », « l’oubli du cuivre » largement utilisé en agriculture biologique, et le fait que l’ONG « n’avance strictement aucun chiffre ».

Mais des chiffres, il y en a. Et Générations Futures a conscience des limites de son étude. « Nous n’avons relevé aucun dépassement des Limites Maximales Autorisées (LMR) dans les échantillons testés, reconnaît l’ONG. Si nous notons cet aspect positif, il est important de prendre en compte que les LMR, pour de nombreux pesticides sur salades, sont très élevées».

Les chiffres sont là : « La teneur en résidus de pesticides (hors ion bromure) par kilo d’échantillon est en moyenne de 0,549 mg/kg par échantillon, avec un maximum à 4,467 mg/kg pour un échantillon», avance l’ONG. Ces valeurs sont loin d’être négligables. Les LMR sont définies sur la base d’un risque retenu pour la population générale. Mais dans certains cas de consommation importante, des populations à risque peuvent être exposées à des quantités non négligeables de pesticides. Par exemple, l’ONG rappelle que la LMR du boscalid, substance active fréquemment retrouvée dans les échantillons analysés est de 30 mg/kg pour la laitue, mais de 5 mg/kg pour le poireau, 2 mg/kg pour la carotte et 0,05 mg/kg pour l’asperge.

Au-delà des concentrations mesurées, l’association s’inquiète surtout du nombre de résidus différents retrouvés et de leur possible effet « cocktail ». Car en mélange, même à de faibles doses, des molécules peu ou pas toxiques, prises isolément peuvent avoir des effets délétères une fois associées. Les LMR ne prennent pas en compte ces effets et ne s’appliquent que substance, par substance.

Des pesticides interdits

Deux échantillons contiennent une ou plusieurs substances actives interdites et trois des substances interdites d’usage sur salade en France. L’un de ces 3 échantillons contient même 2 substances interdites d’usage sur salade en France (mandipropamid et imidaclopride). La présence de DDT dans 2 échantillons est certainement liée à la persistance de ce produit dans le sol, note Générations Futures.
« La présence de pesticides interdits en Europe ou sur la culture de la salade dans plus de 16% des échantillons testés est inacceptable, s’indigne François Veillerette, porte-parole de Générations Futures. Là encore, nous attendons une action forte du Gouvernement qui doit faire rapidement cesser cette situation, sur cette culture et sur toutes les autres », en faisant appliquer les réglementations européennes et nationales existantes, tant sur les pesticides que sur les perturbateurs endocriniens.

Générations Futures dénonce le retard de la Commission européenne sur la question des perturbateurs endocriniens qui sont contenus dans de nombreux pesticides autorisés. Alors qu’une définition européenne des perturbateurs endocriniens devait être retenue en 2013, les travaux ont été reportés en attendant que soit rendue une étude sur l’impact socio-économique de l’interdiction de ces substances.
Avec 5 kg par an et par ménage selon l’INSEE, la salade est le quatrième légume le plus consommé en France. La France en produit chaque année un peu plus de 250 000 tonnes.

Par Matthieu Combe, journaliste scientifique

Et aussi dans les
ressources documentaires :

Pour la première fois en France, une hydrolienne est raccordée au réseau électrique

« Cette première en France pour tout type d’hydrolienne, fluviale, marine ou encore estuarienne, ouvre de nouvelles perspectives de développement en France et à l’international à HydroQuest pour ses technologies à fort potentiel énergétique et environnemental », a indiqué l’entreprise dans un communiqué.

Avant d’être raccordée au réseau de distribution d’ERDF et d’alimenter en électricité une soixantaine de foyers, l’hydrolienne fabriquée en France avait été testée grandeur nature pendant dix mois, arrimée à une barge flottante amarrée au fond du fleuve. Elle est composée de deux turbines hydrauliques à axe de rotation vertical d’une puissance nominale de 40 kilowatts (kW).

« Suite à la réussite de ce projet, HydroQuest a pour objectif d’implanter à travers le monde des parcs de plusieurs dizaines de machines permettant d’alimenter en électricité des dizaines de milliers de personnes », selon le communiqué.

Lors du lancement de la phase de test en novembre 2014, l’entreprise avait dit tabler, en cas de validation du projet, sur la fabrication de 300 à 500 machines par an d’ici à 2020, ce qui représenterait la création d’une centaine d’emplois en France.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Au rythme actuel, la France manquera son objectif de 23% d’énergies renouvelables en 2020

« Aujourd’hui, il est certain que les objectifs affichés pour 2020 ne pourront pas être tenus », a pointé le SER, principale organisation professionnelle du secteur, dans un communiqué.

« Au rythme des dernières années, et sur la base d’une consommation énergétique stable, en 2020, les énergies renouvelables représenteront près de 18% de notre consommation et l’objectif de 23% ne sera atteint qu’en 2028 », a-t-il ajouté.

Il serait cependant possible de ramener cette échéance à 2023 « si, et seulement si » la loi de transition énergétique promulguée le 18 août s’accompagne « de textes réglementaires ambitieux et lisibles », a estimé le SER.

« Ce rythme prolongé devrait permettre d’être au rendez-vous de 2030 avec 32% d’énergies renouvelables, le tout dans un contexte de maîtrise de la consommation énergétique », a-t-il souligné.

L’organisation professionnelle préconise notamment de simplifier davantage encore la mise en oeuvre des installations de production d’énergies renouvelables, entre autres en accélérant l’instruction des dossiers de demande d’autorisation.

Elle plaide aussi pour une Programmation pluriannuelle de l’énergie (PPE) – un texte réglementaire déclinant les objectifs de la loi par type d’énergie – ambitieuse concernant la montée en puissance des différentes filières renouvelables (solaire, photovoltaïque, etc.), ainsi que pour une accélération des raccordements des installations de production d’électricité renouvelable.

Enfin, pour le SER, il faut confirmer dans la loi de finances l’exemption des bioénergies de la taxe intérieure de consommation et stimuler le recours aux énergies renouvelables dans le bâtiment.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

La glace de feu : énergie de demain pour le Japon ?

En mars 2013, l’hydrate de méthane avait été pour la première fois extrait du fond marin avec succès grâce à une méthode de dépressurisation. De cette extraction, 120 000 m3 de méthane avaient pu être produit.

Ces nouveaux tests, qui devraient durer environ 1 mois, se feront suite à cette réussite au large des côtes des préfectures de Mie et Aichi car la zone est soupçonnée de renfermer une quantité d’hydrate de méthane pouvant couvrir les besoins japonais en gaz sur une décennie.

Les nouvelles technologies qui seront mises en place pour réaliser les tests de 2016 mettront notamment en place une méthode de fortification avec de la résine afin d’éviter que les dépôts soient contaminés par du sable comme lors des tests de 2013. La vitesse de dépressurisation devrait également être affinée.

Sources :

Et aussi dans les
ressources documentaires :

L’installation de réseaux de communication quantique

La communication quantique repose sur la technologie de distribution de clés quantiques (QKD) ; les données sont chiffrées via des clés de cryptage véhiculées par des particules quantiques comme des photons polarisés. L’utilisation de photons pour faire circuler l’information permettrait des échanges de données à haute vitesse et pourrait être utilisé à travers les infrastructures de fibre optique existantes. La tentative d’interception de la clé encryptée est révélée par un changement de comportement de cette dernière via la modification de manière imprévisible de l’état quantique des photons polarisés. La détection de cette modification d’état par les modules de surveillance de flux de données rend ce dispositif inviolable.

L’Académie des Sciences Chinoise (CAS) et l’Université de sciences et technologie de Chine (USTC) dans le Hefei ont mené de nombreuses recherches sur le sujet et auraient déjà effectué des expériences dans le nord-ouest de la Chine en vue de déployer des infrastructures de grande envergure sur le territoire.

Initié en 2014 par des scientifiques chinois de l’USTC, un projet de réseau de communication quantique allant de Pékin à Shanghai et s’étendant sur près de 2000 km devrait être finalisé courant 2016. Par ailleurs, le pays serait en capacité d’effectuer prochainement le lancement d’un satellite équipé d’un système de communication quantique et ainsi d’être un précurseur dans le déploiement de ce type de technologie dans l’espace.

Compte tenu du coût d’installation estimé à 10 000 Yuans (1 430 Euros) par utilisateur, la technologie devrait être utilisée dans un premier temps pour la transmission de données sensibles des instances gouvernementales, financières et militaires chinoises. Les gouvernements européens, canadiens et américains sont aussi sur le point de lancer leurs projets de satellite de communication quantique. Cette technologie, par principe très sure, représente un espoir sérieux contre le cyber-espionnage.

Source : diplomatie.gouv.fr

Et aussi dans les
ressources documentaires :

Le rasoir laser débarque en mars 2016 !

Au premier coup d’oeil, le rasoir Skarp ressemble à tout autre. Mais à y regarder de plus près, il est bien révolutionnaire ! Il s’agit du premier rasoir laser au monde. Finies les lames, place à un faisceau laser haute précision de basse énergie.

Ce rasoir repose sur une découverte faite par Morgan Gustavsson et Paul Binun. Morgan Gustavsson n’en est pas à son premier coup d’essai : il est notamment l’inventeur de la la lumière intense pulsée, aujourd’hui utilisée pour l’épilation définitive ou pour traiter les taches pigmentaires. En 2013, les deux inventeurs identifient dans les poils un chromophore (une molécule pigmentaire) commun à tous les humains. Quels que soient l’âge, le sexe ou la couleur de peau, que les poils soient clairs, foncés, longs ou courts, ce chromophore réagit à la même longueur d’onde lumineuse.

En réglant le laser du Skarp sur cette longueur d’onde, les chromophores se brisent et n’importe quel poil est rasé net de façon instantanée.

Le laser révolutionne le rasage

Conçu par la start-up californienne Skarp Technologies, ce rasoir présente de nombreux avantages : il met fin aux coupures, aux rougeurs, tout en permettant un rasage rapide de précision. « La longueur d’onde que nous utilisons n’émet pas d’UV, assurent les inventeurs. La puissance du laser est trop faible pour causer des dommages. Mais plus important encore, le laser ne pénètre pas dans la peau, il ne pénètre que dans les poils. Il n’y a donc absolument aucun risque de développer des complications ou une blessure ».

Etanche, il peut être utilisé sous la douche. Du côté environnemental, les inventeurs vantent les économies d’eau, la diminution des déchets et de la pollution. La généralisation de ce produit éviterait la consommation de milliards de rasoirs et lames non recyclables, signerait la fin de la mousse à raser, des crèmes et autres cires épilatoires

Pour le moment, le rasoir est alimenté par une pile AAA lui fournissant une autonomie d’environ un mois, mais les inventeurs déclarent travailler sur des sources de batterie alternatives. Point d’obsolescence programmée à l’horizon : le laser aurait une durée de vie de 55 000 heures, soit plus qu’une ampoule LED !

Ce rasoir reçoit un accueil flamboyant sur Internet. Présenté le 21 septembre sur le site de financement participatif Kickstarter avec un objectif initial de 160 000 dollars pour lancer la production, le projet a déjà recueilli près de 3 millions de dollars en quelques jours ! Le financement reste ouvert jusqu’au 19 octobre. Il est possible de se procurer un Skarp au prix de 189 dollars (environ 169 euros), livraison prévue en mars 2016.

  • Découvrir le Skarb en vidéo

Par Matthieu Combe, journaliste scientifique

Et aussi dans
les bases documentaires :

Lunettes connectées : la réalité augmentée débarque au travail

La réalité augmentée débarque dans les entreprises. De la restauration aux transports, de la police aux agents d’accueil, en passant par les conseillers bancaires ou les pilotes d’avion, serons-nous tous un jour munis de lunettes connectées au travail ?

kfc475

En mars 2015, Google admettait avoir échoué dans son projet de Google Glass grand public – les lunettes étaient trop chères (1.500 dollars), et leur côté trop invasif a été mal accepté par certains. Cinq mois plus tard, l’entreprise a pourtant relancé, discrètement, ses lunettes connectée. Mais pour les entreprises.

Google fait en effet le pari que ses lunettes seront utilisées ailleurs – dans la médecine et la chirurgie, dans la maintenance industrielle et dans le secteur de l’énergie. La firme prévoit d’en vendre 10 millions d’exemplaire par an, d’ici à 2018, dans le secteur de l’entreprise. A croire qu’un jour, nous serons tous munis de lunettes connectées au travail.

Chirurgiens 2.0 et contrôleurs augmentés

A commencer par la restauration rapide. La chaîne de restaurants KFC fait figure de pionnier : certains de ses employés sont désormais formés à l’aide de Google Glass, qui leur montrent, étape par étape, comment faire un sandwich, ou comment éteindre une friteuse. Résultat : une formation plus rapide, et un coût de formation qui devrait être réduit d’une dizaines de millions d’euros – si la technique était déployée dans les 8000 restaurants de l’entreprise. Dans les pas de KFC, la chaîne Taco Bell prévoit aussi d’utiliser les Google Glass pour former ses employés.

signs475(1)

Les Google Glass sont aussi en passe de devenir le nouveau gadget des chirurgiens, dans le cadre de la télémédecine. Ainsi, dans les hôpitaux suisses et américains, des chirurgiens filment déjà leurs interventions grâce à des Google Glass. A l’autre bout du monde, d’autres médecins, ou des étudiants, tous munis de lunettes connectées, assistent aux opérations en direct. Pendant que le chirurgien saisit un scalpel, défile sous les yeux du chirurgien débutant, un message s’affiche : “incision imminente”. Les confrères du spécialiste, plus chevronnés, peuvent, eux, donner des conseils et assister leur collègue.

Du côté des transports, les Google Glass pourraient donner naissance à des “contrôleurs augmentés”. A la SNCF, un projet (testé durant l’automne 2014) devrait être généralisé : l’utilisation par les agents iDTGV, de lunettes connectées pour valider les billets de train et identifier les passagers. Pratique pour valider les billets de train et pour identifier les passagers : il suffit en effet de “scanner le ticket” en le regardant. Puis apparaissent devant les yeux, le nom de l’usager, son numéro de siège, et son anniversaire.

Banquiers et policiers robocop

Les Google Glass sont aussi le nouveau graal des conseillers bancaires. La Banque populaire teste ainsi une application pour ses conseillers dans l’Ouest de la France. Munis de Google Glass, ces derniers accueillent les clients en voyant s’afficher sur leurs écrans des informations personnalisées (identité, comptes ou dernière visite). Il s’agit ainsi de reconnaître plus rapidement les clients, afin de « personnaliser davantage la relation ». Les lunettes s’adaptent ensuite aux demandes. Dans le cas de l’achat d’une voiture d’occasion, la cote de l’Argus sera immédiatement indiquée au conseiller, puis les lunettes calculeront un taux de crédit. Enfin, le conseiller verra s’afficher des propositions de contrats d’assurance.

google475

 

Reste la police et les pompiers, qui font déjà, partout dans le monde, usage des Google Glass lors de leurs actions de terrain. Les policiers de Dubaï et de New-York portent ainsi les lunettes connectées de Google pour enquêter : grâce aux Glass, ils peuvent contrôler les plaques d’immatriculation, comparer des noms et des visages de suspects dans une base de données, consulter rapidement un casier judiciaire (par exemple, lors d’une garde à vue), ou filmer une arrestation. Des applications de reconnaissance faciale (FaceRec, NameTag) ou vocale pourraient même, un jour, leur permettre d’identifier le visage ou la voix d’un individu – mais Google s’oppose pour l’instant à l’utilisation de telles applications.

Chez les pompiers, les Google Glass ont été testées (avec succès) par un américain, Patrick Jackson. Développeur amateur, ce soldat du feu a imaginé une application qui permet d’accéder aux plans d’une maison, ou encore de repérer les bornes à incendie les plus proches lors d’une intervention.

Chantiers BTP intelligents

Mais Google n’est pas le seul à se lancer dans ce domaine. La réalité augmentée et la réalité virtuelle intéressent de nombreuses autres sociétés, qui proposent leurs créations à d’autres secteurs de l’industrie.

Ainsi, dans le BTP, Atheer a conçu des casques de sécurité à réalité augmentée, qui permettent de visualiser des plans de construction, ou d’envoyer des mails aux collègues. La startup californienne Daqri a aussi conçu un mélange de lunettes connectées et de casques de chantier – le “Smart Helmet”, qui affiche en direct des informations utiles à l’ouvrier. Pour mieux travailler (grâce à des plans de construction en 3D, à la vidéo et à l’envoi d’e-mails), et pour préserver sa sécurité, grâce à la vision à 360 degrés.

virgin475

De son côté, Mitsubishi Electric teste une application de réalité augmentée, conçue par Metaio, sur les lunettes “intelligentes” Moverio, d’Epson. Grâce à cette appli, les techniciens chargés de la maintenance des climatisations sont assistés en temps réel par leurs lunettes, lors de leurs interventions. Sur leur écran, s’affichent ainsi des représentations 3D (des flèches virtuelles et des pictogrammes) qui les aident par exemple à retirer un ventilateur, ou à le réparer.

Enfin, la réalité augmentée profite déjà à l’aviation civile. Ainsi, des constructeurs testent-ils des lunettes connectées pour les agents de maintenance des avions. A Londres, Virgin Atlantic a ainsi équipé, le temps d’un test, ses techniciens de lunettes Sony SmartEyeglass. Objectif : améliorer la communication et la collaboration en temps réel entre les équipes de mécaniciens et les agents de maintenance, notamment grâce au partage de photos et de vidéos, lors d’une réparation.

Des “supers” pilotes d’avion

A noter que Virgin Atlantic a aussi équipé, à London Heathrow, son personnel chargé des passagers “Upper class”, de Google Glass. La compagnie aérienne a ainsi testé l’utilisation par ses employés de fonctions permettant de commencer l’enregistrement des voyageurs Business dès leur sortie de leur véhicule, de leur fournir les dernières informations sur le vol, la météo, ou des renseignements sur leur destination. Pour un service encore plus personnalisé, les salariés devraient pouvoir consulter, dans un futur proche, des informations sur les préférences culinaires et les régimes des passagers.

Mais les lunettes de réalité augmentée peuvent aussi être utilisées par les pilotes de ligne. Ainsi, une application pour Google Glass et Epson Moverio, “Aero Glass” (encore en mode bêta test) devrait bientôt permettre aux pilotes de visualiser la topographie, les reliefs et les couloirs de navigation. L’application devrait leur permettre de disposer d’informations sur le trafic aérien et sur la météo. En outre, ils pourront aussi consulter les documents de leurs aéronefs sans quitter leur “route” des yeux, et détecter des obstacles

Vidéo – A quoi ressemblera le robot de compagnie ?

Dans la science-fiction, les robots sont déjà là. Ils ont précédé la science. Mais bientôt ils feront bel et bien partie de notre quotidien. Du robot ménager à l’assistant personnel, chaque foyer accueillera plusieurs robots. Dans le domaine de la santé, les possibilités offertes par cette nouvelle génération d’infirmiers font rêver les spécialistes.

Laurence Devillers, experte en robotique, est intervenue lieu lors des « Coups de théâtre de la santé » le 12 septembre 2015, journée consacrée à l’avenir de la santé organisée par S3 Odéon, un événement dédié au futur de la santé dont l’objectif est de donner au public les clés pour comprendre les (r)évolutions en cours et pour soutenir les dernières innovations.

Laurence Devillers est professeure à la Sorbonne et docteure en informatique. Cette experte en robotique mène ses recherches au CNRS sur la communication entre l’Homme et la Machine, le traitement automatique de la parole et la détection des émotions dans les interactions. Elle est membre exécutif de l’Association for the Advancement of Affective Computing, qui regroupe des chercheurs du monde entier dans le champ de l’informatique affective et de la relation Homme/Machine. Elle est à l’origine du projet inédit Romeo 2 : il s’agit d’un robot, assistant médicalisé, qui sert à rompre la solitude entre les seniors et les familles qui ne peuvent se rendre dans les centres spécialisés.

Recherche d’emploi : pourquoi vous n’avez pas intérêt à snober les petites entreprises

Les cadres préfèrent les grandes entreprises : EDF, Total, Sncf, Google… Mais les postes à pourvoir dans les sociétés de plus de 500 salariés se font de plus en plus rares. Depuis 3 ans, le nombre de postes dits vacants – libres ou occupés sur le point de se libérer et pour lesquels l’employeur cherche à recruter à l’extérieur – diminue dans les entreprises de 10 salariés et plus… et progresse dans celles comptant 1 à 9 personnes. Par exemple, au 4e trimestre 2013, on comptait 63 200 postes à pourvoir dans les entreprises de plus de 10 salariés, sur les 138 900 emplois vacants à l’époque. Les 75 700 postes restants se trouvaient dans les entreprises de moins de 10 salariés.

1 poste vacant sur 2 se trouve dans une petite entreprise

Selon l’Acoss, les très petites entreprises (TPE) sont les seules à avoir embauché plus qu’elles n’ont détruit de postes entre le 2e trimestre 2014 et le 2e trimestre 2015. Les autres indicateurs de conjoncture incitent à penser que la tendance va durer, notamment l’augmentation des investissements chez les PME constaté par Bpifrance le 5 août dernier et le récent rebond des créations d’entreprises enregistré par l’Insee. Sans compter la nouvelle prime à l’embauche du premier salarié pour les TPE, annoncée par le Premier ministre le 9 juin dernier, qui devrait inciter les petites sociétés à recruter.

Quid de la qualité des postes à pourvoir ?

Sauf que les petites entreprises n’embauchent pas comme les  grandes. Elles recrutent pour répondre à un besoin urgent, et pas forcément pour remplacer un salarié parti ou prêt à quitter son poste. C’est pourquoi elles embauchent de plus en plus en contrats courts. La part des recrutements sous contrats de moins d’un mois est passée de 70 % en 2008 à 85 % en 2015. « Et, si le candidat idéal n’est pas trouvé rapidement, les petites entreprises se tournent vers d’autres solutions pour répondre aux besoins de leurs clients : sous-traitance, cotraitance, etc. », comme nous le disait Jean-Marie Pottier, vice-président national en charge de la formation, de l’éducation et de l’emploi à la Confédération générale des petites et moyennes entreprises (CGPME).

S’il sera de plus en plus difficile de faire l’impasse sur les petites entreprises dans une recherche d’emploi, il ne faudra pas s’attendre à y trouver un CDI. À moins de bien choisir sa petite entreprise, en ciblant, par exemple, les « pépites » à fort potentiel.

Par Elodie Buzaud

Source :

Accélérateur de carrière pour les cadres et les dirigeants, Cadremploi propose chaque jour des milliers d’offres d’emploi, des services et des conseils d’experts sur le marché du recrutement.

Et aussi dans les
ressources documentaires :

Carrière : tout se joue les 10 premières années

Pas de temps à perdre. Désormais, en matière de carrière, tout se joue avant 10 ans… d’expérience professionnelle. C’est l’Organisation de coopération et de développement économiques (OCDE), qui l’indique, dans son dernier rapport, Perspectives de l’emploi 2015, dévoilé le 9 juillet. Ceux qui ont des débuts de parcours difficiles risquent de passer à côté de leur carrière.

Des difficultés d’insertion qui n’annoncent rien de bon

Avec un taux de chômage très élevé (10,3 % de la population active au 1er trimestre 2015 et 24,7 % chez les jeunes), trouver un emploi n’est déjà pas facile pour les personnes avec de l’expérience. « Certains travailleurs expérimentés qui ont perdu leur emploi pendant la crise éprouvent toujours des difficultés à remettre leur carrière en marche, écrit Stefano Scarpetta, directeur du département emploi, travail et affaires sociales de l’OCDE, en introduction. Par exemple, certains de ceux qui ont perdu leur emploi dans les secteurs de l’industrie et de la construction ont besoin de faire un changement de carrière dans les services ou d’adapter leurs compétences s’ils ne veulent pas être exclus du marché de l’emploi. »

Alors trouver un emploi quand on est jeune, et inexpérimenté, est encore plus compliqué. C’est pourquoi, si en plus, on cumule avec une longue période sans activité (qui éloigne encore plus du marché de l’emploi), on réduit considérablement ses chances de grimper l’échelle sociale. D’autant plus, si l’on accepte des contrats précaires, sans rapport avec sa formation.

Des millions de jeunes concernés

Mais il faut bien vivre… L’OCDE en est consciente. C’est pourquoi elle livre aussi ses préconisations, pour éviter que des millions de jeunes soient exclus du marché de l’emploi. Parmi elles : renforcer le contrôle des chômeurs. Et vite. « Le temps presse pour empêcher que les séquelles de la crise ne deviennent permanentes et que des millions de travailleurs ne se retrouvent piégés au bas de l’échelle économique », ajoute Angel Gurría, secrétaire général de l’OCDE, lors de la présentation du rapport à Paris.

Par Elodie Buzaud

Source : 

Accélérateur de carrière pour les cadres et les dirigeants, Cadremploi propose chaque jour des milliers d’offres d’emploi, des services et des conseils d’experts sur le marché du recrutement.

Et aussi dans les
ressources documentaires :

Les cadres, premières victimes de la fin des 35 heures ?

On s’imaginait les Français arrimés à leurs 35 heures comme l’Hermione à son port d’attache. Et les politiques de tous bords paralysés à la seule idée de les supprimer ; ces derniers redoutant la réaction des premiers. Pourtant, selon un sondage CSA réalisé pour Les Echos, Radio Classique et le très libéral Institut Montaigne, les salariés de l’Hexagone sont majoritairement favorables à un assouplissement du temps de travail hebdomadaire.

À condition que l’entorse se fasse avec leur accord. Au travers d’un accord d’entreprise, donc. Bien sûr, les réponses diffèrent selon que les sondés votent Républicains ou PS. À droite, ils sont favorables à cette évolution pour 83 % d’entre eux. Mais, plus étonnamment, 69 % des sympathisants de gauche le sont aussi. On peut comprendre cette majorité de salariés, loin d’être rassurés par l’état actuel de l’économie du pays et de ses entreprises. L’une et les autres n’étant pas vraiment tirées d’affaire et sorties d’une crise qui n’en finit pas de résister. Des salariés qui accepteraient donc volontiers de travailler un peu plus, pas pour gagner plus, mais pour sauver leur emploi.

En revanche, ce calcul logique ne s’applique pas aux cadres. Travailler plus ? Ils le font déjà. Au forfait jour, ils dépassent très allègrement les 35, voire 40 heures hebdomadaires. Pour eux, la seule compensation depuis l’instauration des lois Aubry en 2000 tient en 3 lettres : RTT, ces jours de congés  supplémentaires qui font passer la pilule des horaires à rallonge. Rien d’étonnant, donc, à retrouver nos cols blancs parmi les plus circonspects quant à la modification du texte. Pour autant, ils sont 58 % – une majorité, même si elle est moins massive que chez les ouvriers et les employés – à être favorables à cette évolution. Comme quoi, même si les cadres n’ont strictement rien à gagner dans cette opération, ils savent que l’intérêt de leur boîte va parfois à l’encontre de leur intérêt particulier.

Par Sylvia Di Pasquale

Source : 

Accélérateur de carrière pour les cadres et les dirigeants, Cadremploi propose chaque jour des milliers d’offres d’emploi, des services et des conseils d’experts sur le marché du recrutement.

 

Et aussi dans les
ressources documentaires :

Les emballages à base de champignons sonneront-ils la fin des emballages en polystyrène ?

Elle utilise le mycélium, la partie végétative des champignons, dont le rôle dans la nature n’est plus à faire. Lui qui enrichit le sol en se décomposant et aide certaines plantes à se nourrir grâce à ses sécrétions d’enzymes ou à ses relâchements de dioxyde de carbone.

Pour fabriquer ces emballages écologiques, l’entreprise new-yorkaise intègre le mycélium dans un mélange d’eau, de nutriments et de déchets issus de l’agriculture locale, tels que de la paille ou des graines de coton. Ce mélange qu’elle dispose dans un moule est ensuite placé quatre jours dans l’obscurité. Durant cette période, les milliers de fibres du mycélium se développent – et servent de liant à l’ensemble – jusqu’à prendre la forme du moule qui a préalablement été défini. On lui fait alors subir un traitement thermique pour stopper sa croissance. On obtient ainsi un produit naturel.

Il s’agit probablement, à ce jour, de l’alternative la plus séduisante pour remplacer les traditionnels matériaux synthétiques polluants qui encombrent nos décharges. Les avantages des matériaux à base de champignon conçus par Ecovative sont nombreux : leur impact environnemental est faible puisqu’ils s’avèrent biodégradables et compostables, ils nécessitent moins d’énergie lors de la production, ils sont économiquement compétitifs et il s’agit d’une ressource abondante dans la nature. Qui plus est, sa production peut être facilement maîtrisée par l’homme.

Ce type de produit est en demande croissante. En tant que citoyens, nous nous soucions bien plus de l’environnement qu’auparavant. Les consciences ont évolué – nous savons que nous avons tous un rôle à jouer – et aujourd’hui, de nombreuses sociétés partout dans le monde agissent pour préserver notre écosystème, comme c’est le cas pour Ecovative.

Quelques mots sur Ecovative

La société Ecovative Design, fondée par Eden Bayer et Gavin McIntyre, a basé son activité sur le développement des emballages écologiques. L’idée a germé en 2007, alors que les deux hommes étudiaient à l’institut polytechnique Rensselaer de New York. « Depuis 2008, l’entreprise est indépendante et s’agrandit d’année en année ». Elle compte aujourd’hui 65 membres (scientifiques, designers, développeurs…) et poursuit avec ses recherches son ambition de faire de notre monde, un meilleur lieu de vie.

Pour la suite, Ecovative entend développer d’autres produits à base de champignon : « emballage donc, isolation dans la construction, équipement automobile, structures biocomposites ». Elle escompterait même construire une maison à base de champignon. Voilà qui est dit.

Par Sébastien Tribot

Et aussi dans les
ressources documentaires :