Les surfaces OGM mondiales en hausse de 6 millions d’ha en 2014

« Avec l’arrivée du Bangladesh, un total de 28 pays ont cultivé des OGM au cours de l’année 2014 », dont « 20 pays en développement (en comptant le Brésil et l’Argentine) et six pays industrialisés, représentant plus de 60% de la population mondiale » affirme l’Isaaaa (International service for the acquisition of agri-biotech applications).

« Le nombre total d’hectares (OGM) a été multiplié par plus de cent depuis les premières plantations d’OGM » en 1996 relève l’auteur du rapport et fondateur de l’Isaaa, Clive James, cité sur le site de l’association .

Les Etats-Unis restent largement en tête avec 73,1 millions d’ha dédiés aux OGM, en hausse de 4% sur l’année, devançant le Brésil qui comptait 42,2 millions d’ha (+5%) et l’Argentine, 3e avec 24,3 millions d’ha.

Aux Etats-Unis comme au Brésil, c’est le soja qui a justifié ce développement. Avec l’Argentine et le Canada, ils représentent près de 84% des surfaces plantés en OGM dans le monde.

En Asie, l’Inde a connu la plus forte croissance et compte désormais 11,6 millions d’ha (autant que le Canada); en revanche l’Union européenne reste à l’écart avec moins de 0,1% de ses surfaces agricoles utiles.

Depuis 1996, plus d’une dizaine de cultures génétiquement modifiées, alimentaires et fibres, ont été approuvées et commercialisées dans le monde – maïs, soja ou coton, et fruits ou légumes comme la papaye, l’aubergine ou la pomme de terre.

Les partisans des OGM font valoir leurs qualités de résistance à la sécheresse, aux insectes et aux maladies.

Le rapport complet est disponible en ligne sur le site www.isaaa.org.

Pour le site Inf’OGM, hostile aux cultures génétiquement modifiées, « le nombre des pays qui cultivent des OGM stagne (29 pays en 2010 contre 28 en 2014) » indique-t-il.

« La Suède, la Pologne, l’Allemagne et l’Égypte ont quitté le navire ; tandis que Cuba, le Soudan et le Bangladesh l’ont rejoint » poursuit-il en notant que « 120 agriculteurs bangladais ont cultivé 12 hectares avec une aubergine GM bt (génétiquement modifiée, NDLR) soit 0,1 ha par agriculteur ».

« L’aubergine Bt est d’ailleurs la seule nouvelle espèce qui a passé le stade de la culture en 2014 : soja, maïs, coton et colza restant très largement majoritaires », note Inf’Ogm pour qui « l’analyse de ce rapport prouve que l’engouement pour les OGM ne redémarre pas. Si les maïs et soja transgéniques ont été adoptés rapidement sur le continent américain, les autres plantes stagnent et les autres continents restent globalement prudents, pour ne pas dire hostiles, à cette technologie ».

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Des substances chimiques dans les plastiques liées à une ménopause précoce

Des femmes qui présentent des niveaux élevés de substances chimiques contenues dans des plastiques, produits de beauté et d’entretien sont ménopausées deux à quatre ans plus tôt que celles présentant des niveaux plus faibles de ces éléments, selon une étude américaine publiée mercredi.

Ces chercheurs ont examiné les niveaux dans le sang et dans l’urine de 111 produits chimiques soupçonnés d’interférer avec la production naturelle et la distribution d’hormones dans l’organisme.

Plusieurs études beaucoup plus limitées avaient déjà mis en lumière la relation entre des perturbateurs endocriniens et la ménopause.

Mais cette étude conduite entre 1999 à 2008 sur 1.442 Américaines ménopausées est la première d’une telle ampleur à explorer la corrélation entre la ménopause et chacune de ces 111 substances chimiques. Aucune de ces femmes ne suivait d’hormonothérapie et n’avait subi une ablation des ovaires. Leur âge moyen était de 61 ans.

L’étude est publiée en ligne dans la revue scientifique américaine PLOS ONE.

Quelque 15 produits ont été associés de manière significative à une ménopause précoce et à un déclin de l’activité ovarienne.

Parmi eux on trouve 9 polychlorobiphényles (PCB), trois pesticides, deux phtalates: autant de produits utilisés dans les plastiques, détergents, produits pharmaceutiques, lotions, parfums, maquillage, vernis à ongles, savons liquide ou encore laques à cheveux.

« Nos résultats suggèrent que la société devrait s’en inquiéter », met en garde le Dr Amber Cooper, professeur adjointe de gynécologie à la faculté de médecine de l’Université Washington à St Louis (Missouri), principal co-auteur.

Un déclin de l’activité de l’ovaire peut non seulement affecter la fertilité mais aussi conduire notamment au développement précoce de maladies cardiovasculaires, d’ostéoporose, soulignent ces chercheurs.

Ces derniers citent également d’autres études qui ont établi une corrélation entre ces substances chimiques et certains cancers, des dysfonctionnements du métabolisme et la puberté précoce chez les filles.

« Il est souvent difficile d’éviter d’être exposé à ces produits chimiques car ils sont dans le sol, l’eau et l’air », relève le Dr Cooper. Si la plupart de ces produits sont interdits aux Etats-Unis, ils sont encore utilisés ailleurs et ont toujours des effets néfastes sur l’environnement.

Elle recommande de préférer les récipients en verre ou en papier pour réchauffer des plats au micro-ondes plutôt qu’en plastique et de s’informer sur la composition des produits cosmétiques et ménagers.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Tesla Motors rentable en 2020 ?

Cette annonce a eu son petit effet sur l’action de l’entreprise. Frustrés à l’idée de ne pas recevoir de dividendes jusqu’en 2020, les investisseurs ont quelque peu boudé l’action. Encore côtée à 204 dollars le 13 janvier  après avoir bondi de 48 % en 2014, l’action a atteint 190 dollars le 14, avant de remonter à 196,5 dollars au 22 janvier. 

Mais pour le milliardaire, cette rentabilité attendue pour 2020 n’est pas un problème. En effet, il se défend de rechercher la rentabilité sur le court terme. Selon lui, son entreprise investit dans de nouveaux modèles et ne peut donc espérer une rentabilité immédiate. Si les ventes devraient atteindre 500 000 véhicules en 2020, Elon Musk pense que Tesla Motors devrait produire « quelques millions de voitures » à l’horizon 2025. Le marché du véhicule électrique devrait exploser entre 2020 et 2025, les bornes de recharge étant alors bien déployées dans les différents pays.

Lors de cette soirée, Elon Musk a aussi annoncé que le marché des véhicules électriques avait ralenti en Chine au quatrième trimestre 2014. Faute d’un réseau d’infrastructure de recharge suffisant, les Chinois demeurent pour le moment frileux à l’idée d’investir dans les véhicules électriques. Il pense néanmoins que ce ralentissement sera temporaire, contrecarré par le développement des infrastructures en cours.

De l’électrique haut de gamme performant

Co-fondé en 2003 par Elon Musk, Tesla Motors conçoit et commercialise des véhicules électriques haut de gamme. Bien que ne totalisant que 0,02% de parts de marché, l’entreprise est valorisée à 25,5 milliards de dollars. Le modèle phare de la marque est la berline model S. L’entreprise projette de lancer sur le marché son crossover model X en 2016 et son modèle plus compact et moins cher, le Model 3, d’ici 2017. 

La particularité du modèle S de Tesla est d’être doté d’une autonomie allant de 390 à 502 km selon le nouveau cycle européen de conduite (NEDC) grâce à des batteries de 60 kWh à 85 kWh. Pour les véhicules purement électriques proposés par les autres constructeurs, les autonomies tournent plutôt entre 100 et 200 km. Mais pour s’offrir l’un de ces modèles S, il faudra tout de même dépenser entre 69 000 et 102 900 euros !

Par Matthieu Combe, journaliste scientifique

Et aussi dans les
ressources documentaires :

 

Essai d’analyse des causes d’emballement, à la hausse comme à la baisse, des marchés pétroliers

Pour comprendre le caractère brutal et difficilement prévisible de ces mouvements de cours, il faut intégrer l’existence de deux marchés parallèles qui interagissent l’un sur l’autre et parfois poussent les cours dans la même direction et génèrent ainsi des bouffées sur les prix, à la baisse ou à la hausse.

Le marché fiduciaire du pétrole papier où se négocient des millions notes représentant chacune  un millier de barils. Les investisseurs (edge-fund et autres) viennent sur ce marché à terme, important en volume, pour se couvrir contre la baisse des monnaies et essentiellement contre la baisse du dollar.

La baisse prévisible du dollar pousse ces investisseurs à acheter du papier (position longue), inversement une hausse prévisible du dollar (Figure 1), justifiée comme aujourd’hui par une probable hausse des taux de la Réserve Fédérale, pousse les investisseurs à se positionner en vendeurs à terme de pétrole (position short).

Figure 1 : Variations depuis Août 2010 de l’US Dollar Index (USDX) sur l’ICE à Londres

 

La hausse des cours du dollar vis à vis des autres monnaies (Figure 1), observée depuis Août 2014, était un indicateur de tendance à la baisse des cours du baril de pétrole.

Mais ce paramètre, sur fond de troubles géopolitiques au Moyen-Orient ne pouvait pas, à lui seul, permettre de prévoir un effondrement des cours du baril.

Le marché physique du pétrole est pour sa part placé, de fait, sous le contrôle d’un cartel : l’OPEP, dont le rôle historique et reconnu était de maintenir les flux et donc les prix dans un intervalle raisonnable d’approvisionnement des marchés, à bon prix, autour des 100 dollars (plus ou moins 10 dollars) le baril. La lassitude de l’Arabie Saoudite de tenir ce rôle ingrat de régulateur de marché, la conquête, à ses dépens, de parts de marché par les produits canadiens ou américains plus onéreux, ont persuadé ce grand producteur et exportateur de baisser les prix en Asie puis aux États-Unis pour préserver ses parts de marché.

Alors qu’on attendait l’inverse, une réduction de l’offre de pétrole, de la part de l’OPEP, Il n’en fallait pas plus pour voir plonger les cours du baril (Figure 2).

A fin 2013, les importations nettes de pétrole et de produits pétroliers de la France représentaient sur les douze derniers mois dans les 51 milliards d’euros.

Une baisse des prix de 40% sur ces produits en année pleine représenterait dans les 20 milliards d’euros d’économies pour la facture pétrolière de notre pays.

Mais il semble réaliste de prévoir un retour progressif à la hausse des marchés pétroliers grâce à une stabilisation des cours du dollar, à une baisse des investissements des Groupes pétroliers et à un accroissement continu de la demande de pétrole peu onéreux tiré par les transports en Asie et la progression du niveau de vie moyen.

Par Raymond Bonnaterre

À vos agendas ! 18ème rendez-vous annuel des ingénieurs, scientifiques et enseignants

La 18ème édition de NIDays France aura lieu le 3 février 2015 au CNIT, à La Défense, avec l’objectif d’accueillir 1200 visiteurs, et un invité de renom : Christophe Galfard qui viendra nous parler du Big Bang.

 

La journée s’articulera autour d’une exposition permanente de produits et solutions proposés par les partenaires de NI (60 stands), avec des sessions de conférences et de travaux pratiques en parallèle.

  • 50 conférences dédiées aux techniques de développement, à la surveillance et au contrôle embarqué, à l’instrumentation et au test automatique, aux mesures par capteurs, aux radiofréquences, à l’aéronautique et la défense, à l’automobile et au ferroviaire, à l’enseignement… avec de nombreuses présentations d’applications.
  • 18 sessions de TP dédiées à la programmation graphique LabVIEW, à l’acquisition de données, à la conception de systèmes de contrôle/commande, aux systèmes embarqués myRIO…

 

Coupes de robotique

Les Coupes de robotique viendront animer l’édition 2015, avec 24 équipes en lice s’affrontant pour la Coupe NXT (basée sur le kit LEGO MINDSTORMS NXT) ou pour la Coupe RIO (basée sur le Starter Kit Robotics de NI).

La journée se terminera par un cocktail qui sera l’occasion pour les participants d’échanger leurs expériences dans une ambiance festive.

Programme et inscriptions sur www.nidays.fr

Les Français et les ENR, une histoire d’amour en péril ?

Selon ce nouveau baromètre de Qualit’ENR, 89 % des français estiment que les énergies renouvelables (ENR) doivent être encouragées pour le développement de la chaleur et de l’électricité. Le gaz garde également une place importante dans les esprits avec 68 % d’avis favorable. Le nucléaire continue de faire débat, situé aux alentours de 45 % d’intérêt. En queue de peloton, on trouve le gaz de schiste (27 %), le charbon (25 %) et le fioul (25 %). Sur la question du nucléaire, il y a un fort écart générationnel. « 66 % des plus de 65 ans soutiennent le nucléaire contre 26 % des plus jeunes », précise Frédéric Micheau, Directeur des Etudes d’opinion chez OpinionWay.

Si les ENR et le gaz restent fortement plébiscités, il faut remarquer qu’entre 2013 et 2015, les ENR ont perdu près de 7 % d’avis favorable, le gaz 12 %. Pendant ce temps, les énergies fossiles ont quant à elles suscité un regain d’intérêt. Le gaz de schiste a gagné 3 % d’intérêt, le fioul et le charbon tous deux 4 %.

Si encore 86 % des Français pensent que les énergies renouvelables sont respectueuses de l’environnement, 82 % qu’elles favorisent l’indépendance énergique et 71 % qu’elles permettent de faire des économies, là encore, les énergies renouvelables perdent du terrain. En un an, par exemple, les Français sont 10% en moins à estimer que les énergies renouvelables permettent de faire des économies. Le contexte économique actuel semble faire naître un doute quant à l’intérêt de s’équiper. 

Le prix du pétrole a baissé, la crise est passée par là

Deux raisons peuvent être avancées pour justifier des baisses aussi marquées pour l’attrait des ENR par rapport à 2014, selon les auteurs de l’étude. Tout d’abord, le prix du pétrole brut a chuté de 60 % depuis juin 2014. Il s’en est suivi une baisse conséquente du prix de l’essence à la pompe, ce qui a participé à ralentir le sentiment d’urgence à s’équiper en énergies renouvelables. Parallèlement, la hausse du prix de l’électricité a été limitée par le Gouvernement (+1,6% hors rattrapage tarifaire au lieu de 6,7% demandés) et le prix du gaz a quelque peu baissé en 2014, baisse qui devrait se poursuivre en 2015. Le climat est donc quelque peu différent en 2015 ! Cela est perceptible au niveau de notre facture : 86% de nos concitoyens estiment que le montant total de la facture énergétique est élevé, contre 91 % en 2014. 

Mais en y regardant de plus près, ce contexte énergétique peut constituer une aubaine pour la filière des énergies renouvelables. Comme l’a souligné Laurent Fabius le 21 janvier sur RTL, « Il y a deux interprétations : la pessimiste, qui dit que comme le prix baisse, il n’est pas nécessaire de développer d’autres énergies, explique le ministre des Affaires étrangères. Mais on peut aussi penser qu’avec les économies réalisées, on va pouvoir aller vers des énergies nouvelles ». En somme, investir les économies réalisées dans le développement des énergies renouvelables. Cette baisse du prix du pétrole pourrait être momentanée ou durer quelques années, mais cette évolution devrait avoir un impact important sur le développement des énergies renouvelables chez les ménages. 

Quelles sont les ENR chez les français ?

Pour le moment, la conséquence de cette baisse relative d’attrait pour les énergies renouvelables est que le désir de travaux perd du terrain. Les équipements utilisant des énergies renouvelables demeurent stables chez les Français : 27 % sont équipés d’un appareil de chauffage au bois (insert, poêle et/ou chaudière), 12 % d’une pompe à chaleur, 7 % de panneaux photovoltaïques et 6 % de solaire thermique (chauffe-eau et/ou système combiné). 35 % des Français disposent d’au moins un de ces équipements dans leur résidence principale, mais 21 % des Français envisagent de s’équiper d’au moins un de ces dispositifs à l’avenir.

Il est intéressant de noter que parmi ceux qui montrent leur désir d’investir dans un équipement, 21 % à 42 % ont l’intention de s’équiper d’au moins appareil dans moins d’un an. Mais entre 22 % et 38 % ont l’intention de le faire dans environ 1 à 2 ans et entre 30 % et 38 % dans plus de 2 ans. Cette latence s’expliquerait par l’investissement important que ces travaux représentent. Dans un contexte de baisse de prix du pétrole et du fioul, ces travaux semblent moins rentables. Ainsi, les Français préfèrent en partie repousser les travaux, ce qui leur permettra d’étudier plus en détail l’évolution de leur facture énergétique dans les années à venir. Ils pourront ainsi se convaincre de l’intérêt ou non d’investir dans les énergies renouvelables. S’il y a une forme d’attente, « cela n’attaque pas la dynamique de fond de l’intérêt pour les énergies renouvelables », insiste Frédéric Micheau.

Cette dynamique pourrait encore s’amplifier. En effet, seulement un Français sur deux sait qu’il peut bénéficier de certaines aides publiques (éco-prêt à taux zéro, crédit d’impôt pour la transition énergétique de 30% …) si les travaux sont réalisés par des professionnels qualifiés de RGE (Reconnu Garant de l’Environnement). De plus, des aides de l’Agence nationale de l’habitat (Anah) pour les ménages modestes (46 % des Français) permettent aujourd’hui de financer jusqu’à 50 % du montant total des travaux. Il s’agit là d’aides non négligeables qui sauront certainement attirer l’intérêt des Français ! 

Aller plus loin : 

Par Matthieu Combe, journaliste scientifique

Et aussi dans les
ressources documentaires :

Automobile: la première station-service d’hydrogène de France inaugurée à Saint-Lô

« Alors que la transition énergétique est en marche (…) nous sommes intimement persuadés que l’hydrogène va prendre de plus en plus de place. A terme, ce sera très certainement une énergie de substitution aux énergies fossiles (…). Nous avons décidé d’être en avance », a déclaré le président du conseil général, l’ancien sénateur UMP Jean-François Le Grand.

L’hydrogène produit une énergie qui alimente le moteur en électricité, sans produire ni particules ni gaz à effet de serre, a précisé le directeur général « nouveaux marchés » d’Air liquide, Xavier Pontone.

Selon lui, jusqu’alors seuls quatre véhicules fonctionnaient à l’hydrogène en France avec des stations situées dans le Territoire de Belfort, à Sassenage près de Grenoble et à Loges-en-Josas en région parisienne. Un parc de 25 véhicules est en projet entre Lyon et Grenoble.

Quant au coût du km, « l’hydrogène est un peu plus cher » qu’un véhicule classique, soit 50 euros les 600 km selon Air Liquide.

Le conseil général de la Manche compte porter sa flotte à 10 véhicules d’ici fin juin, et à 40 à terme.

A l’horizon 2016 une station doit ouvrir à Cherbourg afin d’alimenter 5 bus à hydrogène. D’autres projets sont en cours dans le cadre de partenariats avec La Poste, des laiteries pour la collecte de lait ou DCNS pour un bateau de pêche à hydrogène.

En attendant, « c’est génial » de conduire ces véhicules, assure Ralph Lucas, responsable du parc routier départemental qui conduit une voiture à hydrogène depuis plus d’une semaine. « C’est comme une voiture avec une boîte automatique sauf que ça fait pas de bruit. Ca permet une conduite linéaire », explique M. Lucas.

Et pour faire le plein c’est aussi simple qu’avec une voiture classique, assure-t-il démonstration à l’appui, alors que pour un véhicule tout électrique il faut plusieurs heures pour recharger la pile, ajoute M. Pontone.

Les véhicules de la Manche ont près de 200 km d’autonomie. « Vous pouvez aller à Caen avec (à 60 km de Saint-Lô) à condition de rester à 90 km/h sur l’autoroute. Il faut garder une vitesse régulière sinon la pile se décharge trop vite », a précisé M. Lucas.

La station a coûté 400.000 euros et chaque véhicule 30.000 euros au conseil général qui négocie actuellement le montant de ses aides avec Bruxelles.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

L’élaboration d’une stratégie pour être récompensé repérée dans le cerveau

Chez tous les primates, dont les humains, les fonctions de planifications sont traditionnellement imputées au lobe frontal, rappellent les chercheurs.

L’amygdale cérébrale, située dans le lobe temporal, est pour sa part une zone du cerveau jouant un rôle dans les émotions, comme l’anxiété et la colère. Son rôle dans la réaction aux récompenses est également connu.

Cette étude, menée par des chercheurs en Grande-Bretagne et en Hongrie et publiée sur le site Nature Neuroscience, montre qu’au-delà des réactions primaires, l’amygdale est également impliquée dans la démarche de planification à long terme pour recevoir une récompense.

Pour mener cette étude, Fabian Grabenhorst, de l’Université de Cambridge, et ses collègues, ont fait passer des épreuves à deux singes avec, à chaque étape, pour gratification un jus de fruit.

A chaque tour, les animaux pouvaient soit consommer de suite leur récompense, soit choisir de la garder pour plus tard, avec la possibilité d’y ajouter en prime des intérêts, c’est à dire plus de jus de fruit, au fur et à mesure de l’avancée du test.

Quand les singes choisissaient d’épargner, l’enregistrement de l’activité des neurones de l’amygdale a montré des schémas reflétant le nombre d’étapes durant lesquels les primates comptaient épargner pour augmenter leur récompense, avant même qu’ils aient mis leur plan en action.

« Nous parlons +d’activité planifiée+ car cette activité précédait l’issue de la séquence d’épargne de plusieurs étapes et car elle se réfère à un événement futur déterminé personnellement par l’animal et qui n’existait encore qu’intérieurement », souligne l’étude.

Avant l’expérience, les deux animaux ont été entraînés durant 3 à 4 mois pour savoir répondre aux tests, et on a implanté des électrodes dans leur cerveau pour observer les neurones de l’amygdale. A l’issue des tests ils ont été euthanasiés et disséqués.

Les scientifiques soulignent que cette étude mêlant la neurophysiologie et le contrôle interne pourrait aider à découvrir les autres zones du cerveau dédiées à la planification d’une stratégie pour obtenir une récompense dans le cerveau.

« Ces schémas d’activité pourraient être utilisés par le lobe frontal pour traduire le but envisagé en plan d’action concret », indique M. Grabenhorst, interrogé par l’AFP.

Les fonctions de l’amygdale étant similaires à travers les espèces, « cela suggère que nos découvertes peuvent faire avancer notre compréhension de la fonction de l’amygdale dans l’activité de planification chez l’humain ».

Cela permettrait « d’ouvrir de nouvelles voies pour comprendre la fonction de l’amygdale dans les maladies comme la dépression, l’addiction et autres dérèglements de la poursuite de récompenses », ajoute-t-il.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Le potentiel des énergies renouvelables est sous-utilisé en Europe

Les chefs de groupe sont parmi les moins actifs au Parlement européen L’Europe est passée à côté d’économie substantielles en ne développant pas assez les énergies renouvelables adaptées à chaque pays. Selon un rapport de la plateforme « Avenir de l’électricité » du Forum économique mondial, ce sont 86 milliards d’euros que le continent a laissé filer, faute d’avoir davantage misé intelligemment sur les énergies renouvelables.

Le rapport, écrit avec le cabinet de conseil Bain, précise que 34,5 milliards d’euros supplémentaires auraient pu être économisés grâce à une meilleure coordination transfrontalière et de plus importants câbles d’alimentation entre les États.

Déploiement sous-optimal

Selon ses auteurs, même si l’Espagne reçoit environ 65 % d’énergie photovoltaïque de plus que l’Allemagne (1750 kWh/m2 par an en Espagne, comparé aux 1050 kWh/m2 de l’Allemagne), cette dernière a installé environ 600 %  plus d’installations photovoltaïques solaires que l’Espagne (33 gigawatts en Allemagne, 5 en Espagne).

Pourtant, alors qu’il y a moins de vent en Espagne que dans les pays du nord du continent, l’Espagne a mis sur pied des installations éoliennes permettant de produire 23 GW.

« Ce genre de déploiement sous-optimal des ressources a coûté environ 86 milliards d’euros de plus que si chaque pays de l’UE avait investi dans les installations les plus efficaces et adaptées à ses sources d’énergies renouvelables », peut-on lire dans le rapport.

Création d’une surcapacité

En revanche, l’investissement massif dans les énergies renouvelables a créé une très importante surcapacité de production en Europe, ce qui réduit la rentabilité de ces installations.

En cinq ans, 130 GW de capacité de production d’énergies renouvelables et 78 GW de capacité de production conventionnelle ont été ajoutés au réseau européen. Seuls 44 GW de capacité de production conventionnelle ont été éliminés.

Dans le même temps, la croissance de la demande d’électricité en Europe s’est écroulée à 0 % sur la période 2007-2012. Depuis les années 1970, le taux de croissance annuel de la demande était de 2,7 %.

La rentabilité économique de ces installations a dégringolé, perdant 4,8 points pour se stabiliser aux environs de 6 %. Si les États-Unis ont vécu la même baisse de la demande, la suppression de vieilles centrales a été davantage calquée sur l’émergence des renouvelables. Les installations américaines ont donc su préserver leurs marges de profits.

Marché de capacité

Le rapport va dans le sens des industries, qui souhaitent voir l’instauration d’un système rémunérant les installations qui gèlent les capacités de production, tout en admettant qu’« un consensus fort n’existait pas encore quant aux meilleurs mécanismes en termes de fiabilité et de flexibilité ».

En Allemagne, les entreprises, comme RWE ou E.ON veulent absolument que le gouvernement les aide à créer un « marché de capacité » afin de financer la production des centrales au gaz et au charbon, qui ne sont plus rentables. Selon elles, un marché de capacité permettrait d’améliorer la sécurité d’approvisionnement. La chancelière allemande, Angela Merkel, a cependant déclaré en janvier ne pas être favorable à cette idée.

 

Source : EurActiv.com / Reuters (traduit de l’anglais parManon Flausch)

La ratatouille, plus cancérigène que la cigarette ?

La ratatouille, plus cancérigène que la cigarette : voilà une affirmation qui pourrait faire bondir – à juste titre – l’ensemble du corps médical. C’est pourtant le même type de contre vérité qui a enflammé le Web ces derniers jours à propos du caractère cancérigène de la cigarette électronique.

Fin novembre, une dépêche inquiétante de l’AFP est reprise de manière encore plus alarmiste par de grands médias : la cigarette électronique serait dix fois plus cancérigène que la cigarette. TV, radios et grands journaux s’emballent, comme ce fut déjà le cas pour une étude décriée de l’Institut national de la consommation à la rentrée 2013.

L’information passée en boucle et jetant un lourd discrédit sur la cigarette électronique est en réalité totalement erronée car l’étude japonaise en question démontre au contraire que les cigarettes électroniques ont des taux de formol entre six et cinquante fois moins importants que ceux retrouvés dans la fumée du tabac excepté pour un cas – repris dans la dépêche – que le docteur Konstantinos Farsalinos, auteur de l’étude, ne s’explique toujours pas à ce stade des travaux.

En outre, les cigarettes traditionnelles contiennent de nombreux autres composants très cancérigènes comme les nitrosamines. Si on en trouve des traces insignifiantes dans les cigarettes électroniques, les quantités sont très importantes dans les cigarettes conventionnelles, de 13 nano-grammes par millilitre pour les premières à près de 6 300 pour les secondes.

Le traitement de cette actualité dans les médias est inquiétant et pose question sur la pente dangereuse prise par une presse à la recherche incessante du « buzz » au mépris de l’investigation et de la vérification de la véracité des informations. Cette course à l’actualité est d’autant plus grave qu’il s’agit de grands journaux, radios et télévisions.

Dans cet épisode médiatique, c’est paradoxalement un quotidien gratuit (Metronews) qui a mené dès le lendemain un travail d’investigation plus poussé permettant de nuancer largement l’information de la veille.

Le retentissement médiatique sur cette étude n’est pas sans rappeler les actions de Big Tobacco qui a parfaitement su orchestrer depuis les années 50 des campagnes de désinformation sur la cigarette. Si on ne peut rien affirmer sur ce buzz, il est clair que la cigarette classique ressort gagnante de cette campagne, tout particulièrement chez les jeunes.

Dans les années 90 déjà, certains cigarettiers prétendaient que côtoyer un fumeur n’était pas plus dangereux que de boire un verre de lait et avaient réussi auparavant à discréditer des études scientifiques qui avaient dès les années 50 clairement prouvé le lien entre cigarette et cancer du poumon.

Alors, la ratatouille est-elle plus cancérigène que la cigarette ? Un chercheur n’aurait aucune difficulté à trouver des particules cancérigènes dans la ratatouille car certains ingrédients comme le thym et le romarin en contiennent et que toute cuisson engendre nécessairement la formation de particules cancérigènes. Il pourrait même avoir le vice de trouver une substance cancérigène plus présente dans la ratatouille que dans la cigarette. Big Tobacco à bien réussi a prouver que la cigarette jouait un rôle préventif contre la maladie de Parkinson.

Bien évidemment, les taux seraient insignifiants mais suffisants pour faire une désinformation orchestrée et largement médiatisée dans un contexte de recherche du sensationnel. Pourtant, la ratatouille n’a jamais tué personne alors que la cigarette, elle, en tue 70 000 par an, rien qu’en France…

Par Pierre-Marie Chapon

Le débat s’ouvre sur la qualité de l’air au Parlement européen

La directive sur les plafonds d’émission nationaux (PEN) fixe des limites d’émissions de certains polluants par États. Elle faisait partie de la série de projets que Frans Timmermans comptait abandonner afin de resserrer le programme de travail de la Commission pour l’année 2015 autour d’un nombre réduit de priorités.

Frans Timmermans a finalement décidé de ne pas supprimer la directive PEN. La directive sur le plafond d’émission national sera néanmoins modifiée afin d’avoir plus de chances d’être approuvée par le Conseil des ministres et le Parlement, a déclaré Frans Timmermans en décembre.  Il a également promis que le calendrier législatif serait respecté.

Le débat de la commission de l’industrie, de la recherche et de l’énergie du 21 janvier est le premier signe de la reprise normale du calendrier législatif. Adam Gierek, eurodéputé S&D, se fondera sur ce débat pour rédiger une opinion, que l’eurodéputée en responsable du dossier, Julie Girling (CRE), pourra suivre ou non librement.

Une indication de la position du Parlement

Pour l’heure, les différents groupes politiques restent très divisés sur la proposition de directive. Henna Virkkunen, eurodéputée finlandaise du PPE, estime qu’il n’était pas nécessaire de garder le texte. « Je trouve que l’idée de départ de la Commission était meilleure. La directive aurait dû être abandonnée et nous nous serions penchés ensemble sur la manière d’harmoniser 23 textes législatifs [environnementaux] différents. Nous devons nous assurer que cette directive ne crée pas davantage d’entraves pour l’industrie, elle en a déjà assez comme ça », ajoute-t-elle.

Adam Gierek a supprimé un plafond d’émissions non-contraignant pour 2025 de son projet d’opinion. Ce plafond avait plusieurs niveaux, en fonction du polluant et de l’État membre.

La proposition de la Commission comprenait, elle, des objectifs pour 2030 et des objectifs intermédiaires contraignants à mi-parcours. Ces délais étaient une version allégée de la proposition initiale, qui prévoyait la réalisation des objectifs pour 2025, une date déjà reportée par l’ancienne Commission.

Pour Louise Duprez, responsable de politiques liées à la pollution atmosphérique au Bureau européen de l’environnement, « puisque l’engagement environnemental de la nouvelle Commission est pour le moins discutable, il revient aux eurodéputés et aux États membres de montrer leur détermination et leur volonté d’offrir de l’air propre aux citoyens européens. Il est essentiel de fixer des objectifs contraignants pour 2020 ou 2025 si l’on veut atteindre notre objectif pour 2030. »

Michèle Rivasi, eurodéputée française des Verts, soutient également une obligation à mi-parcours. « Cette directive doit être plus ambitieuse », tranche-t-elle. « 2030, c’est bien trop tard. Nous devrions viser des plafonds irréalisables aujourd’hui [parce que la technologie de 2020 nous permettra de les atteindre]. »

Un avis que tous ne partagent pas : des objectifs contraignants pour 2025 pourraient pousser le Conseil à rejeter la proposition, prévient pour sa part Henna Virkkunen.

Inclusion de l’agriculture

L’opinion d’Adam Gierek souligne également que les émissions d’ammoniac et de méthane, générées par l’agriculture, ne devraient pas être comprises dans les règles sur la pollution de l’air.

« Nous devons inclure l’agriculture, et non l’exclure », contredit Michèle Rivasi, rejointe sur ce point par Dario Tamburrano : « laissez-moi vous rappeler que les vaches polluent plus que les Range Rovers, nous ne devrions pas l’oublier », a-t-il déclaré.

C’est la première fois que la Commission propose de limiter les émissions d’ammoniac et de méthane. Les défenseurs de la directive PEN s’attendent à voir le secteur agricole user de tout son poids pour tenter de supprimer cette partie du paquet.

Adam Gierek estime que l’instauration de plafond des émissions est obsolète, par exemple parce qu’il y a trop de voitures au diesel en Europe. Les représentants de la Commission ont affirmé qu’une proposition distincte sur le diesel était en préparation et serait « probablement bientôt présentée ».

Le rapport de Julie Girling, qui s’est battue pour sauver le projet de directive, est attendu pour mi-février. Frans Timmermans lui a annoncé que la directive PEN serait adaptée aux objectifs climat et énergie pour 2030 sur lesquels les dirigeants européens se sont mis d’accord en octobre.

Économie circulaire

Autre texte à l’agenda parlementaire, le paquet sur l’économie circulaire, que Frans Timmermans a décidé d’abandonner afin que la Commission fasse une nouvelle proposition sur les mêmes sujets d’ici fin 2015.

Le vice-président a promis que cette nouvelle proposition serait « plus ambitieuse », sans convaincre ses détracteurs, qui le soupçonnent d’utiliser l’excuse d’une « meilleure législation » pour défendre les intérêts des grandes entreprises.

Ces soupçons se sont cristallisés après les révélations d’EurActiv concernant une liste de projets à supprimer envoyée à Frans Timmermans par le lobby des entreprises, BusinessEurope. Les projets de loi visés concernaient avant tout l’environnement et l’égalité des sexes.

Comme le Parlement, le Conseil des ministres a indiqué son soutien au paquet sur l’économie circulaire.

Les parlementaires européens de la commission de l’environnement devraient d’ailleurs tenir dès le 22 janvier une audition sur l’abandon très controversé du paquet sur l’économie circulaire par la Commission européenne. Ce paquet législatif comprenait des lois sur les déchets, l’incinération et le recyclage.

Lors d’une réunion de la commission de l’environnement, le 21 janvier, il est apparu que nombre d’eurodéputés déploraient cette décision. Cette constatation ne suffira toutefois pas à faire changer d’avis Frans Timmermans, vice-président de la Commission européenne, surtout après que le Parlement a échoué à faire passer une résolution censée sauver le paquet sur l’économie circulaire la semaine dernière.

PROCHAINES ÉTAPES: 

  • 21 janvier 2015 : Réunion de la commission de l’environnement.

  • Février 2015 : Date prévue pour la publication du rapport de l’eurodéputée Julie Girling sur la directive PEN.

 

Source : EurActiv.com / James Crisp (traduit de l’anglais parManon Flausch)
 

 

Et aussi dans les
ressources documentaires :

Visualiser les champs magnétiques, en temps réel

Les capteurs magnétiques se font discrets, mais ils se retrouvent absolument partout – de la machine à laver pour détecter la position relative du tambour, aux phares d’une voiture, afin d’ajuster l’angle de ces derniers. Pour s’assurer que ces capteurs soient fiables et fonctionnent correctement, la procédure de contrôle était jusqu’ici assez fastidieuse et relativement onéreuse. C’est dans ce contexte qu’une équipe de chercheurs du prestigieux institut Fraunhofer pour les circuits intégrés a mis au point une caméra capable de mesurer et de visualiser les champs magnétiques en temps réel, permettant de repérer rapidement les aimants défectueux. Ce test magnétique peut-être facilement intégré à une chaîne de production industrielle, par exemple au niveau d’un tapis roulant.

« N’imaginer pas cet appareil comme une caméra, mais plutôt comme une assiette avec une rangée de capteurs magnétiques », explique Klaus Dieter, en charge du projet. Le cœur du dispositif est composé d’un capteur à effet Hall baptisé « HallinOne® », créé au sein même de l’institut allemand. Ce capteur permet de détecter tout champ magnétique présent sur les trois axes, résolvant ainsi certains problèmes de mesure liés aux capteurs angulaires ou aux capteurs de position.

Il devient alors possible de mesurer la force et la direction d’un champ magnétique sur 32 positions espacées de 2,5 millimètres, à huit centimètres de distance. Le dispositif vidéo haute-résolution effectue une mesure en un millième de seconde, ce qui, vous l’aurez compris, permet d’avoir 1000 images par seconde. Un prototype a été présenté en exclusivité au salon de l’électronique de Munich, qui a eu lieu du 11 au 14 novembre.

Par Moonzur Rahman

La réalité virtuelle révolutionne l’industrie

Les industriels présents en Pays de la Loire vont pouvoir profiter d’un tout nouvel espace de travail de réalité virtuelle. La réalité virtuelle, c’est l’association de technologies 3D avec de la capture de mouvements qui « permet d’immerger complètement un opérateur, de traquer son mouvement et son point de vue pour lui permettre d’interagir de l’intérieur », rappelle Sophie Levionnois, Directrice de ce nouveau centre Industriel de réalité virtuelle du Technocampus Smart Factory, intégré à la Jules Vernes Manufacturing Valley. 

Les usages de ce nouveau centre seront multiples. Il offrira aux industriels de la région  une solution innovante pour faire des présentations commerciales ou afin de mieux communiquer pour présenter leurs projets. Par exemple, STX pourra y présenter ses paquebots, Alstom ses éoliennes offshore, Airbus ses avions… Mais sur ce centre, les utilisations seront principalement techniques. Il s’agira de concevoir un produit ou un process de fabrication en réalité virtuelle. « Cela va nous permettre de tester l’ergonomie d’un poste de travail ou d’un produit, que cela soit dans l’automobile, dans le naval ou dans l’éolien », assure Sophie Levionnois.

La maintenance et l’usine du futur à l’épreuve

Les potentialités de la réalité virtuelle ne s’arrêtent pas à ces simples aspects. Cette autre réalité permet aussi de former, entraîner les opérateurs à faire des opérations dangereuses, complexes et coûteuses, en toute sécurité. Cela s’applique notamment à l’entretien maritime des éoliennes. « C’est l’un des plus gros usages que l’on va avoir ici », prévient Sophie Levionnois. 

Dans ce cadre, la réalité virtuelle pourra aussi servir lors des opérations sur le terrain, grâce à la collaboration distante. Ainsi, une personne immergée dans la maquette pourra aider les opérateurs en opération dans une situation difficile. « Si l’on est accroché à un filin d’hélicoptère pour faire une opération sur le rotor d’une éolienne offshore, cela est plus facile si l’on est guidé par quelqu’un qui fait la même opération dans le virtuel », analyse Sophie Levionnois. 

Cette plateforme est aussi une brique de l’usine du futur. «L’usine du futur, c’est l’idée que l’industrie comprendra des ateliers physiques et un clone virtuel qui contient toute l’intelligence industrielle qui va permettre de mieux faire fonctionner, plus rapidement, avec moins de défauts et moins de déchets cette usine réelle », prévoit la Directrice du centre virtuel. En plus de la réalité virtuelle, la réalité augmentée pourrait avoir toute sa place dans cette nouvelle définition de l’usine. « A travers la réalité augmentée, l’idée est d’amener aux opérateurs toute l’information nécessaire au bon endroit et au bon moment, de manière géolocalisée », précise-t-elle.

Ce centre de réalité virtuelle est intégré à la Jules Vernes Manufacturing Valley. Cette valée regroupe de grands industriels de 4 filières très développées dans la région : naval, aéronautique, énergie et automobile. Elle vise à regrouper des moyens et à les regrouper entre différents industriels pour optimiser les dépenses. Technocampus est un Groupement d’Intérêt Public (GIP) mandaté par la Région pour assurer la fréquentation des plateformes et mettre à disposition un outil « clés en main » aux industriels. La région Pays de la Loire est propriétaire et investisseur majoritaire des plateformes Technocampus. L’investissement complet pour ce site s’élève à 9 millions d’euros.Trois formules d’utilisation sont proposées aux industriels pour des tarifs compris entre 1 200 € et 1 680 € la demi-journée.

Par Matthieu Combe, journaliste scientifique

Prime à l’effacement électrique: le gouvernement cède sur le montant, pas sur les modalités

Le gouvernement a tranché jeudi sur les modalités de la prime versée pour l’effacement des consommations électriques, qui sera comme annoncé destinée aux seuls petits consommateurs, mais dont le montant sera inférieur à ce qui était envisagé, se rapprochant ainsi de l’avis du gendarme de l’énergie.

L’effacement consiste pour un consommateur (particulier ou entreprise) à réduire temporairement et volontairement sa consommation de courant lorsque cette baisse peut soulager les tensions du réseau électrique, notamment pendant les périodes de pointe.

Une prime sera versée aux opérateurs d’effacement pour les opérations réalisées sur les petits sites de consommation, soit essentiellement les particuliers et les petits commerces. Son montant est fixé à 16 euros par mégawattheure en heures pleines et à 2 euros en heures creuses, selon un arrêté du ministère de l’Ecologie et de l’Energie publié jeudi au Journal officiel.

Les effacements effectués sur des sites plus importants ne donneront pas droit à une prime pour l’opérateur qui les réalise.

L’arrêté précise également qu’au-delà d’un certain volume d’effacement, fixé à 250 gigawattheures, aucune prime ne sera versée à l’opérateur. Cette mesure vise à éviter que certains opérateurs effacent des consommations seulement pour toucher la prime à un moment où le réseau électrique n’en aurait pas forcément besoin.

Ce système sera en vigueur jusqu’au 31 décembre 2015.

Dans son projet d’arrêté, le gouvernement avait envisagé que la prime atteindrait 30 euros, une proposition qui avait suscité un avis défavorable de la Commission de régulation de l’énergie (CRE).

Ce montant avait été calculé en considérant que l’effacement correspond à une réduction pure et simple de la consommation d’électricité, et non à un décalage dans le temps par le consommateur de l’utilisation de ce courant.

« Si le niveau de l’effet report ne fait pas consensus entre l’ensemble des acteurs, plusieurs études montrent qu’il ne peut être considéré comme nul et qu’il pourrait même, au contraire, être conséquent », avait écrit la CRE dans sa délibération.

En revanche, le gouvernement a maintenu le principe d’une prime limitée aux petits sites, malgré les inquiétudes exprimées par certains acteurs du secteur.

L’Afieg, un groupement d’énergéticiens alternatifs, avait ainsi dénoncé le caractère « discriminatoire » d’une telle différenciation, qui risque selon eux de créer « une bulle spéculative ».

Marc Boudier, président de l’Afieg, a salué jeudi « l’évolution positive par rapport à la première mouture » concernant la réduction de moitié du montant de la prime, tout en affirmant que le système « reste discriminatoire ».

Surtout il juge pertinent le caractère « transitoire » de cet arrêté valable jusqu’à fin 2015, estimant que le gouvernement a « voulu un coup de pouce (…) pour le démarrage » de cette activité d’effacement et espérant « que cela restera un coup de pouce provisoire et qu’après le 31 décembre, il n’y aura plus de prime de ce type ».

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Climat : les mesures de températures atmosphériques par satellites en question

Plus que la technologie des mesures elle-même, ce sont les défauts de la couverture géographique et de la représentativité des mesures qui rendent problématique la détermination d’une température moyenne.

Une autre façon d’observer ces changements de température est l’utilisation de satellites, en particulier de satellites « défilants » (qui tournent autour de la Terre sur une orbite quasi circulaire passant près des pôles, à une altitude un peu inférieure à 1.000 km). Depuis la fin des années 1980 et le début de ces mesures par satellites, la précision des instruments et sondeurs embarqués s’est beaucoup améliorée. Pourtant, la validité des données recueillies est parfois mise en question, notamment du fait de l’écart observé entre les profils de températures relevés à la surface et ceux liés aux données satellites : les dernières études satellites font état de profils d’augmentation de température assez faible (par exemple sur la période 1987-2006 l’augmentation varie selon les estimations entre 0,086°C et 0,22°C par décennie dans la troposphère), alors que les températures relevées à la surface continuent à augmenter à des rythmes plus intenses. Ces divergences ouvrent tout naturellement un champ de recherche intéressant qui tente d’en expliquer l’origine.

Une étude sino-américaine récente, dont les résultats ont été publiés dans le journal Climate Dynamics mettent en cause l’impact des nuages sur les modèles de mesure actuels : le taux de réchauffement serait en fait, selon les auteurs de l’étude, 20 à 30% supérieur aux estimations faites sans prendre en considération les effets liés aux rayonnements émis par les gouttelettes d’eau par temps couvert.

Au coeur de ces travaux, le principe de la mesure par télédétection qui consiste à évaluer la luminance énergétique au sommet de l’atmosphère et qui est une moyenne pondérée des valeurs prises par la luminance du corps noir (exprimée par la fonction de Planck) dans les différentes couches émettrices (la surface de la Terre et les couches successives de l’atmosphère). Les profils de température sont ensuite calculés à partir des fonctions de poids (qui attribuent à chaque couche de l’atmosphère un poids en fonction de son opacité et de sa capacité à émettre du rayonnement). L’équipe menée par le Professeur Fuzhong WENG (responsable de l’unité Satellite Calibration & Data Assimilation à l’agence américaine responsable de l’étude de l’océan et de l’atmosphère, la NOAA) a distingué les mesures faites en conditions de « ciel clair » de celles faites en « ciel nuageux ». Selon les auteurs, « les résultats mettent en évidence que les tendances calculées en ciel nuageux ne sont pas seulement plus faibles, elles sont aussi moins fiables. Cela est largement dû à la dispersion d’une partie des rayonnement par les nuages ».

Cette publication est le fruit d’une collaboration entre la NOAA, l’université de Floride, et la Nanjing University of Information Science and Technology. Elle s’inscrit dans le cadre d’un projet du ministère chinois des sciences et technologies (MOST) sur « l’évaluation, l’exploitation et l’intégration de données relatives au changement climatique ». L’originalité de son approche est de proposer pour la première fois de quantifier l’effet de ce phénomène déjà connu de longue date.

Ces résultats ne convainquent pourtant pas tout le monde et le professeur Roy SPENCER, de l’université d’Alabama Huntsville (UAH), qui a travaillé sur les mêmes données parle sur son blog de chiffres surestimés. Ces débats ont en tout cas le mérite de montrer combien il reste difficile d’intégrer un certain nombre de phénomènes physiques fondamentaux à l’interprétation des données satellites : tout comme les nuages, les aérosols sont par exemple loin d’avoir révélé tous leurs secrets… Une chose est certaine : le réchauffement est bien là selon la NOAA, qui a annoncé le jeudi 20 novembre que les dix premiers mois de l’année 2014 ont chacun été les plus chauds enregistrés sur la planète depuis le début des relevés de température. Un enjeu environnemental majeur qui sera à l’ordre du jour des discussions de la Conférence mondiale sur le climat de décembre 2015 à Paris.

Source : Bulletins électroniques

La photo de la semaine #2

Tout d’abord, la rédaction félicite Sindy, qui a trouvé ce que représente La photo de la semaine #1 : Il s’agit effectivement du système visuel de la drosophile

Place donc à la photo de la semaine seconde édition !

Mais qu’est-ce donc ?

Vous voulez tenter de découvrir ce que représente cette photo, obtenue à l’aide d’un microscope ?

Publiez vos propositions dans la zone « commentaires » ci-dessous.

 

Durée de vie des centrales nucléaires: prolongation « pas acquise »

La prolongation du fonctionnement des centrales nucléaires françaises au delà de 40 ans « n’est nullement acquise à ce stade », a déclaré mardi le président de l’Autorité de sûreté nucléaire (ASN) Pierre-Franck Chevet, qui pense pouvoir rendre un avis en 2018.

Le nouveau PDG d’EDF Jean-Bernard Lévy s’est dit la semaine dernière « confiant » sur l’obtention par le groupe du droit de prolonger la durée de vie de ses centrales nucléaires « jusqu’à 50 ans, voire 60 ans ».

L’ASN sera « en charge d’instruire cette demande et de dire si oui ou non c’est possible et sous quelles conditions », a rappelé M. Chevet, en présentant ses voeux à la presse.

Le parc nucléaire a été mis en service entre la fin des années 1970 et la fin des années 1980. La durée de vie des 58 réacteurs nucléaires français est actuellement limitée à 40 ans.

« Nous sommes au tout début des discussions techniques sur le sujet ». Il devrait y avoir un « avis d’orientation de l’ASN à la fin de cette année ». « Si tout se passe bien, l’ASN pourra prendre une position générique a priori en 2018 », a-t-il indiqué.

L’ASN prendra ensuite position réacteur par réacteur à partir de 2020.

« L’exigence que nous portons, c’est que dans le cadre d’une éventuelle prolongation » de la durée de vie des réacteurs, « on en profite pour améliorer la sûreté des centrales », en essayant de se rapprocher des standards modernes de conception du type de ceux qui sont mis en oeuvre pour l’EPR de Flamanville (Manche), en cours de construction, a expliqué M. Chevet.

« L’exigence est très forte. C’est très compliqué techniquement. C’est pour ça que nous disons régulièrement que la possibilité d’aller au-delà de 40 ans n’est pas acquise à ce jour », a-t-il pointé.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

La fermeture de la décharge Guy Dauphin Environnement (GDE) dans l’Orne annulée en appel

L’ouverture de ce site a fait l’objet de multiples recours et d’une forte mobilisation du monde du cheval car les opposants redoutent une pollution des terres environnantes de réputation internationale pour l’élevage équin.

La société GDE, un des leaders du recyclage industriel en France, avait été condamnée le 13 mai par le tribunal correctionnel d’Argentan à 10.000 euros d’amende et à la fermeture de son site pour y avoir entreposé 1.856 tonnes de déchets illégaux.

Mais « on ne peut pas condamner une personne morale sans avoir identifié son représentant légal », a déclaré mercredi Henri Ody le président de la cour d’appel, après avoir annoncé que la cour infirmait le jugement d’Argentan.

La jurisprudence de la Cour de cassation en la matière a en effet changé depuis le 13 mai 2014. Lors de l’audience en appel, le 3 novembre 2014, le parquet général avait pour cette raison requis la relaxe.

Mardi GDE a indiqué à l’AFP que le site ne pouvait en pratique rouvrir avant plusieurs semaines, « voire » plusieurs mois car des travaux sont en cours. Selon la société ces travaux visent à remettre le site en état car il ne l’était plus après près d’un an de blocage, entre octobre 2013 et octobre 2014.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Rapport européen Bisphénol A: Royal, « surprise », s’interroge sur « le poids des lobbies »

« Je suis très surprise par cet avis, curieusement lancé au moment où l’interdiction du Bisphénol A est entrée en application, le 1er janvier » en France », a réagi la ministre, interrogée par l’AFP.

« Cet avis va à l’encontre d’avis d’autres structures qui, depuis des années » pointent les risques liés à l’exposition au Bisphénol A, a-t-elle souligné, indiquant qu’elle allait demander à l’Agence française de sécurité sanitaire (Anses) de se pencher sur les conclusions de l’Efsa.

« Le ministère va faire expertiser cet avis, pour voir si le poids des lobbies n’est pas intervenu dans sa publication », a-t-elle ajouté, notant que lors de la dernière réunion des ministres européens de l’Environnement, où il avait pourtant été question des perturbateurs endocriniens, la sortie d’un tel rapport n’avait pas été évoquée.

Dans sa note publiée mercredi, l’Efsa estime que l’exposition au Bisphénol A « aux niveaux actuels » « ne présente pas de risque pour la santé des consommateurs », même si de nombreux doutes restent à éclaircir.

Aux avant-postes de la lutte contre cette substance considérée comme un perturbateur endocrinien, la France a généralisé depuis le 1er janvier l’interdiction à tous les contenants alimentaires de cet antioxydant et plastifiant, déjà banni des biberons européens depuis 2011.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Le QuadroFoil, un hydroptère deux places 100% électrique

Pour avancer un bateau classique, dont une partie de la coque est immergée, doit déplacer une masse d’eau, ce qui génère des vagues. Il en résulte une importante consommation d’énergie qui augmente de façon exponentielle avec la vitesse.

Les hydroptères (hydro, « eau » et pteros, « aile ») permettent d’élever le bateau au dessus de l’eau grâce au même principe que le ski nautique. Il en résulte une baisse considérable des pertes d’énergie pour pousser l’eau et ainsi très peu de formation de vagues. Les impressionnants kayaks hydroptères (hydrofoil kayak ou foil kayak) permettent par exemple une division par 10 de la surface de contact entre le kayak et l’eau. En méditerranée de nombreux ferries sont également des hydroptères, appelés « hydroglisseurs » par abus de langage alors qu’un hydroglisseur est stricto sensu est une embarcation à fond plat et de faible tirant d’eau propulsée par une hélice aérienne.

Le think-tank suisse Rinspeed est le premier au monde à avoir conçu et construit une voiture amphibie capable de naviguer comme un bateau classique mais aussi de déployer des skis et ainsi de se transformer en hydroptère : la Rinspeed Splash est un véhicule deux places  capable d’atteindre 80 km/h en mode hydroptère, ceci avec une motorisation au gaz naturel. Tesla Motors a annoncé il y a quelques mois développer une Tesla S (100% électrique) amphibie : elle reprendra peut-être le même principe que Rinspeed Splash.

Moïse est de retour

Le QuadroFoil développé par une équipé d’ingénieurs basée en Slovénie, petit pays au bord de la mer Adriatique, est lui aussi deux places mais bien plus léger : seulement 100 kg hors batterie et motorisation, soit vraisemblablement environ 200 kg au total pour la version équipée d’une batterie de 10 kWh et d’un moteur électrique de 5,5 kW lui permettant d’atteindre 21 nœuds (40 km/h). Un hydroptère qui plus est léger et 100% électrique permet d’atteindre une efficacité énergétique optimale.

Dès que le QuadroFoil franchit les 6 nœuds (11 km/h)  il sort de l’eau. A une vitesse optimale (probablement 7 nœuds) ce bateau futuriste au design particulièrement soigné permet d’atteindre une autonomie de 100 km avec une batterie de seulement 10 kWh. 10 kWh aux 100 km (1,4€ avec le tarif du réseau électrique standard en France) c’est équivalent à la consommation d’une Renault Zoé 100% électrique roulant à 90 km/h et le double d’une Renault Twizy roulant à 45 km/h, ce qui est remarquable en milieu aquatique.  Avec l’ensoleillement moyen annuel du lac Léman ou de la Loire 3,5 kW de panneaux solaires photovoltaïques suffisent pour faire le plein de la batterie en une seule journée. Cela correspond à une surface de 24 mètres-carrés, soit 6 x 4 mètres.

A 7 nœuds un petit zodiac classique consomme environ 3,5 litres d’essence (34 kWh) à l’heure c’est-à-dire 261 kWh aux 100 kilomètres. A vitesse égale le Quadrafoil consomme ainsi 26 fois moins d’énergie.

Glisser tranquillement au dessus de l’eau propulsé par de l’électricité solaire

A l’opposé des jetskis thermiques qui constituent une aberration complète en matière d’efficacité énergétique, le QuadroFoil ne génère pas de vagues, d’émissions polluantes et de bruit : il peut circuler au niveau d’écosystèmes aquatiques fragiles avec un impact minimal sur la flore et la faune locale. Le tout en conférant un maximum de plaisir aux voyageurs.

Quand la mer est trop agitée et que les vagues dépassent 50 centimètres il est possible de plier les skis. Le quadroFoil se transforme alors en un bateau classique et peut par exemple être tracté par une voile de kitesurf.

Olivier Daniélo

Arctique: la Norvège redessine la banquise, facilitant les activités pétrolières

Un accord, conclu en 2013 entre le gouvernement – minoritaire – de droite et deux alliés de centre droit, interdit d’ouvrir les zones situées en bordure de la banquise, à l’écosystème très riche, à la prospection et à la production d’hydrocarbures.

Mais, réchauffement climatique oblige, la banquise recule toujours plus au nord et ses contours font aujourd’hui débat.

« Il est important de disposer de connaissances actualisées sur l’emplacement géographique des zones fragiles », a déclaré la ministre Tine Sundtoft dans un communiqué. « J’ai donc demandé à l’Institut polaire norvégien de mettre à jour ses calculs ».

Pour ce faire, l’Institut polaire norvégien va mettre à jour la carte de la banquise en s’appuyant sur les données satellite collectées entre 1984 et 2013, la définition actuelle s’appuyant sur des données recueillies entre 1967 et 1989.

Cette mise à jour permet au gouvernement de faire valoir que les concessions pétrolières qu’il ambitionne de proposer à l’industrie pétrolière en mer de Barents sont situées à bonne distance de la banquise.

Le 23e cycle de concessions, initialement prévu avant Noël, a dû être repoussé en raison du débat autour de cette question sensible.

Mardi, les partis de centre droit et plusieurs organisations de défense de l’environnement ont toutefois déclaré leur hostilité à l’initiative du gouvernement, accusé de faire le jeu du secteur pétrolier.

« Nous ne déplaçons pas la bordure de la banquise », s’est défendue le Premier ministre, Mme Erna Solberg, à la chaîne TV2 Nyhetskanalen. « C’est la nature qui déplace les limites de la banquise ».

Confrontées à l’amenuisement de leurs ressources dans les eaux largement exploitées de la mer du Nord, les compagnies pétrolières demandent avec insistance l’ouverture de nouvelles zones à la prospection.

Les défenseurs de l’environnement s’y opposent, faisant valoir les risques écologiques et arguant que l’exploitation pétrolière, très coûteuse dans l’Arctique, ne serait de toute façon probablement pas viable à la lumière de la chute du cours du baril.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Best of des IG Nobels… de physique

La cérémonie des Ig Nobel vient chaque année bousculer avec beaucoup d’humour la très conventionnelle et poussiéreuse saison des Nobel, en mettant sur le devant de la scène les découvertes scientifiques les plus absurdes, les plus décalées, voire les plus nuisibles d’entre elles. La cuvée 2014 – dont nous vous avons parlé ici – fut un excellent cru, et nous encourage à nous replonger dans vingt-quatre années de prix parodiques, et ce de manière très exhaustive tant les palmarès regorgent de pépites hilarantes.

Mettez les pieds sous la table, nous avons compilé pour vous la crème de la crème des Ig Nobel, classés par catégories. Pour commencer, gros plan sur les IG Nobel… de physique !

  • 2000 : prix décerné au Néerlandais Andre Geim (université de Nimègue, aux Pays-Bas) et au Britannique Sir Michael Berry (université de Bristol, au Royaume-Uni) pour avoir fait entrer une grenouille vivante en lévitation magnétique. Placée à l’intérieur d’un électroaimant de Bitter en position verticale, le batracien casse-cou est soumis à un champ magnétique de 16 teslas.

Le nom d’Andre Geim vous est quelque peu familier ? Le physicien d’origine russe est en effet connu et reconnu pour avoir reçu le prix Nobel de physique en 2010, Nobel qu’il partage avec Konstantin Novoselov pour avoir découvert l’un des matériaux stars de cette dernière décennie, le graphène. Andre Geim est à ce jour le seul lauréat d’un prix Nobel et d’un prix Ig Nobel.

 

  • 2001 : le prix d’astrophysique fut décerné à Jack et Rexella Van Impe, deux célèbres télévangélistes américains basés à Rochester Hills, dans le Michigan, pour avoir « découvert » que les trous noirs remplissent toutes les conditions techniques requises pour abriter… l’enfer. On n’en sait pas plus sur ces fameuses conditions.

 

  • 2005 : prix décerné à Thomas Parnell et à John Mainstone, pour leur rôle dans la célèbre « expérience de la goutte de poix », commencée en 1927 à l’université du Queensland de Brisbane, en Australie. Cette expérience – qui est l’expérience scientifique en cours la plus longue du monde, dont nous vous avions déjà parlé ici – a pour but de mesurer la viscosité de la poix, à l’aide de l’écoulement d’un de ses fragments. Démarrée en 1927 par le professeur Thomas Parnell, l’expérience a connu un nouveau rebondissement, en avril dernier… lorsque la neuvième goutte est enfin tombée, comme vous pouvez le voir ici.

John Mainstone, prêt de sa goutte, fier comme un Grand d’Espagne

 

  • A venir : le best of des IG Nobels… de psychologie

Par Rahman Moonzur

Best of des IG Nobels… de psychologie

La cérémonie des Ig Nobel vient chaque année bousculer avec beaucoup d’humour la très conventionnelle et poussiéreuse saison des Nobel, en mettant sur le devant de la scène les découvertes scientifiques les plus absurdes, les plus décalées, voire les plus nuisibles d’entre elles. La cuvée 2014 – dont nous vous avons parlé ici – fut un excellent cru, et nous encourage à nous replonger dans vingt-quatre années de prix parodiques, et ce de manière très exhaustive tant les palmarès regorgent de pépites hilarantes.

Mettez les pieds sous la table, nous avons compilé pour vous la crème de la crème des Ig Nobel, classés par catégories. Pour commencer, gros plan sur les IG Nobel… de psychologie !

  • 1995 : prix décerné aux Japonais Shigeru Watanabe, Junko Sakamoto, et Masumi Wakita, de l’université de Keio, pour avoir réussi à transformer des pigeons en esthètes. Là où encore un trop grand nombre d’êtres humains auraient échoué, les pigeons surentraînés par l’équipe japonaise furent capables de faire la différence entre des tableaux de Pablo Picasso et d’autres de Claude Monet, même parmi des tableaux observés pour la première fois. Sensibles à la notion de style, les pigeons…

 

  • 2000 : David Dunning (de l’université Cornell, État de New-York) et Justin Kreuger (de l’université de l’Illinois) furent récompensés pour leur étude brillamment intitulée « Incapables et inconscients de l’être : comment la difficulté de reconnaître sa propre incompétence mène à une surévaluation de soi ».

 

  • 2004 : prix remis aux Américains Daniel Simon et Christopher Chabris, de l’université Harvard, pour avoir démontré que les mécanismes complexes de la concentration peuvent nous permettre de faire abstraction de notre environnement, jusqu’à réussir à ne pas remarquer du tout une femme déguisée en gorille.

Photo tirée du compte-rendu de recherche. Copyright Daniel Simon/Christopher Chabris

 

  • 2012 : Pencher vers la gauche fait-il apparaître notre tour Eiffel nationale… plus petite  ? Trois chercheurs hollandais, Anita Eerland, Rolf Zwaan et Tulio Guadalupe, ont remporté l’Ig Nobel de psychologie cette année pour avoir étudier, à travers cette étrange question, si la posture du corps a une influence sur notre perception des quantités.

Scientifiques en plein travail / Copyright Jessica Rinaldi pour Reuters

 

  • 2013 : étudier les mécanismes complexes de l’ivresse et faire un lien avec ceux tout aussi complexes de l’estime de soi ? Dans leur étude intitulée de manière très transparente « Beauty is in the eye of the beer holder » (« la beauté est dans les yeux du buveur de bières »), une équipe du laboratoire inter-universitaire de psychologie de Grenoble laisse entendre qu’une personne pensant être ivre pense également être séduisante. Ce constat plein de sens leur a valu l’Ig Nobel de psychologie l’année dernière.

 

  • A venir : le best of des IG Nobels… en vrac

Par Rahman Moonzur

L’Irena craint que la baisse du pétrole ne gêne l’essor des énergies propres

La surproduction mondiale combinée à l’atonie de la demande dans un contexte de crise économique ont, entre autres facteurs, fait perdre au cours de l’or noir plus de la moitié de sa valeur depuis le mois de juin.

Selon le représentant koweïtien à la réunion de l’Irena, « la chute des prix du pétrole dans les années 80 avait été la principale cause de l’abandon de nombreux projets d’énergie renouvelable ». La baisse actuelle pose donc un « problème majeur », a ajouté Salem al-Hajraf.

Ces crainte s’inscrivent dans un contexte de hausse des investissements mondiaux dans les énergies renouvelables. Elles ont atteint 264 milliards de dollars (228,2 mds d’euros) en 2014, soit une augmentation de 50 milliards par rapport à l’année précédente, selon le directeur général de l’Irena, Adnan Amin.

Pour le vice-ministre italien du Développement économique, Claudio Vincenti, l’effondrement des cours pourrait « changer la donne » et modifier « l’équilibre » entre les sources de production d’énergie, notamment parce que la hausse des prix du pétrole avait contribué dans le passé à une augmentation des investissements dans les énergies propres.

Les énergies renouvelables sont indispensables pour atteindre les objectifs mondiaux de réduction des émissions de CO2. En décembre prochain, 195 pays se réuniront à Paris pour décider d’une réduction des émissions de gaz à effet de serre (GES), pour éviter que la hausse de la température de la planète n’atteigne des niveaux dangereux.

Parmi les participants à l’Assemblée générale de l’Irena -soit quelque 150 pays et 110 organisation internationales- se trouve une délégation d’Israël, pays qui n’a pas de relation diplomatique avec les Emirats arabes unis.

Cette réunion se déroule dans le cadre d’une semaine consacrée au développement durable à Abou Dhabi, où aura également lieu jusqu’au 24 janvier un sommet de l’énergie auquel le président égyptien Abdel Fattah al-Sissi prendra part, ainsi qu’un sommet international de l’eau, où la ministre française de l’Ecologie et de l’Energie Ségolène Royal sera présente.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Big Data et amélioration du système de santé

Comment les données de masse peuvent améliorer le système de santé ?

« Nous avons de nombreuses nouvelles biotechnologies qui nous permettent d’étudier un patient au niveau moléculaire. Un simple échantillon d’un patient à un instant T peut facilement générer des centaines de milliers de lectures possibles. Si vous avez 1.000 patients et 10 instants t, en une seule prise de données, vous avez plus d’un milliard de nombres à analyser. C’est pourquoi nous avons besoin de méthodes informatiques pour analyser les données individuelles. Tout cela conduit à une médecine personnalisée : pour établir un diagnostic ou une prédiction de l’évolution des conditions de santé d’un patient, vous avez besoin de données très volumineuses sur cet individu ».

Quelle en est l’utilisation actuelle en médecine ?

« On en est qu’au début, particulièrement dans les cas de cancer où on essaie de prédire, par exemple, si quelqu’un répondra à une certaine chimiothérapie. Mais on ne voit encore que la partie émergée de l’iceberg. La médecine personnalisée aura beaucoup plus d’applications cliniques dans les 10 à 20 prochaines années.

Un des tests que nous sommes en train de développer à PROOF [Prevention of Organ Failure] est de prélever un échantillon de sang d’un patient souffrant de maladie respiratoire obstructive chronique, au moment où le patient ressent les premiers symptômes pour essayer de prédire si cette personne va présenter un développement rapide de sa maladie ou une attaque pulmonaire dans les deux mois. Si un test comme celui-ci fonctionne, le clinicien pourrait commencer à donner au patient un traitement plus efficace, comme des stéroïdes, avant le déclenchement de l’attaque. Ceci pourrait éviter au patient d’être hospitalisé. En plus d’aider des patients, un tel test sanguin permettrait au système de santé de réaliser une économie substantielle.

Beaucoup de gens soulignent les problèmes concernant l’atteinte à la vie privée dans le recueil de telles données. Dans les recherches de santé, la vie privée des patients est d’une importance capitale. Tout ce travail se fait sous le couvert d’une éthique stricte. Au-delà du contexte de médecine spécialisée, des techniques très puissantes ont été développées, sous la bannière des recherches de données, ou de statistiques informatiques.

Nous avons les technologies pour collecter et analyser les données de masse, et nous devons avoir l’assurance que les structures de gouvernances sont là pour limiter les abus » conclut le Prof. Ng.

Source : bulletins-electroniques

Et aussi dans les
ressources documentaires :

Messagerie instantanée sécurisée : suivez le guide !

L’ONG américaine EFF (Electronic Frontier Foundation), spécialiste de la vie privée sur Internet, a dressé une liste des logiciels de messagerie instantanée les plus sécurisés… et les moins sécurisés, aussi. Sur sa page comparative, elle a noté 39 logiciels et services de messageries, qui se décrivent comme étant “sécurisés”.

EFF se base sur 7 critères : le chiffrement des messages lors de l’envoi, l’accessibilité des messages envoyés par le fournisseur du service, la vérification d’identité des contacts, la sécurité des anciens messages en cas de vol des clefs de chiffrement, l’ouverture du code source, la documentation des mesures de sécurité et l’audit du code source.

Oubliez Skype et Google Hangouts

Si vous souhaitez discuter en ligne en toute sécurité et en toute confidentialité, depuis votre PC ou votre Mac, les logiciels libres tels que Pidgin et Adium – associés au plugin OTR (Off-the-Record) -, ou encore Cryptocat, figurent parmi les solutions les plus sûres et les plus respectueuses de votre vie privée. En effet, ces logiciels chiffrent vos communications, et les rendent totalement inaccessibles.

En revanche, oubliez la plupart des logiciels propriétaires “populaires”, que vous utilisiez peut-être, comme la plupart des internautes. Surprise, iMessage, le service de “chat” d’Apple, s’avère relativement sûr selon EFF, avec une note de 5 sur 7. Et pour cause, puisque le logiciel chiffre les messages lors de l’envoi et ne permet pas, normalement, à Apple d’accéder aux messages.

Mais iMessage fait figure d’exception confirmant la règle. Ainsi, des logiciels tels que Skype, Google Hangouts, AIM, Viber, Yahoo Messenger et FacebookChat se révèlent particulièrement peu sécurisés, avec des notes oscillant entre 1 et 2. Certes, les conversations sont chiffrées sur ces 6 logiciels. Mais les fournisseurs des services peuvent accéder à vos messages s’ils le désirent, et en cas de vol de clés, vos anciennes conversations sont susceptibles d’être accessibles.

WhatsApp et Snapchat parmi les bonnets d’âne

Si vous désirez utiliser un logiciel de messagerie instantanée avec votre smartphone, c’est le même cas de figure. Le client open source de “chat privé” Chatsecure, associée au plugin Orbot (qui fera transiter le trafic de l’appli à travers le réseau décentralisé Tor), s’avère la solution la plus sécurisée, selon EFF. CryptoCat, déjà cité plus haut, figure aussi parmi les meilleures applications Android et iOS.

Mais oubliez les applications les plus populaires, comme WhatsApp, Snapchat, ou même BlackBerry Messenger (BBM), qui ne font que chiffrer les communications lors de l’envoi, et rien d’autre. FaceTime, d’Apple, obtient une note de 5 sur 7 : si le chiffrement est présent, et si le fournisseur ne peut accéder à vos communications, l’identité de vos contacts n’est par contre pas vérifiable…

Parmi les applis pour smartphone les mieux notées par EFF, figurent aussi les solutions Silent text et Silent phone, ainsi que les applications RedPhone et Textsecure.

Conclusion : mieux vaut utiliser des services pas forcément connus, mais sûrs, plutôt que des logiciels utilisés en masse, mais peu sécurisés. Seul problème : si vous choisissez d’utiliser Chatsecure ou Cryptocat, il vous faudra aussi convaincre vos contacts de faire de même.

Par Fabien Soyez

Deux nouvelles planètes aux confins du système solaire? (étude)

En 2006, l’Union astronomique internationale a retiré à Pluton son statut de planète vu sa petite taille qui l’apparente maintenant à la catégorie des planètes naines, faisant tomber le nombre de planètes du système solaire à huit.

Cela n’a pas mis un terme au débat qui agite les astronomes du monde entier depuis des décennies: d’autres planètes existent-elles au-delà de Pluton?

Dans une étude publiée par le journal « Monthly notices of the Royal astronomical society letters », les chercheurs assurent « qu’au moins deux planètes » sont cachées derrière Neptune.

Les chercheurs basent notamment leur déduction sur l’étude du comportement orbital d’une douzaine d’objets trans-neptuniens extrêmes (ETNO).

Ils présentent « des paramètres orbitaux inattendus » qui « laissent croire que des forces invisibles altèrent leur distribution orbitale », a expliqué l’astrophysicien Carlos de la Fuente Marcos, à l’agence d’information scientifique espagnole Sinc.

« Nous considérons que l’explication la plus probable est que d’autres planètes inconnues existent au-delà de Neptune et Pluton », a estimé ce chercheur à l’université Complutense de Madrid et co-auteur de l’étude avec des scientifiques de l’Université de Cambridge.

« Leur nombre exact est inconnu, car nos données sont limitées, mais nos calculs suggèrent qu’il y a au moins deux planètes, et probablement plus, aux confins de notre système solaire », a-t-il ajouté.

Les auteurs de l’étude reconnaissent toutefois que leur théorie vient en contradiction avec les modèles couramment admis sur la formation du système solaire, selon lesquels il n’y a pas d’autres planètes en orbite circulaire derrière Neptune.

De plus, les calculs sont basés sur l’étude d’un petit nombre d’objets, mais les chercheurs assurent que d’autres résultats seront publiés dans les prochains mois, élargissant l’échantillon.

« S’ils sont confirmés, nos résultats pourraient révolutionner l’astronomie », considère M. la Fuente Marcos.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Les médecins ont une vision positive des objets de santé connectés (sondage)

81% des médecins estiment que « la santé connectée est une opportunité pour la qualité de soins » et 91% jugent qu’elle est « une opportunité pour améliorer la prévention » des maladies chez les patients.

Cette enquête d’opinion, réalisée du 2 au 12 décembre par téléphone sur un échantillon de 399 médecins généralistes et spécialistes par l’institut Odoxa pour la société de télécoms Orange et l’assureur MNH, confirme l’intérêt des professionnels de santé pour ces nouveaux outils.

En plein développement, les objets de santé connectés recueillent des données sur les personnes qui les utilisent pour les transmettent par internet à des logiciels en vue d’une analyse et d’un traitement utiles à la santé des utilisateurs.

Il peut s’agir d’objets pour le grand public comme des pèse-personnes connectés ou des outils réservés à des malades et prescrits par les médecins comme des tensiomètres connectés.

Les médecins jugent que ces objets sont avant tout utiles pour ceux qui souffrent de maladies chroniques ou d’affections de longue durée (à 70%) et dans une moindre mesure pour les plus jeunes (37% de réponses positives), pour les personnes âgées fragiles (31%) et pour les « séniors actifs » (22%).

Les professionnels de santé estiment à 94% que ces objets contribuent à « l’éducation thérapeutique » de leurs patients pour leur permettre de mieux vivre avec leur maladie et à 93% qu’ils contribuent à la prévention des risques de santé comme l’obésité, le diabète ou l’hypertension.

Toutefois, environ la moitié des médecins pensent que ces objets constituent une menace pour le secret médical et un tiers jugent que ces objets menacent le libre choix des patients.

Une « infime minorité » de malades, évaluée à 5%, est équipée d’objets médicaux connectés selon un autre sondage réalisé par le même institut auprès de 406 personnes atteintes de maladies chroniques ou d’affections de longue durée (par exemple diabètes, insuffisances cardiaques graves, cancers ou maladie d’Alzheimer).

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Des antibiotiques respectueux de l’environnement

Pour cette raison, la DBU finance à hauteur de 460.000 euros l’Université Leuphana de Lunebourg (Basse-Saxe), qui souhaite développer un antibiotique biodégradable sans danger pour l’environnement. M. Bottermann recommande également de réduire au minimum l’utilisation des antibiotiques en médecine animale et humaine : les quantités utilisées sont trop importantes et entraînent l’apparition de bactéries résistantes aux antibiotiques.

L’étude de l’Université Leuphana de Lunebourg se concentre sur la ciprofloxacine, un antibiotique appartenant à la famille des fluoroquinolones, et qui est très souvent prescrit. La ciprofloxacine possède un large spectre d’efficacité et est utilisée dans le traitement des infections bactériennes et des inflammations. Contrairement à d’autres antibiotiques, la ciprofloxacine est très stable, donc difficilement dégradable, et efficace à de faibles concentrations. Elle se retrouve dans les eaux usées des hôpitaux, dans les stations d’épurations, dans les eaux de surface et dans les sols traités avec du lisier.

Klaus Kümmerer, de l’Institut pour une chimie durable et environnementale de l’Université Leuphana de Lunebourg, veut étudier la modification de la structure de la ciprofloxacine afin de la rendre biodégradable et empêcher sa présence dans l’environnement, tout en conservant son efficacité. « Nous voulons analyser le principe actif et le modifier à l’aide de modélisations numériques. Puis nous testerons à l’aide de modèles de calculs la biodégradabilité et les effets toxicologiques des différentes variantes obtenues » explique Kümmerer. Les molécules candidates devront ensuite être synthétisées en laboratoire. Une série de test sera ensuite conduite afin de prouver leur biodégradabilité et leur efficacité contre des germes résistants, mais aussi pour déceler de possibles effets secondaires.

Ce projet pourrait contribuer à résoudre le conflit entre l’efficacité des médicaments et la protection de l’environnement. Selon Bottermann, tout le cycle de vie des médicaments doit être pris en compte pour empêcher la création de résidus nuisibles pour l’environnement, depuis le développement de substances biodégradables jusqu’au développement de techniques spécifiques dans les stations d’épuration.

Source : bulletins-electroniques

Et aussi dans les
ressources documentaires :

Le commissaire à l’agriculture s’engage sur le maintien de l’étiquetage des OGM

Au moment de l’ouverture de la Green Week, le plus grand salon de l’agriculture au monde qui a lieu chaque année à Berlin, le commissaire européen Phil Hogan s’est clairement positionné en faveur de l’étiquetage des produits contenant des OGM.

Le responsable politique irlandais a déclaré qu’il n’accepterait aucun compromis concernant les normes de protection du consommateur. Phil Hogan, nommé commissaire en charge de l’agriculture en novembre, a accordé une interview au journal allemand Süddeutsche.

« Nous camperons sur nos positions », a-t-il insisté.

La promesse de Phil Hogan est survenue quelques jours seulement après le regain d’attention accordé au génie génétique en UE.

En effet, le 13 janvier, le Parlement européen a approuvé une nouvelle directive concernant les organismes génétiquement modifiés. Cette mesure permettra aux États membres de choisir une clause d’exemption et donc de pouvoir limiter ou interdire complètement la culture OGM sur leur territoire.

Jusqu’à présent, l’interdiction n’était possible que si le pays prouvait que la culture OGM entraînait des risques pour la santé ou l’environnement, a expliqué Vytenis Andriukaitis, commissaire européen en charge de la santé et de la sécurité alimentaire. La nouvelle directive donne davantage de libertés aux États membres de l’UE pour proscrire la culture OGM, a-t-il ajouté.

L’AECG et le TTIP menace l’interdiction des OGM

En Allemagne, le ministre de l’agriculture espère arriver à l’interdiction complète de la culture de produits alimentaires génétiquement modifiés. Cette position a été annoncée par Barbara Hendricks, ministre allemande de l’environnement et originaire du Parti social-démocrate (SPD).

Les craintes quant à la consommation de produits génétiquement modifiés demeurent solides. Les opposants voient les accords de libre-échange avec le Canada (AECG) et avec les États-Unis (TTIP) comme une menace pour l’interdiction des OGM.

C’est également l’avis du parti écologiste du Bundestag développé dans une étude appelée Accord de libre-échange – porte ouverte à l’agriculture transgénique. Cette étude, conduite par Christoph Then et qui s’appuie sur un texte de l’AECG, est une analyse des possibles conséquences du TTIP.

Sa conclusion est qu’avec le TTIP, « les normes de l’UE en matière de protection de l’agriculture sans OGM, telles que les mesures contre la contamination des semences propres par exemple, seront réduites à moyen-terme».  L’auteur prédit également des changements dans la procédure d’approbation des produits importés.

Phil Hogan se serait penché sur les inquiétudes des consommateurs, « car jusqu’à présent, les négociations n’ont pas été du tout transparentes » a-t-il commenté. Mais la commissaire en charge du commerce, Cecilia Malmström, est en passe de changer la donne, a-t-il assuré.

« Quand les gens auront compris ce qui est réellement négocié et quels arguments sont mis en avant, je suis sûr que leurs craintes se dissiperont, » a expliqué Phil Hogan, ajoutant au passage que les normes de protection du consommateur n’en seront pas ébranlées.

« Le sceau des spécialités régionales sera maintenu »

La Commission européenne est claire sur au moins un sujet : elle n’autorisera aucune dérogation concernant l’identification des produits génétiquement modifiés. Selon Phil Hogan, « L’identification d’un produit transgénique en scannant le code barre sur le paquet, comme le suggèrent les Américains, n’est pas l’idée que je me fais d’un étiquetage clair, et ne répond pas non plus aux règles existantes.»

Pour lui, la reconnaissance des spécialités régionales doit demeurer, même avec le TTIP. Il a pourtant rappelé que l’accord de libre-échange entre l’UE et les États-Unis ne menaçerait pas les « saucisses grillées de Nuremberg » ou le « jambon de la Forêt-Noire ».

« Notre système de protection des marques régionales restera tel quel, » a expliqué Phil Hogan, rajoutant que le TTIP n’était pas une menace mais plutôt une opportunité pour les producteurs de spécialités locales.

Les militants pour la protection du consommateur et le syndicat agricole ont vivement critiqué le projet au début de l’année. Face à cette réaction, Christian Schmidt, ministre allemand de l’agriculture, a déclaré que si l’on voulait établir le TTIP, toutes les sortes de saucisses ou de fromages ne pourraient pas être protégées.

Son porte-parole a vite corrigé le tir en soutenant que tant que le ministre serait à son poste, « il n’y aurait pas de saucisses grillées de Nuremberg fabriquées dans le Kentucky »

EurActiv.de Nicole Sagener traduit de l’anglais par Marion Candau
Source : euractiv.fr