La pollution en Ile de France provient-elle des centrales à charbon allemandes ?

L’Île de France fortement polluée ? Certains pro-nucléaires et/ou xénophobes en ont profité pour semer des messages de désinformation sur les réseaux sociaux. Comme par exemple ici, de la part du journaliste Gilles Dauxerres. Selon eux l’Allemagne aurait augmenté sa production électrique à base de charbon (ce qui est faux, lire sur Techniques de l’Ingénieur l’article : En Allemagne la régression du nucléaire s’accompagne de celle du charbon) et en conséquence l’air de Paris est devenu dangereux pour la santé.

Selon AirParif, en Ile de France, seulement 2% des particules proviennent des centrales électriques thermiques. La France produit en effet une partie de son électricité à partir des centrales au charbon (5119 MW selon RTE) et de fioul (8883 MW). 1,5% de la production électrique française en 2014 était à base de charbon, et 0,8% à base de fioul. Cette carte EDF permet de localiser les sites concernés. En région parisienne se trouvent la centrale au charbon de Vitry-Sur-Seine (500 MW) et la centrale thermique au fioul de Porcheville (2400 MW) juste à côté de Mantes-la-Jolie. Le centrale à charbon du Havre (1450 MW) n’est guère éloignée.

Toujours selon Airparif 37% de la pollution particulaire (PM2,5) en Ile de France provient du résidentiel et tertiaire (chauffage, y compris au bois, moyen de chauffage encouragé par Ségolène Royal), 27% du trafic routier (véhicules diesel), 24% de l’industrie manufacturière et 7% des activités agricoles (dont les épandages d’engrais). Le trafic aéroportuaire pèse de son côté 2% et les transports ferroviaires et fluviaux 1%. Pour les PM10 les ordres de grandeur sont globalement équivalents. A noter qu’au niveau du boulevard périphérique de Paris, la part du trafic routier monte à 47% au lieu de 27% en moyenne en Ile de France.

Selon la direction de déplacement des masses d’air, des particules peuvent provenir des régions voisines : la Basse-Normandie, la Picardie, la Champagne-Ardennes, la Bourgogne et la région Centre. Et aussi de régions plus éloignées, voir même de pays voisins : Belgique, Luxembourg, Pays-Bas, Royaume-Uni, Irlande, Allemagne, Suisse.

Ajoutons que du fait des vents d’ouest dominants, la France (pays de la zone tempérée du littoral Atlantique) envoie plus souvent ses particules vers ses voisins de l’est que l’inverse. La pollution française est poussée vers l’Allemagne. C’est d’ailleurs pour cette raison que les Allemands et les Suisses sont inquiets de l’état de la centrale nucléaire de Fessenheim: en cas de catastrophe nucléaire suite à des actes terroristes ou un événement climatique exceptionnel ils pourraient être affectés par la pollution radioactive.

En Grande-Bretagne le tiers de l’électricité provient de la combustion du charbon. Paris est plus proche de Londres (330 km), de Bruxelles (260 km), du Luxembourg (280 km) et d’Amsterdam (440 km) que de Berlin (863 km), Francfort (450 km), Stuttgart (480 km), Munich (700 km) ou Hambourg (760 km). Or plus on s’éloigne d’un foyer d’émission de particules, plus leur concentration baisse.

A noter qu’une bonne partie des particules produites par les pays voisins proviennent elles aussi du trafic routier, de l’industrie manufacturière et du résidentiel et tertiaire. La production électrique à base de charbon, qui recule en Allemagne grâce à la montée des énergies renouvelables, n’est qu’une composante parmi de nombreuses autres.

Une pollution printanière multi-source

Selon le CNRS (communiqué du 21 mars 2014) voici les « différentes fractions de particules fines observées du 7 au 15 mars dernier, sur la zone 5 du supersite SIRTA au CEA Saclay :

  • PM2,5 nitrate d’ammonium : 51 % – le nitrate d’ammonium est un composé « secondaire », formé dans l’atmosphère à partir d’ammoniac et d’oxyde d’azote, sous l’action de la photochimie. L’ammoniac est principalement émis par les activités agricoles. Il représente 97% des émissions nationales annuelles d’ammoniac en 2011. Les oxydes d’azote (NOx) sont principalement émis par les transports, et dans une moindre mesure l’industrie manufacturière et l’agriculture. Ils concernent respectivement 56%, 14% et 10% des émissions nationales de NOx en 2011.

  • PM2,5 primaires combustion de biomasse : 15 % – particules fines émises directement dans l’atmosphère par la combustion de biomasse (chauffage au bois et brûlage de déchets verts).

  • PM2,5 primaires fuel fossile : 11 % – particules fines émises directement dans l’atmosphère par la combustion de dérivés du pétrole (dont les transports).

  • PM2,5 organiques secondaires : 12 % – particules fines composées de matière organique, générées dans l’atmosphère à partir de précurseurs gazeux comme les composés organiques volatils (COV). En période hivernale (comme c’est le cas actuellement), ces COV sont émis principalement par les activités humaines.

  • PM2,5 sulfate d’ammonium : 11 % – le sulfate d’ammonium est également un composé « secondaire », formé dans l’atmosphère à partir d’ammoniac et de dioxyde de soufre. Le dioxyde de soufre est émis en France par l’industrie manufacturière et la transformation d’énergie. »

Il n’y a donc vraiment aucune raison de focaliser exclusivement sur les centrales électriques allemandes (ce qui n’enlève rien au problème sanitaire que constituent les centrales à charbon pour les riverains des centrales en Allemagne). L’Allemagne, qui produit dès à présent 27% de son électricité à partie des énergies renouvelables, va dépasser les 40% dès 2020 et à comme objectif 80% à horizon 2050.

Ce climat germanophobe qui pollue le débat énergétique et environnemental est vraiment détestable. Balayer devant sa porte avant d’accuser les partenaires européens de la France est le premier pas vers l’éco-responsabilité.

Le site Atlantico.fr a osé publier le 22 mars 2015 l’article « Pollution sur Paris : la vache, les autos sont hors de cause ! » (signé du journaliste Hugues Sarraf) au contenu gravement fallacieux et vraiment irresponsable compte-tenu des implications sanitaires: le fait que les sources soient multiples ne peut en aucun cas conduire à la conclusion que chacune de ces sources soit hors de cause. Quand 10 violeurs agressent collectivement une Femme, le fait qu’ils soient 10 n’enlève rien à la responsabilité individuelle de chacun d’entre eux.

Mais les biais dans le sens inverse existent aussi. Dans un article publié sur LeMonde.fr, signé Audrey Garric, le titre du camembert qui l’illustre, en grands caractères gras, est erroné: « 51% du trafic en Ile de France provient du trafic routier ». Le bon chiffre est 27%, comme l’indique clairement le communiqué de presse Airparif qui sert de référence à l’article du Monde. Le 51% (47% en réalité car il y a une seconde erreur dans ce camembert) correspond à la contribution des PM2,5 au niveau du boulevard périphérique.Le sous-titre « PM2,5 mesurées près du trafic routier », intégré en petit caractères et en italique au camembert, est en contradiction avec le titre qui porte sur toute l’Ile De France.

« L’idéologie c’est ce qui pense à votre place » soulignait l’intellectuel Jean-François Revel.

Par Olivier Daniélo

En savoir plus :

Fukushima: le combustible fondu du réacteur 1 bel et bien tombé on ne sait où

Ces dernières semaines, le gérant du complexe atomique, Tokyo Electric Power (Tepco), ainsi que des chercheurs du laboratoire KEK, de l’Université de Tsukuba et d’un établissement universitaire de Tokyo, ont utilisé un dispositif spécial qui permet de voir où se trouve le combustible nucléaire.

Il ont ainsi réussi à situer le combustible de la piscine de désactivation du réacteur 1, mais pas le combustible du coeur du même réacteur à l’endroit où il aurait pourtant dû être s’il n’avait pas fondu.

Pour ce faire, ont été utilisées les propriétés de particules de haute énergie et charge négative appelées muons.

Lesdits muons, des cousins des électrons, ne sont pas faciles à arrêter: ils traversent librement de nombreux matériaux, au point d’ailleurs de gêner parfois des expériences scientifiques.

Pourtant, ils peuvent être stoppés par des substances à haute densité. En traquant les muons bloqués, il est ainsi possible de produire une image de la présence du combustible nucléaire dans le réacteur.

C’est cette particularité que les chercheurs ont utilisée en mesurant les flots de muons depuis plusieurs endroits à l’extérieur du réacteur nucléaire examiné.

« On devrait voir une ombre sur les images à l’endroit du coeur, or elle n’est pas là, ce qui signife très probablement que tout le combustible est tombé », a expliqué à la télévision le professeur du KEK Fumihiko Takasaki qui a conçu et dirigé ces tests.

Jusqu’à présent, Tepco et les experts du secteurs avaient certes la quasi certitude que le combustible avait fondu, mais sur la base de calculs et simulations. Cette fois, des mesures en donnent une quasi preuve, sans dire cependant exactement où se trouve ledit combustible: au fond de la cuve sous pression ou plus bas encore ?

La même question se pose en outre pour les coeurs des réacteurs 2 et 3 dont on suppute qu’ils ont aussi subi peu ou prou un sort identique.

En tout état de cause, la tâche d’extraction des débris de ce combustible fondu ne s’en trouvera pas facilitée.

La récupération de ce corium constituera l’opération la plus délicate et la plus longue du processus de démantèlement engagé.

Selon les prévisions actuelles, il faudra entre 20 et 30 ans uniquement pour procéder à ce retrait qui, dans le meilleur des cas, ne pourra pas débuter avant 2020.

« En tant que scientifiques, nous ressentons cependant la responsabilité d’utiliser nos connaissances et compétences pour aider à procéder au démantèlement le plus rapidement possible », avait déclaré il y quelques mois M. Takasaki.

kap/mf

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Samsø, l’île 100 % renouvelable et énergétiquement indépendante

Søren Hermansen est le directeur de la Samsø Energy Academy. Samsø est la première île au monde où 100 % de l’électricité provient des énergies renouvelables.

Parlez-moi de Samsø

Samsø est une île danoise de 100 km2 et de 3700 habitants. Elle a conservé son statut de municipalité insulaire lors des réformes structurelles après la crise grâce aux conditions très spéciales de l’île. Cela nous a donné l’autonomie de prendre des décisions localement.

L’énergie de l’île provient à 100 % d’énergies renouvelables. De quels types d’énergie renouvelables parlons-nous ?

Le plus grand changement a été de passer de l’électricité importée des centrales à charbon à l’électricité produite localement par les éoliennes. Nous avons également environ 10 % d’énergie solaire, mais le reste provient de l’éolien.

Pour le chauffage, nous sommes passés du chauffage au mazout à un nouveau système. Nous n’avons pas de gazoduc, comme ailleurs au Danemark, où le gaz naturel arrive de la mer du Nord. Désormais, les maisons des zones densément peuplées sont toutes chauffées grâce à un système de chauffage urbain, qui envoie de l’eau chaude à tous les foyers Ce système est alimenté par de la paille locale, des copeaux de bois provenant des forêts et des panneaux solaires thermiques.

+Efficacité+

J’imagine que l’efficacité énergétique est également un facteur clé de ce nouveau système ?

Oui, nous nous sommes fixés un objectif de réduction de 20 % de notre consommation d’énergie. C’était très intéressant, car lorsque nous avons mis en place les installations énergétiques dans les maisons, nous devions parfois rappeler aux habitants qu’ils devaient équiper leurs maisons pour recevoir le chauffage du quartier. Les gens se sont laissés convaincre facilement qu’installer de nouvelles fenêtres, isoler les toits et les murs étaient de bonnes idées.

La durée d’amortissement des rénovations pour l’efficacité énergétique est de 2 à 5 ans, il est donc incroyable que les gens ne l’aient pas fait avant, mais c’est seulement par manque d’information.

Actuellement, Bruxelles a placé l’efficacité énergétique dans les priorités de son programme de travail.

Nous devons réfléchir aux façons de convaincre les gens que c’est à eux de prendre ces mesures.

Il faut les encourager à acheter des parts dans l’éolien afin de dépasser la mentalité « pas dans mon jardin ».

Beaucoup de projets échouent car les gens ont peur des changements. Les bénéfices potentiels ne font pas le poids face à la peur du changement. J’ai fait face à ce problème tant de fois que j’ai su qu’il était temps de le prendre à bras-le-corps et de trouver un moyen de le résoudre. Les gens s’intéressent beaucoup plus à un projet s’ils y prennent part, s’ils y ont investi une partie de leurs économies.

Quel est le retour sur investissement ?

Il se situe entre 6 et 8 %.C’est donc mieux que de laisser son argent à la banque.

On dit souvent que le problème avec les renouvelables c’est que ce sont des sources d’énergie inconstantes. Est-ce un problème sur l’île ?

Il y a toujours du vent, beaucoup plus qu’ailleurs, et il y a également plus de soleil qu’ailleurs. Nous avons une brise marine constante et pendant l’été nous avons beaucoup plus de soleil que le reste du pays. Ce n’est pas que sur les cartes postales, c’est vrai !

Qui paye pour tout cela ?

Les citoyens, mais ils n’ont pas rassemblé assez de ressources, alors les banques ont largement contribué aussi. Mes amis ingénieurs ont réalisé les plans d’aménagement et mon rôle a été d’établir le plan structurel, en intégrant les permis de construire, les plans des ingénieurs et l’aspect financier du projet.

Étant donné que les banques ne prêtent plus autant qu’avant, y avait-il une garantie de fonds publics pour ce projet ?

Voilà pourquoi c’est bien d’être Danois ! Nous avons un tarif de rachat garanti pour l’énergie éolienne. Donc à partir du moment où vous signez un contrat, vous avez un prix minimal garanti par Kw/h pour les dix prochaines années.

Le nouveau projet d’Union de l’énergie s’oppose vivement aux tarifs de rachat nationaux.

Oui, à plusieurs reprises le Danemark s’est retrouvé en difficulté à cause de cela. Le souci c’est qu’ils envisagent le problème à l’envers. Si vous avez un objectif écologique, le marché ne vous aidera pas à l’atteindre. Et si le marché dit non, s’il y a déjà trop d’énergie sur le marché, alors l’UE s’est tirée une balle dans le pied en disant qu’elle n’était pas d’accord avec les tarifs de rachat. Je pense que c’est une approche ignorante.

Grâce aux interventions de l’État, le Danemark est désormais numéro 1 de l’énergie éolienne dans le monde.

C’est peut-être pour cela que certains États membres n’apprécient pas ce système mais je crois que nous devons nous accrocher à cela et nous demander où nous voulons arriver en 2020. Si nous voulons atteindre nos objectifs, nous devons trouver les instruments et les moyens pour y arriver. Et si un tarif de rachat minimal est un moyen suffisant pour susciter l’intérêt des banques dans ce domaine et donc pour que tous ceux qui ont un projet de développement qui intègre des éoliennes puissent aller à la banque et obtenir l’argent dont ils ont besoin, alors nous devrions utiliser cet outil.

À Bruxelles, les importations d’énergie sont devenues un sujet brûlant avec le conflit ukrainien. De quelles leçons pouvons-nous tenir compte ?

C’est la même chose mais à plus grande échelle. Ici, nous craignons aussi de dépendre de quelqu’un que nous ne pouvons pas contrôler. Comme de nombreuses zones rurales dans l’UE, Samsø est une commune à faible revenu, l’argent est donc à dépenser avec parcimonie. Si vous voulez développer des zones rurales, vous devez trouver de l’argent, et cet argent peut provenir des économies réalisées en évitant d’importer des combustibles couteux et en les produisant soi-même. Cela signifie que vous créez des emplois et donc des revenus imposables dans ces régions et que vous ne laissez plus le marché décider pour vous. 

Peut-on transposer les pratiques de Samsø à la politique de l’environnement urbain de l’UE ?

Bien sûr, mais si on ne les envisage pas dans les milieux ruraux, alors elles ne seront jamais appliquées en ville car les enjeux sont trop importants. Les grandes entreprises n’apprécient pas ce système car elles veulent contrôler le marché. Si nous sommes responsables de notre propre production et distribution d’énergie, alors nous ne voulons pas dépendre des aides d’État car si le marché est présent nous pouvons contrôler les coûts et l’administration et ainsi de suite.

Je suis en faveur de l’explosion des sièges sociaux ! Je ne suis pas un terroriste, mais je crois en la décentralisation. Il y a énormément d’argent dans les caisses, qui attend d’être investi, mais les entreprises ne s’intéressent pas aux projets individuels, tout ce qu’elles voient, ce sont votre consommation et vos factures.

Regardez le Royaume-Uni, l’efficacité énergétique y est très limitée. Si vous vous rendez dans de nombreux villages isolées, les logements sont dans de très mauvaises conditions, mal isolées et n’ont pas de chauffage urbain alors qu’il y a des bois juste derrière le village. Pourquoi n’ont-ils pas tout ça ? Parce que nous n’avons pas d’outils pour les aider à mettre en place des solutions plus efficaces.

Quelle aide est attendue de la part des décideurs politiques de l’UE à l’avenir ? Que diriez-vous aux responsables de la DG Environnement ou au commissaire en charge de l’action pour le climat ?

Je me suis adressé à eux à maintes reprises mais ils n’écoutent pas ! Je leur ai fait le même genre de discours et ils ont ri. Ils pensent que je suis un plaisantin.

Ils se confortent dans leur idée que les géants de l’industrie et les structures d’urbanisation sont les facteurs les plus importants, que tout est déterminé par le marché. Les conditions sociales et culturelles de l’UE influencent aussi beaucoup de secteurs. Il faut qu’ils remarquent à quel point les petites structures indépendantes ont soutenu de grandes perspectives pendant des années et des années.

Le local est la clé du succès et du développement. Nous devrions souligner le ridicule du marché. L’UE le contrôle déjà tellement que nous ne pouvons plus le qualifier de marché libre.

Pourquoi ne pas changer d’attitude et se dire, « ok, peut-être que les tarifs sont différents dans l’UE mais ce n’est pas grave » ? C’est plus cher au Danemark, ok, c’est moins cher dans le sud de la France, ainsi soit-il. Nous ne devons pas être si tatillon à propos du marché, mais peut-être l’ouvrir un peu et accepter l’idée d’une UE variée et avec des solutions multiples.

En résumé, tout l’opposé de l’Union de l’énergie

Je sais, tout le contraire ! Je déteste l’admettre ! Ce que nous craignons le plus, c’est que Poutine coupe les robinets de gaz. Pourquoi sommes-nous tant obnubilés par ça ? Pourquoi ne créons-nous pas notre propre réseau énergétique indépendant, et pourquoi ne l’avons-nous pas fait il y a des années déjà ?

Consulter le site de :  Samsø Energy Academy

Source : EurActiv. fr  (James Crisp, traduit de l’anglais)

En 2014, le PIB mondial a augmenté de 3%. Pas les émissions de CO2 du secteur énergétique (AIE)

Les données révélées par l’AIE le 13 mars 2015 indiquent que les émissions de CO2 ont stagné entre 2013 et 2014, ceci alors que le PIB mondial a progressé de +3%. Les émissions sont restées à 32,3 milliards de tonnes, soit le même niveau que l’année antérieure.

Les efforts effectués à l’échelle mondiale pour réduire le recours aux combustibles fossiles semblent donc commencer à porter leurs fruits. Selon l’AIE ces progrès résultent de changements de modèles énergétique en Chine et dans les pays de l’OCDE.

La Chine, un puissant moteur de la croissance des énergies renouvelables

En 2014 la production électrique Chinoise à partir de sources renouvelables a augmenté, principalement dans les domaines éolien, solaire et hydroélectrique. La Chine a installé 10,5 GW (10.500 MW) de solaire photovoltaïque en 2014, parvenant ainsi à une puissance cumulée de 28 GW. Ces 10,5 GW de PV permettent de produire autant d’électricité que deux réacteurs nucléaires. Installées en seulement un an ces nouvelles puissances correspondent au double de la puissance photovoltaïque totale installée en France en une décennie. Comme le souligne le chercheur Mark Jacobson(Stanford) installer 6 GW de solaire PV est bien plus rapide que construire 1 GW de nucléaire.

Par ailleurs la Chine, qui, visionnaire, a fortement investi dans de grandes usines de production de panneaux solaires, est parvenue à conquérir 90% du marché mondial. Sa puissance industrielle permettant de fournir des produits bon marché est ainsi mise au service du reste du monde. Des barrières douanières imposées par l’Union européenne, notamment à la demande de la France, ont cependant freiné cette progression au niveau du vieux continent.

Selon l’AIE « dans les pays de l’OCDE les efforts récents pour promouvoir une croissance soutenable – incluant une plus grande efficacité énergétique et davantage d’énergies renouvelables – sont en train de produire les effets espérés de découplage de la croissance économique des émissions de gaz à effet de serre ». Aux USA le solaire PV représente le tiers des nouvelles capacités électriques installées en 2014. 

Découplage

L’AIE souligne que durant les 40 dernières années il y a eu seulement à trois reprises une stagnation ou une baisse des émissions comparativement à l’année antérieure, et toutes étaient associées à une stagnation ou une baisse de l’activité économique. Au début des années 80, en 1992 et en 2009.

Mais en 2014 la croissance du PIB a été de +3%. Le dogme « croissance du PIB = obligatoirement croissance du CO2 » est aujourd’hui cassé. Ce qui constitue une excellente nouvelle : la décroissance n’est pas indispensable dans la perspective de réduire les émissions de CO2. La sobriété constitue néanmoins un levier permettant d’accélérer la transition énergétique, aux côtés de l’efficacité énergétique et des EnR. « L’énergie la plus facile à remplacer est celle que l’on ne consomme pas. »

Une intensification des efforts en matière d’efficacité et d’EnR, dont l’avion Solar Impulse constitue un symbole, permettra de poursuivre le découplage qui a commencé en 2014. L’AIE va publier en juin 2015 un rapport spécial sur cette thématique d’importance planétaire. L’organisme proposera aux décideurs des mesures politiques « pragmatiques. »

Pour Maria van der Hoeven, directrice de l’AIE, « Les dernières données en matière d’émissions sont encourageantes, mais ce ne est pas le temps de la complaisance, et certainement pas le temps d’utiliser ces nouvelles positives comme une excuse pour bloquer de nouvelles mesures ».

Selon les travaux de réanalyse du Centre européen pour les prévisions météorologiques à moyen terme (CEPMMT), rapportées par Le Journal de l’Energie, les deux années les plus chaudes du siècle qui commence ont été 2005 et 2010, 2014 se trouvant en troisième position.

Olivier Daniélo

Et aussi dans les
ressources documentaires :

USA : 35% d’électricité éolienne en 2050 (DoE)

Un rapport décoiffant ! Selon « Wind Vision: A New Era for Wind Power in the United States » (accessible ici), la part de l’éolien, qui pèse aujourd’hui 4,5% du mix électrique américain (contre 3,6% en France), pourrait doubler en 5 ans (2020), puis à nouveau doubler d’ici 2030 pour atteindre 20%. A horizon 2050 l’éolien pourrait peser entre 32 et 41% selon les scénarios. Une hypothèse intermédiaire de 35% a été retenue dans le rapport.

Il ne s’agit pas d’un document issu d’une association écologiste mais d’une équipe d’experts de l’énergie travaillant pour le gouvernement des Etats-Unis. L’équipe regroupe des scientifiques de haut niveau, des professeurs d’université, des ingénieurs et des experts de l’industrie éolienne. Les résultats de l’étude offrent une vision réjouissante du point de vue du développement durable.

3200 millions de dollars de revenus pour les collectivités locales

Le rapport souligne que l’énergie éolienne (libre comme le vent) est disponible dans chacun des 50 états de l’union, de l’Alaska à la Floride. Il s’agit donc d’une ressource vraiment compatible avec l’esprit fédéral des USA. Hawaï souhaite d’ailleurs parvenir à 100% d’EnR en 2050. L’éolien est très profitable aux économies locales. « Il permet d’augmenter les revenus des collectivités » rappellent les auteurs. « Les collectivités locales pourront collecter les taxes foncières, générant un revenu de 3,2 milliard de dollars d’ici 2050 ».

Mais les bénéfices économiques seront en réalité bien plus importants. « Etant donné que les contrats éoliens sont typiquement fixés à prix fixes pour 20 ans, le secteur de l’électricité sera (grâce à une forte pénétration de l’éolien ndlr) moins sensible aux variations du prix du gaz et du charbon. » soulignent les auteurs. « En réduisant la vulnérabilité nationale vis-à-vis des variations des prix et des ruptures d’approvisionnement grâce aux prix fixés à long-terme, l’éolien pourrait faire économiser aux consommateurs 280 milliards de dollars d’ici 2050 ».

Economiser massivement l’eau douce

Sur le plan sanitaire et environnemental l’éolien permettra d’éviter d’émettre des particules et des molécules qui polluent l’air, dont le dioxyde de soufre et les oxydes d’azote. Ainsi que 12,3 milliards de tonnes de gaz à effet de serre d’ici 2050. La réduction de la pollution de l’air permettra d’économiser 108 milliards de dollars (plus précisément entre 52 et 272) sur la facture santé. 21.700 morts prématurées seront évitées ainsi que 10.100 accueils de patients aux urgences pour crise d’asthme (particules) et 2,5 millions jours d’école de perdus (ozone).

L’éolien a un autre avantage majeur : il ne consomme pas une seule goutte d’eau douce. Contrairement aux centrales thermiques (fossiles et nucléaires) qui consomment massivement cette ressource fondamentale pour la vie, et qui de plus contribuent à réchauffer les fleuves (pollution thermique). Les experts du DoE ont calculé que d’ici 2050 « l’éolien pourrait sauver 260 milliards de gallons d’eau (un gallon = 3,78 litres ndlr), soit l’équivalent d’environ 400.000 piscines olympiques ».

Selon un rapport de la Deutsche Bank de janvier 2015, le solaire pourrait représenter 30% de la production électrique américaine (et mondiale) en 2050. Autrement dit les deux tiers de la production électrique américaine pourraient devenir éolico-solaire.

Olivier Daniélo

Et aussi dans les
ressources documentaires :

Insecticides et abeilles: l’Assemblée vote l’interdiction des néonicotinoïdes en 2016

A la suite de l’action menée par la France pour que l’Union européenne interdise le Cruiser OSR sur le colza, la Commission européenne a restreint l’utilisation de trois substances actives de la famille des néonicotinoïdes, rappelle l’exposé de l’amendement.

Malgré ces avancées, cinq molécules restent actuellement autorisées en France (imidaclopride, thiaclopride, clothianidine, thiaméthoxame et acétamipride) et présentent une toxicité aigüe, notamment pour les abeilles.

Pour protéger la santé humaine et la biodiversité, et particulièrement les abeilles, l’environnement et la santé, il est proposé de prolonger l’action de la France en interdisant ces substances.

L’interdiction vise toute la famille des néocotinoïdes pour éviter que l’industrie ne substitue des produits cousins après le retrait d’un produit précis, selon M. Bapt.

Appelant à « entendre le cri d’alarme des apiculteurs » vu la mortalité actuelle massive des abeilles, par exemple dans le département des Deux-Sèvres, l’ancienne ministre de l’Ecologie Mme Batho a souhaité que la France, qui a été pionnière avec le Cruiser, fasse avec tous les néonicotinoïdes « un moratoire » du même type qu’avec le maïs OGM.

L’élu socialiste de Haute-Garonne M. Bapt, médecin de profession, a longuement plaidé pour l’interdiction de produits au « succès commercial mondial » mais aux effets toxiques scientifiquement prouvés, selon lui, à la fois sur les insectes pollinisateurs mais aussi sur les sols, l’eau, et sur la santé humaine.

Ces néonicotinoïdes sont « neurotoxiques de 500 à 10.000 fois plus que le DDT, qui est interdit » et « il n’y a pas un seul repas où nous n’en consommons pas tous les jours », a-t-il lancé. « Au Moyen-Age, on aurait appelé ça un nouveau fléau de Dieu », a dit M. Bapt.

Défavorable à la mesure, au motif notamment que « le cadre européen ne permet pas une interdiction stricte », la ministre de l’Ecologie Ségolène Royal a souligné le travail engagé par le gouvernement en matière de pesticides, y compris le plan sur la sauvegarde des pollinisateurs sauvages et des abeilles, et les discussions au niveau européen.

Mais le pesticide Poncho n’était pas interdit dans tous les pays européens lorsque la France l’a interdit, idem lorsque la France a été « en avance sur l’interdiction des biberons contenant du bisphénol », a argumenté M. Bapt. « L’urgence de l’interdiction s’impose » devant « un fléau durant depuis trop d’années », a appuyé l’écologiste Laurence Abeille.

Sur ces néonicotinoïdes « dévastateurs pour un certain nombre d’espèces et faisant courir un risque de santé publique », la rapporteure Geneviève Gaillard (PS) s’était montrée défavorable à « une interdiction brute », par souci d' »efficacité » et de « ne pas gêner les avancées du gouvernement », disant craindre que ces produits ne restent utilisés dans le cadre de dérogations, en l’absence d' »alternative » chimique jusqu’alors.

Ironisant à propos de la « croisade » de M. Bapt, le député UMP du Bas-Rhin Antoine Herth a jugé que les problèmes des apiculteurs étaient « multifactoriels », et insisté sur l’effet négatif d’une telle interdiction pour les agriculteurs français.

Dans sa « feuille de route » écologiste, présentée le 4 février, le gouvernement a assuré que la France mènerait « au niveau européen une action volontariste » pour que les substances néonicotinoïdes des pesticides soient réévaluées « au plus vite, en prenant en compte toutes les études concernant les effets sur les colonies d’abeilles, les pollinisateurs sauvages, la faune ».

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Le robot en métal liquide de « Terminator 2 » inspire une nouvelle imprimante 3D

Le chimiste Joseph DeSimone a présenté à la conférence TED de Vancouver (Canada, ouest) une machine capable d’imprimer en 3D des créations comme si elles émergeaient d’un métal liquide, rappelant le redouté robot T-1000 de « Terminator 2 » surgissant d’une flaque argentée.

« Nous nous sommes inspirés de la scène du T-1000 dans Terminator 2 », a expliqué M. DeSimone. « Pourquoi ne pourrions-nous pas avoir un objet qui naît d’une flaque en temps réel sans faire pratiquement aucun déchet ? »

DeSimone et son équipe ont développé une technologie qu’ils ont appelée Continuous Liquid Interface Production ou « Clip » (production par interface de liquide continu, ndlr) qui exploite les pouvoirs de la lumière et de l’oxygène, permettant à l’imprimante de donner rapidement vie à des objets à partir d’un matériau élastique avec des propriétés sophistiquées.

Imprimer des parties de l’objet à la vitesse d’un fabricant classique « change la donne », a-t-il confié à l’AFP.

Les imprimantes tri-dimensionnelles fonctionnent avec des couches successives de matériaux, qui construisent lentement les objets, pendant plusieurs heures. Ce qui suppose qu’on ne peut pas utiliser de la résine, car elle aura changé chimiquement de consistance avant la fin de l’impression.

« L’impression en 3D est en fait un terme inapproprié; c’est en fait une impression en 2D qui imprime encore et encore », a noté M. DeSimone. « Il y a des champignons qui poussent plus rapidement que les impressions en 3D », selon lui.

Or le système Clip est 25 à 100 fois plus rapide que celui des imprimantes tri-dimensionnelles actuelles. Il utilise en outre de la résine synthétique, aux propriétés mécaniques particulièrement solides, pour fabriquer les dernières parties, a souligné M. DeSimone.

Cette technologie pourrait transformer le mode de fabrication des voitures, des avions et des turbines jusqu’à celle des implants dentaires pour mieux les adapter aux patients.

Ce système Clip a été testé par un constructeur automobile; un fabriquant de vêtements de sport, un studio de design d’Hollywood et un laboratoire de recherche, selon ses inventeurs.

DeSimone et son équipe ont ouvert un magasin dans la Silicon Valley et vont augmenter leur production d’ici un an, mais ils n’ont pas encore fixé de prix pour leurs imprimantes.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Total se détourne du raffinage au profit des biocarburants

L’annonce de la suppression de 180 postes à la raffinerie britannique de Lindsey avait immédiatement inquiété ses homologues français. Plus précisément, les salariés des raffineries de Donges, Feyzin et de La Mède redoutaient la fermeture des sites. C’est donc dans un climat de nervosité grandissante que s’est déroulé la réunion entre représentants des syndicats et des ressources humaines. D’après des sources syndicales, il ressort que la raffinerie de La Mède serait désormais orientée vers la production de biocarburants. Alors que le site produit 153 000 barils/jour, l’activité de raffinage serait abandonnée. Ceci nécessitera des investissements mais environ 200 emplois seraient menacés. Toutefois, Total garantirait de pouvoir conserver en son sein tous les employés concernés. Le site de Donges serait quant à lui restructuré de façon à être plus rentable que les 219 000 barils produits quotidiennement. Pour y parvenir, de nombreux aménagements devront être faits. En ligne de mire, la voie ferrée qui traverse le site et gêne tout travaux de modernisation. Les négociations avec la SNCF ont du mal à aboutir pour cause de désaccord sur la répartition des coûts. Pour l’heure, aucune évolution concernant le site de Feyzin n’a filtré.

Le raffinage européen est un secteur en crise. Avec une demande en baisse de 1 à 1,5 % chaque année, la production est en surcapacité de près de 10 %. Petroplus a déposé le bilan en 2012, une quinzaine de raffineries fermées en 5 ans, autant de preuves que le raffinage européen va mal. Total, malgré des bénéfices record, peine à rentabiliser sa branche raffinage-pétrochimie dont les pertes s’élevaient à 500 millions en 2013.

Suite aux fuites concernant la fin des activités de raffinage sur le site de La Mède, Total a indiqué dès le lendemain par la voix de son porte-parole que « la direction n’a pas confirmé l’arrêt de toutes ses activités de raffinage sur la plate-forme de La Mède, lors d’une réunion de concertation avec les organisations syndicales ce mardi 24 février ». Les intentions de Total devraient être officielles au printemps.

Par Audrey Loubens

En Allemagne, la régression du nucléaire s’accompagne de celle du charbon

Chacun se souvient des propos pour le moins maladroits de Ségolène Royal en matière énergétique lors de son face-à-face avec Nicolas Sarkozy à l’occasion des élections présidentielles de 2007, ce dernier tenant d’ailleurs des propos du même acabit. Devenue ministre de l’énergie, et répondant au groupe EELV, Ségolène Royal a récemment affirmé à l’Assemblée Nationale : « c’est vrai que certains pays ont renoncé au nucléaire, comme l’Allemagne et l’Italie. Mais force est de constater que pour l’un ils ont rouvert des mines de charbon, je ne pense pas que cela soit le modèle énergétique que vous souhaitez ». (Intervention complète ici sur le site de la Chaîne Parlementaire).

Est-il exact que la production électrique à base de charbon a augmenté consécutivement à la baisse de la production électro-nucléaire en Allemagne ?

La production électro-nucléaire allemande baisse depuis 2006, soit 5 ans avant la catastrophe nucléaire de Fukushima du 11 mars 2011. D’après les données AGEB (AG Energy Bilanzen e.V.) datées du 12 décembre 2014 et rapportées par le Consultant Bernard Chabot (diapo 25), entre 2006 et 2014, elle a reculé de 70 TWh. Sur la même période le couple charbon-lignite a reculé de 25 TWh, le gaz de 16 TWh et le fioul de 5 TWh, soit un recul global de 46 TWh pour les énergies fossiles. Il est donc erroné d’affirmer que le recul du nucléaire s’accompagne d’une hausse de l’électricité d’origine fossile.

Le véritable driver du changement est qu’entre 1990 et 2014 les EnR ont progressé de 20 TWh à 157 TWh. Soit un gain de 137 TWh en 24 ans (moyenne de +5,7 TWh par an, un niveau 7 fois plus élevé que celui observé en France), dont 86 TWh depuis 2006. Cette hausse n’est pas due à la grande hydraulique mais à l’éolien, à la bioélectricité et plus récemment au solaire photovoltaïque. « La production renouvelable est à présent supérieure à celle provenant du lignite, du charbon, du gaz et du nucléaire » souligne Bernard Chabot. « Et ce déclin du nucléaire et du gaz est compensé par les énergies renouvelables, pas par le lignite et le charbon. »

Le dogme, répété de manière pavlovienne, selon lequel « davantage de renouvelables conduit nécessairement à davantage de centrales fossiles », et son corollaire « nous avons besoin du nucléaire pour sauver le climat », sont tout simplement infondés. L’Allemagne le démontre de manière claire et nette : les énergies renouvelables sont capables de faire reculer d’emblée toutes les énergies sales, génératrices de gaz à effet de serre ou de déchets toxiques et à très longue durée de vie.

La tendance de fond à l’échelle multidécennale (1990-2014), c’est-à-dire celle qui est vraiment pertinente, est que la production du couple charbon-lignite baisse en Allemagne. Plus vite pour le charbon que pour le lignite. La hausse (une vingtaine de TWh) passagère du charbon-lignite entre 2011 et 2013, très médiatisée en France par les communicants liés au business nucléaire, s’explique principalement par le recul rapide du gaz. Puis entre 2013 et 2014 le charbon a reculé de 10 TWh et le lignite de 4 TWh. Au final, le couple charbon-lignite est revenu en 2014 au même niveau qu’en 2010. A part quelques exceptions, les médias français mainstream ont curieusement été beaucoup moins bavards pour faire connaître cette réalité aux Françaises et aux Français. Le modèle énergétique allemand n’évolue absolument pas vers davantage de charbon.

Internet a écrasé le Minitel

La très forte poussée des EnR, il est vrai fortement dérangeante pour le business de ceux qui ont investi dans les énergies sales et qui veulent préserver leur rente, s’accompagne de la régression de toutes ces dernières. Pour le député Européen Yannick Jadot (EELV) « il faut libérer la France et François Hollande de l’influence néfaste des grands groupes de l’énergie qui nous tirent en arrière ».

Pour reprendre la belle formule de Denis Baupin, Député de la 10e circonscription de Paris et Vice-Président de l’Assemblée Nationale, il y a ceux qui sont encore à l’ère du Minitel, et tous les autres qui sont passés à Internet. Le Minitel nucléaire coûte très cher. Areva peut en témoigner.

En Allemagne, les EnR ont répondu à 27% de la demande nationale en 2014. 40% de l’électricité pourrait être d’origine renouvelable dès 2020. L’objectif est d’atteindre le niveau de 80% en 2050. Au Danemark l’objectif est 100% à cet horizon. En France, l’objectif de réduction de la part du nucléaire de 75% à 50% en 2025 est compromis : le Sénat a retiré la date 2025 et Ségolène Royal a déclaré que « cela ne change pas grand-chose ». Sauf que quiconque n’a pas d’objectif clair et précis ne risque pas de l’atteindre. Le renoncement, c’est maintenant ? Rappelons qu’avant les présidentielles de 2007 Ségolène Royal était favorable à une sortie totale du nucléaire à horizon 2040.

Pour Corinne Lepage, ex-Ministre de l’Environnement du gouvernement Juppé, « la disparition d’un objectif à 2025 pour la part du nucléaire dans le bouquet énergétique n’est pas anecdotique ; cet amendement sénatorial vient en réalité sonner le glas d’un engagement présidentiel sur un sujet majeur de la politique énergétique de la France et même de la politique économique de la France. »

Olivier Daniélo

Electricité Renouvelable : selon Chantal Jouanno, la France est incapable de faire aussi bien que le Japon et l’Allemagne

La demande brute d’électricité est en France d’environ 500 TWh selon RTE (depuis 10 ans, elle fluctue entre 479 et 513 TWh). Des mesures dans le domaine de l’efficacité énergétique et la sobriété énergétique permettront de ne pas dépasser ce niveau à horizon 2025.

François Hollande a été élu sur la base d’une promesse de baisse de la part du nucléaire dans le mix électrique de 75% à 50% d’ici 2025. Baisser de 25 points la part du nucléaire signifie concrètement ajouter 125 TWh de production à base d’énergies renouvelables, soit 12,5 TWh par an pendant 10 ans (2015-2025). Soit par exemple 5 TWh/an de solaire PV, 5 TWh/an d’éolien terrestre et 2,5 TWh de bioélectricité et d’énergies marines.

Chantal Jouanno, ex-ministre du gouvernement Fillon III, affirme dans un billet de son blog que ce n’est pas possible. « Le point d’achoppement est une date : « 2025 », date à laquelle la France devrait réduire la part du nucléaire à 50% de son mix électrique. Soit en 10 ans, la fermeture de 20 réacteurs nucléaires. Les experts savent que cette exigence des Verts conduirait inéluctablement à une hausse des émissions de gaz à effet de serre puisqu’il est techniquement impossible de développer suffisamment les énergies renouvelables dans un temps aussi court » affirme-t-elle dans un billet intitulé « Le Prétexte De L’écologie À La Petite Politique ». Chantal Jouanno a-t-elle raison ? De quels « experts » s’agit-il ? Des communicants d’EDF ? Ou de scientifiques/ingénieurs qui n’ont aucun lien avec le business nucléaire ?

Quelle puissance solaire doit-on installer pour produire 5 TWh par an ? En prenant le facteur de capacité moyen du solaire PV en France constaté par RTE en 2014, soit 14%, il nous faut installer 4 GW de solaire PV par an. Le Japon a installé 4,5 GW de solaire PV en 8 mois (et la Chine 10,6 GW durant les 12 mois de 2014). La France est-elle incapable de faire aussi bien que le Japon ? Poser des panneaux photovoltaïques, est-ce trop complexe d’un point de vue technique pour les Français ? Faut-il attendre une catastrophe nucléaire en France pour qu’on découvre subitement que l’on en est capable ? Avant Fukushima, les Japonais, eux-aussi, croyaient que c’était impossible. 4 GW par an c’est 40 GW en 10 ans. L’Allemagne a dès à présent 36 GW de solaire PV en place.

Quelle puissance éolienne terrestre doit-on installer pour produire 5 TWh par an ? En prenant le facteur de capacité moyen de l’éolien terrestre en France constaté par RTE en 2014, soit 23%, il nous faut installer 2,5 GW d’éolien par an (contre seulement 1 GW en 2014 en France du fait d’une réglementation inappropriée). L’Allemagne a installé 5,2 GW d’éolien en 12 mois en 2014. La France est-elle incapable de faire deux fois moins bien que l’Allemagne ?

La question devient : est-il possible d’intégrer 20 points d’EnR fluctuantes dans le mix électrique Français, en plus des 4 points actuels ? La réponse est bien évidemment oui, comme souligné par exemple dans cette étude de l’Agence Internationale de l’Energie. De nombreux outils de flexibilité sont disponibles. Le Portugal parvient à intégrer 70% d’électricité d’origine renouvelable. Pourquoi la France, territoire aux ressources renouvelables colossales, en serait-elle incapable ?

Et si, en France, les responsables politiques vérifiaient leurs sources en matière d’énergie au lieu de boire comme du petit lait ce que leur racontent les lobbyistes du nucléaire ?

Olivier Daniélo

Les labos du Cern peaufinent les mesures du boson de Higgs

Selon l’organisation européenne pour la recherche nucléaire (CERN) deux laboratoires du grand collisionneur de hadrons (LHC), habituellement en compétition amicale, ont joint leurs forces pour la première fois dans le but de faire cette estimation commune.

En utilisant des technologies différentes, les labos Atlas et CMS ont trouvé que l’insaisissable particule avait une masse de 125,09 gigaélectronvolt (GeV), avec une marge d’erreur de 0,24 GeV de part et d’autre.

Ce chiffre « correspond à une précision de mesure supérieure à 0,2% », a indiqué le CERN dans un communiqué.

L’estimation de sa masse a été révélée lors d’une conférence à La Thuile, dans le nord-ouest de l’Italie, selon le CERN. « C’est la mesure la plus précise de la masse du Boson de Higgs à ce jour et et l’une des mesures les plus précises jamais obtenues au LHC », a-t-il ajouté.

Le boson de Higgs est considéré par les physiciens comme la clef de voûte de la structure fondamentale de la matière, la particule élémentaire qui donne leur masse à nombre d’autres, selon la théorie dite du « Modèle standard ».

Son existence avait été pressentie pour la première fois en 1964 par Peter Higgs, François Englert et Robert Brout, aujourd’hui décédé, mais il aura fallu 48 ans pour confirmer son existence.

Cela a valu à Higgs et Englert de recevoir le prix Nobel de physique 2013.

« Le boson de Higgs a été découvert au LHC en 2012 et l’étude de ses propriétés a commencé immédiatement », a déclaré Tiziano Camporesi, le porte-parole du laboratoire CMS (Compact Muon Solenoid) ajoutant qu’en conjuguant leurs efforts, Atlas et CMS allaient pouvoir « mieux comprendre cette particule fascinante et étudier son comportement ».

« Une fois déterminée la masse du boson de Higgs, il est possible, dans le cadre du Modèle standard, d’effectuer des prédictions pour toutes les autres propriétés du boson de Higgs, lesquelles pourront ensuite être vérifiées par les expériences », souligne le CERN.

Le LHC va être remis en marche, fin mai ou début juin, après une mise à niveau de deux ans.

Le complexe comprend un tunnel en forme d’anneau de 27 kilomètres, dans lequel s’entrechoquent des milliards de protons qui éclatent en toutes sortes de particules.

Les laboratoires Atlas et CMS représentent à eux deux plus de 5.000 scientifiques venant de plus de 50 pays.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Une tempête solaire pourrait perturber les réseaux électriques et les télécoms

Cette tempête solaire « pourrait provoquer des problèmes étendus de contrôle de voltage et affecter des systèmes de protection sur le réseau électrique », a mis en garde la NOAA dans un bulletin d’alerte.

Les systèmes de transmission radio à haute fréquence pourraient aussi être perturbés et le fonctionnement des satellites de navigation risque également de connaître des pannes « pendant plusieurs heures », ajoute l’agence.

Cette tempête « sévère » a été observée à 13H58 GMT et a atteint une force 4 pendant au moins une heure sur une échelle maximum de 5, a indiqué Thomas Berger, directeur du centre de prédiction de météorologie spatiale (Space Weather Prediction Center, SWPC) lors d’une conférence de presse.

Ce phénomène pourrait durer de 24 à 36 heures, a-t-il dit, ajoutant qu’à ce stade aucun problème n’avait été signalé sur le réseau électrique et dans le fonctionnement des satellites de télécommunication.

Des aurores boréales ont été observées avant le lever du soleil dans le nord des Etats-Unis, a ajouté Thomas Berger et seront visibles ce soir en Europe.

Cette tempête solaire n’a pas provoqué de niveaux de radiations dangereux pour les astronautes à bord de la Station spatiale internationale (ISS), a par ailleurs indiqué la Nasa.

« L’intensité de cette tempête devrait continuer à diminuer dans les prochaines heures mais nous ne pouvons pas dire exactement comment cela va se produire », a expliqué Bob Ruthlege, le responsable des prévisions au SWPC lors de la même conférence de presse téléphonique.

Lors du précédent cycle solaire qui s’est achevé en 2008, on a observé 45 tempêtes solaires de cette puissance, a-t-il dit. Il s’agit pour le cycle actuel, particulièrement inactif, de la deuxième de cette ampleur.

*C’est un peu inhabituel pour ce cycle marqué par une faible activité solaire », a jugé le scientifique.

Le Soleil connaît actuellement sa période la moins active depuis plus d’un siècle. Le nombre de taches décomptées depuis le début du cycle actuel amorcé en décembre 2008, est très faible par rapport à la moyenne quotidienne observée ces 250 dernières années, en fait moins de la moitié.

Les cycles solaires ont une durée moyenne de 22 ans, onze ans qui amènent au maximum et onze autres années ramenant au minimum après quoi un nouveau cycle commence.

Les éruptions solaires ou éjections de masse coronale projettent du plasma solaire à très grande vitesse dans l’espace qui vient frapper la haute atmosphère de la Terre et interagit avec son champ magnétique.

La Nasa a lancé le 13 mars quatre vaisseaux spatiaux identiques (MMS) destinés à étudier ces interactions, mal comprises, entre les vents solaires et le champ magnétique terrestre.

Le champ magnétique de la Terre protège normalement de ces particules mais quand il y a des éruptions solaires de forte puissance comme celle de mardi, il se produit un phénomène dit de reconnexion magnétique dans la magnétosphère terrestre. Ce phénomène est responsable des aurores boréales mais aussi des orages magnétiques pouvant perturber le fonctionnement des satellites de communications et le réseau électrique.

« La reconnexion magnétique est l’un des facteurs les plus importants dans les phénomènes météorologiques spatiaux », avait souligné Jeff Newmark, directeur par intérim de la division d’héliophysique de la Nasa avant le lancement de cette mission.

js/gde

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

La pollution de l’air, une « aberration économique » (sénatrice)

Cette commission doit commencer ses travaux jeudi, par l’audition des organismes Atmo de mesure de la qualité de l’air, a indiqué lundi à l’AFP la sénatrice (Ecologiste) de Paris, Leila Aïchi.

Il s’agit de « faire la démonstration que non seulement la pollution de l’air est un enjeu sanitaire – 42.000 à 50.000 morts prématurées chaque année en France – mais aussi une aberration économique et financière », souligne la rapporteure. Mme Aïchi estime que la facture devrait se chiffrer en dizaines de milliards d’euros annuels, évoquant une rare étude ayant dans le passé estimé le seul impact sanitaire entre 14 milliards et 17 milliards.

« L’idée est d’être le plus exhaustif possible: d’aborder la question de la pollution de l’air intérieure et extérieure, d’avoir le spectre d’auditions le plus large », a-t-elle expliqué. « Ce que nous voulons est un constat le plus objectif possible sur le sujet, et aussi réfléchir aux solutions: il ne faut pas simplement dénoncer, mais montrer qu’il y a des opportunités », a-t-elle encore dit, citant en exemple le retard pris sur l’essor des véhicules électriques.

L’objectif est ainsi de démonter les arguments de ceux qui s’opposent aux mesures de lutte contre la pollution « sous prétexte de préserver des emplois ou au motif que les combats pour la protection de la santé et de l’environnement seraient néfastes à notre économie », a précisé mardi la sénatrice, au cours d’une présentation de la commission à la presse.

ONG, scientifiques, experts économiques, élus, organismes de Sécurité sociale, mais aussi de grands groupes industriels (chimie, auto, aviation, industrie pétrolière etc) seront entendus tous les jeudi jusque fin juin par la commission d’enquête, qui remettra son rapport vers la mi-juillet.

Pour sa première séance d’auditions jeudi, elle entendra, outre les Atmo, les dirigeants de l’Agence nationale de sécurité sanitaire, de l’alimentation, de l’environnement et du travail (Anses), puis des responsables de la division environnement de l’Organisation de coopération et de développement économiques (OCDE) et deux dirigeants de l’Institut national de l’environnement industriel et des risques (Ineris), a détaillé la sénatrice.

Jean-François Husson (UMP), qui préside la commission, a confié mardi avoir a bon espoir que la commission parvienne à « un constat de fond partagé », au-delà des divergences politiques.

Cette commission, qui effectuera « trois ou quatre déplacements » en région, sur des sites non encore déterminés, compte au total 17 membres, dont six vice-présidents, représentant l’ensemble des groupes politiques.

Afin de susciter un débat le plus large possible, le public pourra poser des questions dans le cadre des auditions, via une plateforme sur le site du Sénat et via les réseaux sociaux (une page Facebook « Pollution en questions » et un compte Twitter « @compollution » ont été créés).

« L’idée est que, dans la dynamique de la démocratie participative, nos concitoyens s’emparent des sujets qui les concernent. On veut une communication dynamique et interactive, et aussi à l’endroit des jeunes », a souligné Mme Aïchi.

cho-abb/dab/pad

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Antivirus gratuits : créez un “kit de sécurité” informatique

Voici quelques outils de sécurité gratuits (mais très efficaces) à utiliser pour constituer ce kit. Combinés, ils forment une suite de sécurité / antivirus et antimalwares robuste et flexible, bref presque imparable.

Traquez les malware et les virus

Le PC Cleaner (“nettoyeur de PC”) d’Avira est un logiciel qui peut être utilisé en parallèle avec d’autres anti-malwares (logiciels malveillants), comme Spybot ou AdwCleaner. Gratuit, PC Cleaner n’a pas besoin d’être installé : il suffit de le télécharger pour l’utiliser d’un simple clic. Il est donc utilisable via une clé USB, qui vous permettra de le lancer depuis n’importe quel ordinateur. Ce freeware, très simple à utiliser, balaie votre ordinateur à la recherche de logiciels malveillants. S’il en détecte, vous pouvez les supprimer, là aussi d’un simple clic.

Sur votre clé USB, vous pourrez aussi glisser l’anti-virus portable McAfee Stinger. Simple d’utilisation, gratuit, il est lui aussi utilisable en parallèle d’autres logiciels de sécurité portables, comme Comodo Cleaning Essentials et Kaspersky Virus Removal Tools. Vous pourrez utiliser ces trois outils pour détecter et éliminer des virus, des chevaux de troie, des spywares et des malwares. Points forts : ces logiciels sont régulièrement mis à jour par leurs éditeurs respectifs (dont la réputation de sérieux n’est plus à démontrer), tout en ne nécessitant aucune installation – l’analyse se fait à la demande, à partir d’un fichier exécutable.

Voici un quatrième antivirus gratuit de qualité : ClamWin Portable. Contrairement aux autres, il faut l’installer. Mais comme il prend peu de place, vous pourrez l’installer sur votre clé USB, afin de pouvoir le lancer ensuite depuis ce support externe. Open source, ClamWin Portable est un antivirus et un anti-spyware simple à utiliser, et très efficace : la base de données de ClamWin est réputée pour être très complète, car mise à jour régulièrement.

En dernier recours, comme l’indique son éditeur sur Softonic, vous pourrez lancer, depuis votre clé USB, un nouveau scan de votre PC à partir de Norton Power Eraser. Il y traquera malwares et antivirus récalcitrants. Vous pourrez utiliser le scan “standard”, ou le scan “agressif” (paramétrable en profondeur), si vous disposez de connaissances plus approfondies en informatique – dans le cas contraire, vous risquez de supprimer des fichiers inoffensifs, mais détectés comme dangereux.

Un kit qui tient dans votre poche

Maintenant, vous disposez d’un “kit” de sécurité portable, complet et efficace, à glisser dans votre poche. Il vous sera très utile si vous souhaitez tester une machine sans connexion internet, appartenant à un ami, à un cybercafé ou à un membre de votre famille. Il vous permettra aussi de dépanner un ordinateur où des virus vous empêcheraient d’accéder aux sites antivirus, ou d’installer des logiciels.

Pourquoi utiliser plusieurs logiciels portables en parallèle, et pas un seul ? Vous le constaterez sûrement si vous les testez sur un même ordinateur infecté : les résultats sont souvent différents d’un logiciel gratuit à l’autre. Pour éviter de mauvaises surprises (un virus ou un malware non détecté par votre unique programme), mieux vaut donc lancer plusieurs antivirus, et ainsi utiliser pleinement ce petit “kit” de sécurité.

Par Fabien Soyez

Et aussi dans les
ressources documentaires :

Nos interactions sur Internet sont analysées par l’Europe

Prédire l’action d’un internaute, à partir de liens Internet : c’est le rêve des chercheurs européens du projet NADINE (New tools and Algorithms for DIrected NEtwork analysis). Financé par l’union européenne dans le cadre du FP7, un programme de recherche international, il tente “d’analyser les liens entre les pages web, pour analyser les caractéristiques de nos interactions”.

Les scientifiques du CNRS (Centre national de la recherche scientifique), du MTA Sztaki (l’institut hongrois de recherche informatique et robotique, à Budapest) et des universités de Milan (Italie) et de Enschede (Pays-Bas) développent des algorithmes et des méthodes d’analyse de l’activité en ligne. Leur but est de “contribuer au développement d’une nouvelle génération de moteurs de recherche”, et de dévoiler, à terme, “la façon dont les personnes, les pays et même les échanges commerciaux sont liés”.

“Nous tentons d’établir une carte d’Internet afin de découvrir comment les pages sont reliées et comment les internautes utilisent ces liens lorsqu’ils parcourent la toile”, explique Dima Shepelyansky, directeur de recherche au laboratoire de physique théorique du CNRS.

L’algorithme de Google comme outil de base

Les scientifiques ont utilisé l’algorithme de Google, le PageRank,qui mesure l’importance d’une page en fonction du nombre de liens pointant vers elle. Avec d’autres algorithmes, il permet de de “voir comment les pages sont reliées entre elles”. Ces observations peuvent, par exemple, “amener à établir la probabilité que les internautes visitent certains sites, fassent certains choix, achètent des produits ou votent d’une certaine façon”.

Au départ, les physiciens, informaticiens et mathématiciens ont essayé de classer des personnalités selon leur influence, à partir de leurs biographies Wikipédia. Ils ont pris en compte les 24 langues principales et le nombre de pages pointant vers la biographie de chaque personnalité, grâce à PageRank.

Mais les résultats se sont avérés limités. “La personnalité déterminée comme étant la plus influente était le scientifique Carl Linnaeus. En effet, puisqu’il a proposé une classification des êtres vivants, toutes les pages Wikipédia sur les animaux et les plantes contiennent un lien vers sa biographie, ce qui a faussé les résultats”, expliquent les chercheurs.

Ces derniers ont alors décidé d’utiliser, en complément, un autre algorithme : CheiRank. Il s’agit d’un autre modèle d’analyse de la popularité d’une page, basé sur les liens entrants, mais aussi sur les liens sortants d’une page. Au lieu de n’évaluer que la popularité d’un article, CheiRank prend en compte le caractère communicatif des nœuds.

“En combinant les données obtenues avec ces deux outils, nous avons pu définir une méthode fiable de mesure de l’importance d’une page web”, indiquent les chercheurs. Les outils développés par NADINE permettraient également de détecter les “communautés auto-organisées, créées en ligne”.

“Une nouvelle façon d’analyser les échanges commerciaux”

Etant donné que, pour les scientifiques de NADINE, “l’information sur Internet circule de manière similaire aux échanges commerciaux”, l’équipe de chercheurs a appliqué ses résultats à l’analyse des flux commerciaux. Ils se sont ainsi basé sur “l’observation que les liens qui pointent vers une page web et les liens qui en sortent peuvent montrer comment se font les échanges d’information”.

A partir de la base de données commerciale de l’ONU, qui contient des données sur les 50 dernières années, NADINE  a développé “une nouvelle façon d’analyser les échanges commerciaux de 61 produits entre les pays des Nations Unies”, et a déterminé écomment les variations de prix influencent la balance commerciale”.

Sans vraiment l’avouer, les chercheurs tentent ainsi de prédire les échanges commerciaux. “Maintenant que la méthodologie est clairement définie, nous comptons continuer nos travaux en collaboration avec plusieurs partenaires, dont l’Organisation mondiale du commerce”, indiquent-ils.

Le projet NADINE prendra fin en avril 2015. Il est financé par l’UE à hauteur de 1,223 million d’euros.

Par Fabien Soyez

Le nouveau vice-président français de Toyota a dû défendre ses vacances face aux Japonais

« Ma femme est prof, à partir de ce moment-là même si mes enfants sont grands aujourd’hui, je prends des périodes de vacances pendant les vacances scolaires. Donc on a eu quelques discussions un peu sévères au début quand j’ai commencé », a expliqué M. Leroy à l’antenne de RTL.

M. Leroy, un ingénieur de 57 ans, est entré chez Toyota en 1998 après avoir entamé sa carrière dans l’industrie automobile chez Renault. Sa nomination au poste de l’un des six vice-présidents exécutifs de Toyota, premier constructeur mondial, a été annoncée le 4 mars. Il est le premier étranger à prendre ce titre au sein du géant japonais.

Pour M. Leroy, basé à Bruxelles, ses exigences en termes de temps libre, à rebours des pratiques japonaises, notamment des dirigeants d’entreprise, font « partie de ce qu’ils (les dirigeants de Toyota) aiment aussi dans ma personnalité ».

« Je ne me suis pas écrasé simplement sous le prétexte qu’ils voulaient que je respecte un certain nombre de règles. On est parti du principe que je prends les mêmes vacances que n’importe quelle autre personne qui aujourd’hui travaille en France ou en Europe », a encore dit M. Leroy.

Sa promotion lui a « fait particulièrement plaisir » mais il a assuré qu’il n’était pas impressionné, « parce que c’est quelque chose qui se construit étape par étape, et c’est quelque chose aujourd’hui sur lequel Toyota m’a bien préparé depuis maintenant de nombreuses années ».

Grimper à ce niveau au sein de Toyota a aussi fait mentir ceux qui, a-t-il relevé, le mettaient en garde contre l’idée d’entrer dans une société japonaise en le prévenant que « tu n’auras jamais de responsabilités ».

« Il faut gagner ses galons, vous respectez vos engagements et vous obtenez des résultats », a-t-il résumé.

tq/fz/ep

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

ELF d’Organic Transit : quand le soleil a rendez-vous avec vos muscles

Le psychothérapeute et aventurier Bertrand Piccard ne cesse de le répéter : « Solar Impulse n’est pas un avion. C’est un message : toutes les technologies que nous avons à bord peuvent être utilisées dans la vie de tous les jours ». Et c’est exactement ce que fait Organic Transit, qui vient de remporter le 12 mars 2015 le « People & Planet Award » de l’ONG Green America.

Le modèle ELF standard est équipé d’une batterie lithium phosphate de 540 Watt-heures (11.25 Ah x 48V) fabriquée par le Coréen Samsung et dont la durée de vie est d’environ 7 ans, avec un système de gestion (BMS) de technologie allemande. Ainsi que d’un panneau solaire flexible Sunpower de 100 Watts faisant intégralement partie de la structure du toit et permettant de collecter l’équivalent d’environ 20 kilomètres par jour avec l’insolation moyenne annuelle française. Davantage plus au sud. La batterie stocke assez d’énergie pour effectuer 29,5 km sur plat, moins sur terrain accidenté. L’assistance musculaire (pédalage assis sur un fauteuil confortable) permet de presque doubler cette autonomie.

Compte-tenu de l’intérêt de cette technologie dans la perspective du développement durable, Techniques de l’ingénieur a voulu en savoir plus et a posé quelques questions à Rob Cotter, le fondateur d’Organic Transit, qui a d’abord travaillé dans le domaine des voitures de course chez Porsche et BMW. Fasciné dès 1977 par le Gossamer Condor, un avion ultraléger à propulsion musculaire, Rob Cotter a développé une véritable passion pour les véhicules à très haute efficacité énergétique. Vice-président de la Human Powered Vehicle Association dans les années 80, il a dirigé la première course de voitures solaires aux USA.

 

Techniques de l’Ingénieur : Pourquoi le nom “ELF” ? Y-a-t-il une signification ?

  • Rob Cotter (fondateur d’Organic Transit) : Ce nom m’est venu à l’esprit il y a 30 ans. Ce sont les initiales de Electrique, Léger et Fun (Electric, Light and Fun ndlr). J’aime beaucoup la façon dont ces trois lettres se combinent. J’ai aussi le sentiment qu’ELF représente un petit collaborateur efficace qui travaille dur (les Elfes sont des petites fées de la mythologie nordique ndlr).

TI : Le nom de l’entreprise, « Organic Transit », semble lié à la nourriture bio (« organic food »), n’est-ce pas ?

  • RC : Oui, la partie bio (organique) de notre véhicule c’est l’être humain qui aide à la propulsion du véhicule. Ajoutons que de nombreux matériaux qui constituent l’ELF sont d’origine biologique. Nous avons construit certains modèles avec du tissu à base de chanvre et utilisons des matériaux recyclables. Nous avons aussi effectué des essais avec du bambou et d’autres matières d’origine végétale dont le chardon. Nous allons par ailleurs commencer l’expérimentation de fibres de carbone recyclées et de fibres de bois. Utiliser du bioplastique est également possible. Nous ne faisons pas de peintures, évitant ainsi un processus toxique. La couleur de la carrosserie est directement imprégnée. Nous utilisons aussi de l’acier inoxydable, ce qui évite de peindre. Le cadre du véhicule est constitué d’aluminium à 40% recyclé. Il s’agit d’aluminium brut.

TI : ELF est un véhicule à très haute efficacité énergétique: pouvez-vous nous en donner les raisons principales ?

  • RC : L’automobile trouve ses racines dans les systèmes de traction par les chevaux. ELF est au contraire conçu à partir de technologies dérivant des bicyclettes, des avions et des bateaux légers (dont les kayaks). C’est donc une autre façon de concevoir les transports terrestres. L’efficacité découle fondamentalement du fait que le véhicule est ultra-léger et qu’il y a très peu de résistances de roulements. ELF pèse seulement 70 kilos, dont 20 kilos pour la carrosserie qui protège de la pluie et du soleil (Contre par exemple 445 à 473 kg pour la Renault Twizy et plus de deux tonnes pour la Tesla Model S ndlr). Il en résulte une cascade d’effets positifs. Grâce à la légèreté, moins de batteries sont nécessaires. Et comme moins de batteries sont nécessaires, alors les panneaux solaires peuvent jouer un rôle majeur.

TI : Quelle est la consommation kilométrique moyenne d’un ELF ? Par exemple la Renault Twizy consomme 50 Wh/km. La consommation d’une Nissan Leaf s’élève à 137 Wh/km. Et à 440 Wh/km pour un véhicule thermique qui consomme 4 litres de carburant d’origine fossile aux 100 km. 

  • RC : Nous sommes parvenus à 18,3 Wh/km. Et cette consommation moyenne peut être presque divisée par deux lorsque le conducteur pédale.

TI : ELF est vendu a un prix attractif (à partir de 5500 $). Comment êtes-vous parvenus à un prix aussi bas ?

  • RC : A nouveau c’est lié à notre focus sur la technologie des vélos et non sur celle des automobiles. ELF a une masse 20 fois plus faible que celle d’une voiture. Le coût de la chaîne globale va refléter le fait que le temps de montage, les frais d’expédition, les frais généraux et le coût de la formation du personnel sont considérablement réduits.

TI : Pouvez-vous nous dire combien d’ELF ont été vendus depuis sa commercialisation en 2013 ?

  • RC : En deux ans nous avons délivré 450 unités dans 8 pays.

TI : Combien d’ELF pouvez-vous produire chaque mois ?

  • RC : Nous pouvons produire 10 ELF par semaine. Mais nous sommes actuellement en train de réaliser des prototypes pour de nouveaux modèles, ceci dans la même usine. Donc notre cadence de production n’est pas à son maximum. Nous devrions pouvoir atteindre 1200 à 1500 unités par an dans le cadre d’une production décentralisée et optimisée. Cela sera complémenté par la production à l’étranger: nous cherchons à nous installer en Nouvelle-Zélande, en Belgique et peut-être en Hollande cette année. Ceci tout autant pour la production que pour la distribution.

TI : Quand les exportations vers les Pays-Bas et l’Allemagne ont-elles commencé ?

  • RC : Nous avons livré quelques unités pour chacun de ces pays mais nous cherchons à passer à une autre échelle, ce qui va nécessiter des usines d’assemblage en Europe.

TI : Est-il possible d’acheter un ELF en France ?

  • RC : Oui !

TI : Organic Transit s’intéresse-t-il également aux pays en voie de développement ?

  • RC : Dans ces pays des études culturelles doivent être réalisées pour s’assurer d’un succès à long-terme. Comme pour les autres pays, une seule taille et une seule configuration ne convient pas à tous. Dans certaines régions de l’acier sera utilisé à la place de l’aluminium pour la fabrication du cadre. Ou de l’osier à la place du plastique. Nous focalisons sur les régions où les routes sont en mauvais état. Nous sommes en contact avec une ONG dont le projet est d’apporter de l’électricité solaire pour alimenter des ordinateurs. Donc nous allons équiper l’ELF (et un autre modèle baptisé OX) avec davantage de capteurs solaires photovoltaïques. D’autres seront conçus pour le transport d’eau douce ou pour des services d’ambulances. Les besoins dans ce domaine vont croissant. La seule chose que ces gens ont en commun c’est d’avoir peu de ressources financières et l’incapacité de payer des carburants fossiles. Et c’est là qu’intervient Organic Transit.

Rob Cotter à côté d’un ELF (Organic Transit)

 

Grâce à sa carrosserie (en forme d’œuf aérodynamique), ELF est bien visible sur la route, ce qui améliore la sécurité routière. Disposer de trois points d’appui (trois roues) au lieu de seulement deux pour le vélo est également un sérieux atout en matière de stabilité, notamment pour les personnes âgées.

La bimodalité électro-solaire / bio-musculaire permet de doser ses efforts et de monter les pentes sans se fatiguer. Et d’éviter d’arriver la chemise trempée de sueur au travail. Les collègues apprécieront. ELF possède deux sièges ainsi qu’un coffre d’environ 80 litres. Il peut embarquer une masse totale, passagers compris, de 180 kilos. Une remorque peut être fixée à l’arrière du véhicule afin de transporter des objets volumineux. Le moteur électrique délivre une puissance entre 750 et 1000 Watts selon le modèle, ce qui est suffisant pour les 550 Watts nécessaires pour rouler à 30 km/h en mode 100% électrique. Avec ses 70 kg ELF, qui peut embarquer deux adultes, pèse seulement 20 kg de plus que deux vélos (2 x 1 place) à assistance électrique (VAE). Surprenant pour un véhicule qui possède tous les avantages d’une petite voiture.

Différentes options sont disponibles, comme par exemple doubler ou tripler la capacité des batteries pour gagner en autonomie, augmenter la surface des panneaux solaires, ou encore, pour les frileux, installer des portes.

Organic Transit ne manque pas de créativité : la start-up étudie la possibilité d’intégrer différentes technologies de conduite autonome dans la perspective de développer des services d’autopartage et de livraison de marchandises. « Votre équipe a effectué un travail formidable » a déclaré Amory Lovins, fondateur du Rocky Mountain Institute, un organisme de référence à l’échelle mondiale dans le domaine des écotechnologies à haute efficacité énergétique et matérielle.

A Paris le taux d’occupation des voitures est d’1,4. La distance moyenne des trajets parcourus dans le cadre d’Autolib est de 9 kilomètres. Et la vitesse est limitée entre 30 et 50 kilomètres. Autrement dit ELF est parfaitement adapté pour la mobilité parisienne. ELF est d’un point de vue réglementaire classé dans la catégorie « vélo ». Le conduire ne nécessite ni assurance, ni permis de conduire. Terminées les factures d’essence et le sentiment de culpabilité en polluant l’air que les jeunes enfants respirent. Et finies les importations de pétrole en provenance de pays ne respectant pas les droits des Femmes.

Chacun peut aujourd’hui se déplacer dans la vie de tous les jours grâce à l’énergie solaire. Concrétisant ainsi la vision de Bertrand Piccard.

Olivier Daniélo

 

En savoir plus sur la magie d’ELF :

Les dernières mesures de Planck contredisent le modèle standard

Ces mesures étaient très attendues. L’observatoire spatial Planck de l’Agence spatiale européenne (ESA)  vient de rendre publiques les dernières données recueillies par la mission. Ces 1653 détections vont pouvoir être analysées, corrélées et utilisées pour tester différents modèles cosmologiques.

Ainsi, la dernière analyse publiée par Planck se veut deux fois plus précise et plus perfectionnée que la précédente. En effet,  les scientifiques ont intégré 439 amas de galaxies (contre 189 auparavant) et optimisé le traitement des données en tenant compte à la fois de la vitesse d’éloignement (redshift) et du signal sur bruit. Ce nouveau degré de précision permet de valider ou d’invalider certaines hypothèses. Planck permet d’en savoir un peu plus sur la matière noire.

Tout d’abord, ces résultats excluent l’existence du modèle de matière noire caractérisé par l’annihilation matière noire/antimatière noire. Ensuite, ils confirment la conclusion des précédentes analyses qui estime que la matière noire occupe près de 26% de l’univers. Du coté des neutrinos, ces observations sont compatibles avec le modèle standard, excluant l’existence d’une 4ème et par conséquent d’une 5ème famille de neutrinos, hypothèse émise suite aux mesures précédentes. 

Les données ont aussi permis de déterminer la limite supérieure à la somme des masses des neutrinos. Celle-ci est désormais établie à 0.23eV. Mais cette valeur pose problème car elle est en désaccord avec l’analyse des forêts de Lyman-Alpha (étude des raies d’absorption des nuages primordiaux d’hydrogène) et les observations des oscillations acoustiques des baryons qui imposent que la somme des masses des neutrinos soit inférieure à 0.15eV. Sur ce point, les données issues de Planck soulèvent un point d’interrogation. Les scientifiques du monde entier sont actuellement en train d’intégrer l’ensemble des nouvelles informations, de quoi en savoir encore plus d’ici quelques mois.

Par Audrey Loubens

Le premier drone piloté par télépathie

Les autorités n’ont pas fini de s’arracher le képi avec les drones !

Déjà miniaturisés et faciles d’utilisation pour le grand public, les drones sont en passe de franchir une nouvelle étape de développement. En effet, il est désormais possible de piloter ce type d’engin par télépathie. Le premier à avoir réalisé cette prouesse est le fabricant de drone Tekever, aux mannettes du projet Brain Flight. Equipé d’un casque bardé d’électrodes, un pilote réussit à contrôler un drone, à le faire virer de bord à droite ou à gauche suivant la direction voulue. Il lui aura fallu quand même plusieurs mois d’entraînement pour maîtriser le pilotage par télépathie. 

Concrètement, le cerveau n’ordonne pas au drone d’aller dans telle ou telle direction, mais il est capable de déplacer un cercle à l’écran vers le haut et le bas. L’impulsion électrique associée et traduite en commande de vol. En 2014 déjà, toujours grâce au projet européen Brain Flight, une équipe allemande avait testé sur des simulateurs de vol un système capable de piloter un avion par la force de la pensée. Les scientifiques de l’équipe Physiological Parameters for adaptation (PhyPa) de l’Université technologique de Berlin avaient mis au point un algorithme capable d’interpréter les signaux du cerveau pour les convertir en commande de pilotage. Des précurseurs puisque parmi les 7 cobayes, tous ont réussi à réaliser des manœuvres, l’un ayant même réussit à poser l’avion.

Toutefois, ces travaux portaient exclusivement sur un simulateur de vol. La société Tekeven a réussit à passer du simulateur à l’appareil. Même s’il ne s’agit pour l’instant que d’un drone, le portugais anticipe déjà d’appliquer son système à des vols commerciaux.

  • Voir la démonstration du contrôle d’un drone par la pensée :

Par Audrey Loubens

Trois astronautes de la Station spatiale internationale de retour sur Terre

Barry Wilmore, Elena Serova et Alexandre Samokoutiaev se sont posés dans les steppes du Kazakhstan, à l’aube jeudi matin, a constaté un photographe de l’AFP.

« Le retour sur Terre de l’équipage de l’expédition 41/42 s’est déroulé avec succès » à 02H14 GMT, s’est félicité l’Agence spatiale russe (Roskosmos) dans un communiqué.

Les deux Russes et l’Américain s’étaient envolés vers l’ISS à bord d’un Soyouz le 26 septembre, passant au total 167 jours dans la Station spatiale et parcourant plus de 112 millions de kilomètres durant ce périple, a indiqué pour sa part la Nasa sur son site internet.

Lors de leur mission, Alexandre Samokoutiaev et Elena Serova ont notamment « participé à 50 expériences scientifiques et oeuvré pour le maintien du fonctionnement de la Station », selon Roskosmos.

Pour Alexandre Samokoutiaev, cette mission a été marquée par sa deuxième sortie extra-véhiculaire dans l’espace, a-t-il précisé.

Pour sa part, Elena Serova est la première femme russe à se rendre dans l’espace depuis 17 ans, et la première femme russe à monter à bord de l’ISS.

En partant dans l’espace en septembre dernier, cette mère de famille de 38 ans a confié « se sentir comme une élève qui se prépare à son examen principal », mais a promis de « ne pas décevoir » les gens qui l’avaient formée.

Un vice-ministre russe Dmitri Rogozine a affirmé sur sa page sur Twitter que Mme Serova « se sentait bien en ce qui concerne la tension artérielle », après l’atterrissage.

« Tout s’est déroulé comme prévu (…). Tout le monde va bien », a-t-il ajouté.

Ce vol a marqué un véritable tournant avec le retour des femmes russes dans la conquête spatiale.

La Russie a fêté en 2013 le 50e anniversaire du vol de la première femme dans l’espace, la Soviétique Valentina Terechkova, le 16 juin 1963.

Il avait été suivi par ceux de Svetlana Savitskaïa, en 1982 et en 1984.

Mais les vols de la troisième, et dernière jusqu’à Elena Serova, femme russe, dans l’espace, Elena Kondakova, remontent quant à eux à 1994-1995, lorsqu’elle avait effectué une première mission de cinq mois, puis en mai 1997 pour une mission de 10 jours à bord d’une navette américaine.

Le prochain lancement d’un Soyouz est prévu depuis Baikonour au Kazakhstan le 28 mars, avec à bord l’astronaute américain Scott Kelly et les cosmonautes russes Mikhaïl Kornienko et Guennadi Padalka.

Scott Kelly et Mikhaïl Kornienko feront un séjour d’un an dans l’avant-poste orbital, une durée dans précédent pour les membres d’équipage.

Cette expérience vise à « collecter des données biomédicales pour préparer les missions habitées de longue durée dans l’espace », a rappelé la Nasa.

burs-mp/kat/ros

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Japon: étape majeure vers la réalisation d’une centrale solaire dans l’espace

« C’est la première fois qu’est envoyé ainsi l’équivalent d’une puissance de 2 kilowatts par micro-ondes vers une petite cible, en utilisant un dispositif de contrôle de la directivité », a expliqué à l’AFP un porte-parole de la Jaxa.

Le Japon rêve depuis les années 1980 de produire de l’électricité au niveau interstellaire et de l’envoyer ensuite vers la Terre, s’affranchissant ainsi d’une météo capricieuse et des cycles jour/nuit qui empêchent d’exploiter à plein l’énergie du Soleil.

Un ambitieux projet a été lancé en 2009, après des recherches débutées en 1998.

Concrètement, des vastes panneaux photovoltaïques, à l’instar de ceux employés au sol, convertiront l’énergie des rayons du soleil en électricité, avec une capacité annuelle cinq à dix fois supérieure à aire identique.

Ce courant électrique sera à son tour transformé en flux énergétique transmis par faisceau laser ou micro-ondes jusqu’à la Terre où il sera capté par une gigantesque antenne parabolique dédiée, et retransformé en électricité.

« Puisqu’il s’agit d’une forme d’énergie propre et inépuisable, nous pensons que ce système peut contribuer à résoudre les problèmes d’insuffisance énergétique et de réchauffement climatique de la Terre dû aux gaz à effet de serre », avaient expliqué des chercheurs de Mitsubishi Heavy Industries (MHI), groupe diversifié spécialiste des techniques aérospatiales.

Les ministères de l’Economie, du Commerce et de l’Industrie (Meti) et des Sciences et Techniques (Mext) ont en effet confié en 2009 le développement du dispositif et des différents éléments expérimentaux à MHI et à l’Institut de recherches sur les engins spatiaux inhabités, une organisation qui regroupe dix-sept sociétés dont les groupes d’électronique Mitsubishi Electric, NEC, Fujitsu et Sharp ainsi que divers autres industriels.

« Il faudra des décennies avant que nous puissions passer à une utilisation pratique de cette technologie, peut-être dans les années 2040 ou plus tard », a cependant tempéré jeudi le porte-parole de la Jaxa.

« Il y a un certain nombre de défis à relever, dont l’acheminement de l’énorme infrastructure requise dans l’espace, sa construction et sa maintenance », a-t-il précisé.

kh-kap/anb/ros

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Fukushima: encore des débordements d’eau de pluie contaminée

Des murets isolent normalement les emplacements où sont installées des citernes verticales, et l’eau de pluie qui s’y accumule n’est pas censée en sortir.

Reste que ces protections ont du mal à contenir les précipitations diluviennes qui s’abattent parfois sur la région comme ce fut le cas il y a quelques jours.

Si bien que, d’après Tokyo Electric Power (Tepco), environ 750 tonnes de cette eau contenant du strontium 90 (radioactif) auraient débordé et filé alentour.

La compagnie a ensuite constaté une montée de la radioactivité de l’eau souterraine d’un puits de mesure à proximité, avec un taux passé de 370 becquerels par litre le 9 mars à 11.000 becquerels par litre le 11 mars, jour du 4e anniversaire de la catastrophe.

Ces dernières semaines, plusieurs incidents liés à l’eau contaminée ont été rapportés, dont la découverte d’une mare d’eau dans un des bâtiments du site.

Une semaine plus tôt, Tepco avait fait état de la contamination, certes temporaire mais importante, de l’eau d’un canal traversant le site et descendant vers l’océan Pacifique voisin.

Le problème de l’eau est un des plus épineux qu’ait à traiter Tepco à Fukushima Daiichi, ravagée il y a exactement quatre ans par un gigantesque tsunami.

S’y mêlent des eaux d’arrosage, des eaux souterraines, des eaux de pluie, alors que toute cette masse liquide plus ou moins radioactive doit être gérée avec des moyens qui peinent à suivre.

Plus de 1.100 réservoirs ont certes déjà été construits dans l’enceinte de la centrale, mais les quantités d’eau continuent quotidiennement d’augmenter.

Cette situation a conduit l’ex-Premier ministre Junichiro Koizumi, devenu profondément antinucléaire depuis l’accident, à déclarer mercredi lors d’un discours dans la province de Fukushima que « la gestion de l’eau contaminée n’était pas du tout sous contrôle », contrairement aux affirmations de Tepco et des autorités.

Ces propos ont été fortement contestés jeudi matin par le porte-parole du gouvernement pour qui « les effets de l’eau contaminée ne vont pas au-delà de la zone du port de la centrale », des mots maintes fois répétés par les autorités et basés sur des mesures effectuées par Tepco.

kap/tll

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Des perturbateurs endocriniens dans les cheveux de femmes (enquête)

21,35 perturbateurs ont été retrouvés en moyenne par femme, dont une moyenne de 19,42 pesticides, précise-t-elle. Le nombre de résidus par échantillon de cheveux va de 12 au minimum à 32, au maximum.

La quantité moyenne de résidus de perturbateurs endocriniens par échantillon est de 109,39 picogramme par milligramme de cheveux, selon l’enquête.

L’étude, basée sur l’analyse de cheveux d’une population restreinte et volontaire ne prétend pas être représentative de l’exposition moyenne des femmes d’Ile-de-France. Elle vise à « éclairer les questionnements » concernant l’exposition des populations à des substances considérées comme susceptibles de perturber le système endocrinien, et ainsi le bon fonctionnement hormonal, souligne l’ONG.

Soixante-quatre substances suspectées d’être des perturbateurs endocriniens ont été recherchées, dont 54 pesticides ou métabolites de pesticides, 6 retardateurs de flammes bromés et 4 PCB (polychlorobiuphényles). Les analyses ont été réalisées début 2015 par un laboratoire luxembourgeois spécialisé dans l’évaluation de l’exposition des populations aux polluants et les effets de cette exposition.

Sept substances (5 insecticides, un fongicide, un herbicide) ont été retrouvées dans tous les échantillons de cheveux. Parmi ces substances, plusieurs sont interdites en France, comme le Gamma HCH, l’hexachlorobenzene (HCB) ou la trifluraline.

Quinze substances ont été repérées dans au moins la moitié des 28 échantillons.

Vingt-et-une n’ont été retrouvées dans aucun d’entre eux.

Cette enquête est le 4e volet d’une enquête de Générations Futures sur les perturbateurs endocriniens.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

AREVA : le directeur de la rédaction de France Inter estime que les médias ont été « naïfs »

[Illustration : Jean-Marc Four / Source : France-Culture – C.Abramowitz]

 

C’est une chronique qui sonne comme un signal d’alarme pour tous les médias grand public. « Tout le monde a semblé se réveiller… effaré, devant l’ampleur gigantesque des pertes [d’Areva], 5 milliards d’euros. Cet effarement est à l’aune de l’énormité de l’échec industriel » tonne Jean-Marc Four, directeur de la rédaction de France Inter, après avoir été directeur-adjoint de France Culture et notamment rédacteur en chef et producteur de l’émission « Le secret des sources. »

« Mais (cet effarement) démontre aussi que nous avons tous été, les médias au premier chef, un peu… naïfs sur le sujet… » a-t-il affirmé le 6 mars 2015 à l’antenne aux côtés de Patrick Cohen, le journaliste le plus écouté de France.

Un débat sur la politique éditoriale en matière d’EPR a émergé au sein de l’équipe rédactionnelle des Techniques de l’ingénieur suite à la publication le 14 avril 2014 de l’article « Nucléaire EPR : le quotidien finlandais de référence dénonce son coût exorbitant ». Un internaute, ouvertement pro-nucléaire, écrivait notamment dans un commentaire suite à l’article : « on retrouve ici les termes ‘coûts astronomiques’, ‘gouffre financier’ qui n’ont rien à faire dans la bouche d’un journaliste » ajoutant que cela relevait d’une « très grande partialité ». Nous avons pris le temps de la réflexion et décidé de publier une réponse complète : « L’éolien, le solaire et le nucléaire. Le débat »

Pour le directeur de la rédaction de France Inter il existe un « aveuglement Areva » en France. Cet aveuglement explique probablement les difficultés qu’ont certaines personnes, liées ou non au business du nucléaire (comme le souligne Jean-Marc Four, ne soyons pas « naïfs »…), à constater que le déficit d’Areva constitue objectivement un gouffre financier. Elles en viennent à considérer que celles et ceux qui font ce constat, Finlandais ou Français, sont forcément intellectuellement malhonnêtes.

Un État dans l’État

« On aurait pu réaliser que les géants du nucléaire nous …cachent des infos ! Et ça ne date pas d’aujourd’hui » constate avec regrets Jean-Marc Four. « Le coût du nucléaire en France, c’est… opacité à tous les étages ! (…) Résultat : un Etat dans l’Etat. Face auquel obtenir des informations fiables relève du défi » ajoute-t-il. Les journalistes sérieux doivent avoir le courage de relever ce défi. C’est une question de déontologie.

Mais pour Jean-Marc Four le « match » est « déséquilibré » entre la presse et le milieu nucléaire. Selon lui il y a « d’un côté, une petite poignée de journalistes spécialisés sur les questions énergétiques, c’est-à-dire à même d’appréhender, à la fois, des bilans financiers et des enjeux environnementaux. ». Il est vrai que les rédactions n’ont pas forcément sous la main des journalistes scientifiques, et encore moins des journalistes scientifiques spécialisés dans le domaine de l’énergie, domaine qui peut être assez ardu. « De l’autre des bataillons de communicants avec des moyens de pression réels. Exemple : il y a 3 ans, La Tribune publie un article évoquant l’hypothèse d’un « renoncement » à l’EPR. Quelques jours plus tard, EDF suspend son budget publicitaire dans le journal. Radical » rappelle le directeur de la rédaction de France Inter.

C’est un vrai problème. Face au poids des communicants d’EDF (s’affichant comme tels ou prétendument en tant qu’ « experts indépendants » dans les médias ou à la TV), les journalistes avec peu de culture dans ce domaine technique ont du mal à faire face. Et c’est au final la qualité du débat démocratique qui est perdant, ce qui est très problématique en période de débats sur la transition énergétique. « Reste (…) qu’on aurait pu se douter qu’un drame industriel majeur nous pendait au nez dans le secteur… » estime Jean-Marc Four.

Pour le journaliste de France Inter il existe « une forme d’aveuglement idéologique et cocardier. Le nucléaire, en France, c’est… une forme de dogme (…) Or, on le sait, il existe, sans que ce soit de la connivence délibérée, une forme de porosité entre le discours des élites… et celui des médias ». On touche ici au fond du problème.

Garder son esprit critique

Pour contribuer à limiter cette porosité Jean-Marc Four invite ses collègues journalistes à se poser les questions suivantes :

« Le rapprochement Areva / EDF est-il vraiment la bonne solution ? » Sur Twitter le Vice-Président de l’Assemblée Nationale Denis Baupin (EELV) s’interroge : « l’hypothèse d’une fusion EDF-AREVA fait perdre 3% en Bourse à EDF ! Nucléaire une « énergie d’avenir » : vraiment ? ». Parallèlement Areva annonce abandonner ses activités EPR aux USA. Curieux pour une « énergie d’avenir ».

Jean-Marc Four pose une deuxième question : « qui va payer les 5 millliards d’Areva ? Difficile de penser que ce ne seront pas les salariés, et les contribuables. »

Et enfin, « troisième question, cruciale : quelle est la viabilité économique de ce « business model » du nucléaire, qui certes a, jusqu’à présent, garanti l’indépendance énergétique de la France, mais qui aujourd’hui est peut-être … périmé ! »

A l’heure où les contrats dans le solaire PV sont signés dans le monde à des niveaux aussi bas que 5 centimes le kWh et où la Deutsche Bank annonce que le coût incrémental du stockage par batterie sera de l’ordre de 2 centimes par kWh en 2020, le nouveau nucléaire constitue-t-il vraiment une énergie d’avenir ? La question, véritablement stratégique, mérite d’être posée en toute transparence. Chercher à faire baisser frauduleusement les coûts de l’EPR de Flamanville en payant au noir un demi-millier d’étrangers, est-ce cela l’avenir de la France ?

Anne Gouzon de la Documentation de Radio France a mentionné sur le site de France Culture, dans sa revue de web datée du 27 février, la chronique « Le Fukushima d’Areva » que nous avons publiée le 25 février 2015 sur Techniques de l’ingénieur. Nous espérons que les articles de la rubrique énergie continueront de féconder à leur petite échelle le débat sur notre avenir énergétique commun.

Olivier Daniélo

L’Anses veut renforcer la traçabilité des nanoparticules d’argent

A croire que les scientifiques de l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses) ont du sang normand. A la question : « les nanoparticules d’argent sont-elles toxiques pour l’homme ? », l’Agence se contente d’un « Pt’êt ben que oui, pt’êt ben que non » ! C’est bel et bien la conclusion officielle de l’expertise rendue publique le 5 mars. L’Anses a mis à jour les connaissances actuelles sur l’évaluation des risques sanitaires et environnementaux, intégrant notamment les données concernant les voies d’exposition, les activités antibactériennes et la résistance éventuelles des bactéries. D’après la revue de presse scientifique, la toxicité des nanoparticules d’argent est certaine, avec des effets biologiques nocifs avérés sur « […] les organismes aquatiques et terrestre étudiés ». On retrouve donc tout un cortège de toxicités, comme la génotoxicité et la reprotoxicité, sans oublier une inhibition de croissance et la mortalité. Un panel impressionnant pour une substance à l’utilisation banale dans des secteurs comme l’alimentaire, le textile et les cosmétiques.

Face à une telle dangerosité, on est en droit de se demander ce qu’il en est pour l’homme. Mais cette fois, l’Anses est beaucoup moins catégorique. Pire, l’Agence est incapable de dire si oui ou non les nanoparticules d’argent sont une menace pour l’homme. En cause, les conclusions des différents travaux réalisés sont contradictoires « […] rendant encore difficile à ce jour l’estimation de la dangerosité des nanoparticules d’argent ». Impossible pour l’Anses de dire si ces particules sont reprotoxiques, génotoxiques ou neurotoxiques.

Dans ses propres conclusions, l’Agence se borne donc à encourager de nouveaux travaux de recherche « […] dans les domaines de la caractérisation physico-chimique, l’évaluation de l’exposition, de la toxicologie et de l’écotoxicologie, de l’évaluation de l’efficacité antibactérienne et de la résistance bactérienne ». Pour faciliter de nouvelles analyses, l’Agence souhaite renforcer la traçabilité des informations, notamment en passant par la déclaration obligatoire dans la base R-Nano.

Par Audrey Loubens

Le tabac encore plus dangereux que prévu

Le tabac tue de nombreuses façons. Voilà la conclusion concrète des travaux menés par les chercheurs de la Société américaine du cancer. Ces chercheurs ont épluché pendant 10 années les informations de santé d’environ 1 million de volontaires. Ces derniers sont des hommes et des femmes de plus de 55 ans. En une décennie, 181 377 personnes du panel étudié sont décédées. 

Globalement, les fumeurs présentent un taux de mortalité trois fois supérieur aux non fumeurs. Mais les chercheurs ont été surpris par les pathologies présentées car 17% des morts chez les fumeurs n’étaient pas liées à l’une des 21 maladies reconnues comme provoquées par le tabac. Les chercheurs ont ainsi recensé 14 infections manifestement en lien avec le tabagisme et pourtant non considérées comme telles. D’après Brian Carter, co-auteur de l’étude, cela représente 60 000 décès annuels aux Etats-Unis supplémentaires. L’analyse des données de santé de ce million d’individus est terrible. Le tabac, déjà connu pour son rôle dans 17 formes de cancer (poumon, larynx, vessie…), induirait aussi une insuffisance rénale, de l’ischémie rénale ou encore une cardiopathie hypertensive. Des risques multipliés par deux chez les fumeurs.  Cette étude américaine parue dans le New England Journal of Medicine corrobore une autre étude, australienne cette fois, menée sur 200 000 personnes. Les scientifiques ont analysés 4 années de données médicales et la conclusion est là aussi sans appel : les fumeurs ont 2.96 fois plus de risque de mourir. Leurs travaux publiés dans BMC Medicine révèlent que 44.6% des hommes fumeurs et 33% des fumeuses risquent de mourir avant 75 ans contre 18.9% des non-fumeurs et 12% des non-fumeuses. Au final, alors que l’on estimait que le tabac tuait un fumeur sur deux, ce sont deux fumeurs sur trois qui décèderont de leur tabagisme. 

Il y a tout de même une bonne nouvelle. Arrêter de fumer permet de réduire considérablement le risque et même de l’annuler totalement. En arrêtant de fumer avant 45 ans, le taux de mortalité de l’ex-fumeur est identique à celui d’un non fumeur. De quoi encourager les démarches anti-tabac.

Par Audrey Loubens

Des fumées d’huile de moteur contaminent l’air des cabines d’avion

3% des pilotes de ligne présentent une dégradation de leurs performances physique et mentale du fait d’une exposition chronique à des neurotoxiques présents dans l’air respiré à bord de l’avion. Cette estimation inquiétante a été révélée par un rapport du Global Cabin Air Quality Executive. Mais pas de quoi alerter les dirigeants des compagnies, curieusement atones sur ce problème pourtant connu depuis plusieurs années. En 2007, le documentaire « Bienvenue à bord d’air toxique » donnait la parole à Tristan Loraine, un ancien pilote de British Airways, dénonçant cette situation. La même année, le Comittee on Toxicity sollicité par le gouvernement britannique rapportait qu’1% des vols présentaient un incident de fumée selon les pilotes. Les compagnies ont démenti en chiffrant à seulement 0.05% les vols réellement concernés.

Comment l’air des cabines d’avion peut-elle se retrouver contaminée avec des neurotoxiques ? Tout simplement parce qu’il est aspiré par les réacteurs. Ce bleed air est ensuite réchauffé et compressé avant d’être injecté dans le circuit de climatisation, puis à l’intérieur de l’avion. Mais parfois, du fait d’une certaine usure, d’un défaut de maintenance, d’une défaillance technique, de l’huile de moteur peut s’insinuer dans le système malgré les filtres. Or ces vapeurs contiennent des additifs capables d’intoxiquer  ceux qui les respirent. Cette intoxication peut être ponctuelle, mais elle peut aussi être chronique. On parle de syndrome aérotoxique, bien qu’il ne soit pas officiellement reconnu.

Le Docteur Michel Mulder, médecin et ancien commandant de bord de la compagnie KLM affirme avoir créé une batterie de tests, dont des tests sanguins, permettant de mesurer le degré de dégradation des performances des pilotes et de prédire combien de temps ces derniers restent en capacité de  voler selon leur degré d’exposition aux neurotoxiques inhalés.

En France, en 2012, la sénatrice UMP Colette Giudicelli interpellait la ministre des affaires sociales et de la santé de l’époque sur les potentiels d’intoxication des cabines d’avion du fait d’émanation d’huile moteur et notamment sur la présence de TCP dans le système de conditionnement d’air. Le ministère chargé des transports de la mer et de la pêche avait alors confirmé l’existence du risque, tout en rappelant que le personnel était formé aux protocoles de sécurité, notamment le port du masque à oxygène en cas de contamination de l’air par des vapeurs d’huile de moteurs. Enfin, d’après 2 études menées à bords de plusieurs appareils, dont des Boeing 757 et des BAE 146, il y a bien des « […] composés organiques volatils pouvant provenir de l’huile de moteur ou de cette huile pyrolisée mais en quantité très inférieure aux normes prévues. »

Malgré plusieurs témoignages de pilotes et les risques d’accident de vol, aucune mesure concrète ne semble être prise pour enrayer le phénomène et protéger l’air respiré dans les avions des vapeurs d’huile de moteur.

Par Audrey Loubens

L’avion solaire s’envole pour Ahmedabad, 2e étape de son tour du monde

Le Suisse Bertrand Piccard pilote l’avion monoplace à énergie uniquement solaire, qui a décollé de l’aéroport de la capitale du sultanat d’Oman à 06H35 locales (02H35 GMT). Il doit survoler la mer d’Arabie et parcourir les 1.465 km séparant Mascate d’Ahmedabad en quelque 16 heures, soit la première plus longue étape du tour, selon le site de la mission.

M. Piccard a relevé dans le cockpit son compatriote André Borschberg qui a assuré lundi avec succès la première étape de ce tour du monde sans précédent en reliant en 13 heures et deux minutes Abou Dhabi, capitale des Emirats arabes unis, à Mascate.

L’avion est propulsé par plus de 17.000 cellules solaires tapissant des ailes de 72 mètres, soit presque aussi longues que celles d’un Airbus A380. Mais le SI2, conçu en fibre de carbone, ne pèse que 2,5 tonnes — autant qu’un 4X4 familial, soit moins de 1% du poids de l’A380.

Le tour du monde, prévu en 12 étapes, est l’aboutissement de 12 années de recherches menées par MM. Borschberg et Piccard qui, outre l’exploit scientifique, cherchent à véhiculer un message politique.

« Nous voulons partager notre vision d’un avenir propre », a déclaré lundi M. Piccard, en soulignant que cette mission devait contribuer à la lutte contre le réchauffement climatique par la promotion de « nouvelles technologies vertes ».

Le secrétaire général de l’ONU Ban Ki-moon a salué lundi les promoteurs du projet pour « leur audace et leur détermination (qui) vont nous propulser vers un avenir plus écologique ».

Au total, l’appareil parcourra 35.000 kilomètres, à une vitesse relativement modeste (entre 50 et 100 km/h), en survolant deux océans, et cette circonvolution, à 8.500 mètres d’altitude au maximum, prendra cinq mois, dont 25 jours de vol effectif, avant un retour à Abou Dhabi fin juillet/début août.

Après l’Inde, la Birmanie est la destination suivante, avant la plus longue étape du trajet: cinq jours consécutifs de vol pour un seul pilote chargé de rallier Nankin, en Chine, à l’archipel américain d’Hawaï, dans le Pacifique.

Au total, 130 personnes participeront à l’aventure: 65 accompagneront les pilotes autour du monde (dans le cadre de l’appui logistique) et 65 autres seront à Monaco, au centre de contrôle de la mission (météorologues, contrôleurs aériens et ingénieurs).

Solar Impulse 2 est le successeur du premier prototype Solar Impulse 1, qui a permis aux concepteurs du projet de faire plusieurs vols de longue durée en Europe, au Maroc et de traverser les Etats-Unis en 2013 avec plusieurs escales, faisant d’eux les premiers à accomplir un tel exploit.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Quatre ans après, la ville qui héberge la centrale de Fukushima va retirer les pancartes pro-nucléaires

Cette mesure fait partie des projets prévus dans le cadre du budget présenté à l’assemblée municipale de cette agglomération totalement désertée.

Il en coûtera quelque 4,1 millions de yens (30.500 euros) pour enlever deux imposantes enseignes construites en 1988 et 1991.

Installée à la porte de la ville, la première dit « l’énergie nucléaire, l’énergie d’un avenir radieux », et une autre près de la mairie: « l’énergie nucléaire, pour le développement de notre patrie, pour un futur prospère ».

« Nous avons décidé de les supprimer parce qu’elles sont vétustes et constituent un risque pour les personnes qui font des retours temporaires dans leur maison », a expliqué le fonctionnaire de Futaba, sans mentionner qu’elles pouvaient être insultantes pour les habitants chassés de chez eux sans grand espoir d’y revenir de façon durable.

Quatre ans plus tard, quelque 90.000 habitants évacués de la région ne sont pas autorisés à retourner vivre dans leurs foyers autour de la centrale Fukushima Daiichi mise en péril par le tsunami du 11 mars 2011, qui a par ailleurs tué plus de 18.000 personnes.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Le mercure continue de s’accumuler dans le corps des poissons

Devra-t-on un jour renoncer à manger du poisson ?

La question se pose désormais sérieusement car à la problématique de la diminution des populations s’ajoute celle de la toxicité même du poisson. En effet, le taux de mercure mesuré dans leur chair est de plus en plus élevé, jusqu’à atteindre des niveaux incompatibles avec une consommation humaine.

Une étude parue dans Environmental toxicology and chemistry enfonce le clou en révélant que le thon d’Hawaï présentait un taux de mercure de 0.34 ppm en 2008, ce qui est supérieur au seuil recommandé aux Etats-Unis de 0.3ppm. Surtout, cette valeur augmente de 3.8% chaque année ! 

L’année dernière, Lars-Eric Heimbürger de l’Université de Brême, participait à la cartographie du mercure dans les océans. Cette campagne a permis d’observer que les océans ne contiennent « que » 600 000 à 800 000 tonnes de mercure, dont « seulement » 10 % proviennent de l’activité humaine. Pas de quoi se réjouir pour autant puisque le mercure est particulièrement présent dans les eaux de surface qui est l’environnement des poissons consommés par l’homme. 

Le problème du mercure est qu’il s’accumule dans l’organisme du poisson. Ainsi, lorsqu’un poisson en mange un autre, il ingère tout le mercure que ce dernier a pu accumuler au cours de son existence… C’est pourquoi il est fortement déconseillé de manger les poissons placés en haut de la chaîne alimentaire comme l’espadon, le requin ou encore le thon

Cette pollution au mercure n’épargne pas les eaux douces, avec des cas localement alarmants liés à la présence d’une contamination industrielle. Pour lutter contre la pollution au mercure et tenter d’enrayer le phénomène, 139 pays ont signé une convention dont le texte devrait être voté très prochainement en France.

A ce jour, les autorités sanitaires se veulent rassurantes, indiquant que la dose journalière maximum conseillée n’est pas atteinte. Toutefois, les populations à risque comme les femmes enceintes sont encouragées à limiter leur consommation de poisson.

Par Audrey Loubens

Et aussi dans les
ressources documentaires :