Le « superbonus » pourrait doubler le marché de l’auto électrique dès 2015 (constructeurs)

Au lendemain de l’entrée en vigueur d’une aide financière pouvant aller jusqu’à 10.000 euros pour l’achat d’un véhicule propre et la mise au rebut d’un diesel mis en circulation avant le 1er janvier 2001, le directeur du programme véhicules électriques de Renault a estimé que cette mesure allait « être clairement un accélérateur » pour les ventes de ces voitures.

« La cible, c’est un doublement (du marché) d’ici à la fin de l’année », a affirmé à l’AFP Eric Feunteun, pour qui cette nouvelle incitation va permettre, pour certains usagers « qui roulent un petit peu moins », d’obtenir des véhicules « moins chers qu’un véhicule diesel » pour une utilisation quotidienne.

Xavier Duchemin, directeur de Peugeot France, s’attend lui aussi à voir cette mesure faire « doubler le marché français du véhicule électrique » dès cette année. « Nous savons qu’il y a deux millions de véhicules diesel de plus de 14 ans en France. Donc c’est un réservoir particulièrement important sur cette mesure », a-t-il affirmé.

Les deux responsables s’exprimaient en marge d’une cérémonie organisée au ministère de l’Ecologie, en présence de la ministre Ségolène Royal, pour marquer les premiers achats de voitures électriques depuis la mise en place du nouveau dispositif.

Renault et PSA ont lancé des offres commerciales agressives pour attirer les clients en capitalisant sur la nouvelle aide gouvernementale: 99 euros par mois pour une location longue durée (LLD) de Renault Zoé et la même mensualité pour une Peugeot iOn, avec un vélo électrique offert aux 150 premiers acheteurs. Chez Citroën, la jumelle de l’iOn, la C-Zero, est à partir de 89 euros par mois.

A l’achat, hors aides gouvernementales, la Zoé s’affiche à partir de 21.900 euros et l’iOn et la C-Zero à 26.900 euros.

Farouk Baziz, un habitant de Montélimar (Drôme), a profité de cette promotion pour se débarrasser d’une Peugeot 306 diesel de 1994. Il utilisera sa iOn, achetée en LLD, pour « déposer les enfants à l’école, et aller au travail, ça fait 10-15 km par jour ». M. Baziz pensait à acheter une voiture électrique depuis longtemps, mais attendait « un signe fort ». « Je pense que c’est le bon moment », a-t-il expliqué à l’AFP.

En 2014, 10.540 voitures électriques neuves ont été vendues en France, soit 0,59% du marché, en hausse de 20% par rapport à l’année précédente.

Alors que Mme Royal a souhaité jeudi que « les Français se dépêchent pour saisir cette opportunité » du superbonus, mis en place « pour l’instant pour l’année » en cours, la secrétaire générale de l’Association nationale pour le développement de la mobilité électrique (Avere-France), Marie Castelli, a estimé que « ce superbonus va venir confirmer la progression » des ventes.

Mais pour elle, « l’effet levier ne va pas être si important que ça, parce que le type de personnes qui possèdent un véhicule diesel de plus de 14 ans correspond plutôt à des ménages défavorisés qui ne vont pas penser à la voiture électrique et se sentir éligibles ».

« L’enjeu, c’est aussi que les constructeurs jouent leur rôle en communiquant très fort sur les offres qu’ils viennent de présenter », a-t-elle indiqué.

tq/gbh/bma

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Allemagne : +685% d’électricité renouvelable en un quart de siècle. Et 15,7% de CO2 en moins

Entre 1990 et 2014 (un quart de siècle) la production électro-nucléaire allemande a chuté de 36%. Les émissions de CO2 du secteur électrique ont chuté parallèlement de 15,7%.

La production électro-nucléaire a en réalité commencé une régression significative à partir de 2006. Entre 2006 et 2014 elle a chuté de 70 TWh (-41,9%). Parallèlement les émissions de CO2 ont baissé de 29 millions de tonnes (-8,7%). Autrement dit chaque TWh nucléaire de moins correspond en moyenne à une chute d’un peu plus de 0,4 million de tonnes de CO2.

La période 2006-2014 (8 ans) peut être décomposée en quatre phases : hausse du CO2 entre 2006-2007 (un an), baisse entre 2007 et 2009 (deux ans), hausse entre 2009-2013 (4 ans) et baisse entre 2013-2014 (1 an). La chute globale est de 8,7%. Focaliser sur chacune de ces petites sous-périodes a peu de sens. Ce qui compte c’est la tendance de fond.

[Cliquer pour agrandir l’image]

 

A noter que la catastrophe nucléaire de Fukushima en 2011 n’a rien changé: la tendance haussière de la sous-période 2009-2013 commence avant 2011. Cela correspond en réalité à une chute de la production électro-gazière (pour des raisons de prix). Et non à la croissance des EnR. Le dogme « davantage de renouvelables = forcément davantage de CO2 » et son corollaire « le nucléaire est donc incontournable en matière climatique » sont donc fallacieux.

Entre 1990 et 2014 l’Allemagne a augmenté sa production électro-renouvelable de 137 TWh, ce qui a très largement compensé la chute des 55 TWh de nucléaire. Un bond vraiment remarquable et en bonne partie porté par des projets citoyens.

En 2014, tous secteurs confondus (électricité, transport, chaleur), les émissions de CO2 allemandes ont chuté de 4,3% comparativement à 2013 et de 27% comparativement à 1990. L’objectif du gouvernement fédéral allemand est de parvenir à une chute de 40% en 2020 comparativement à 1990. Les deux tiers du chemin sont déjà accomplis. Et, surtout, la motivation allemande pour construire un système énergétique écologique est toujours aussi forte.

Herzlichen glückwunsch.

Par Olivier Daniélo

Le train subsonique Hyperloop bientôt à l’essai

Pour ceux dont la mémoire aurait besoin d’être rafraîchie, l’Hyperloop est ce projet de train subsonique capable de parcourir 600 kilomètres (la distance séparant San Francisco de Los Angeles) en une demi-heure, soit trois fois plus vite qu’un avion pour cette distance.

Sur le papier, ce train futuriste a de quoi faire rêver…

… Et écraser la concurrence ferroviaire en Californie. Il file à la vitesse de 1 200 km/h, le prix d’un billet est bon marché, les capsules répondent aux critères modernes du confort pour ses passagers, il se veut plus écologique car fonctionnant en partie à l’énergie solaire et pour couronner le tout, il est plus sûr.

Le dispositif lui-même est innovant. Des tubes installés à quelques mètres de la surface véhiculent des capsules en lévitation – à l’intérieur desquelles une vingtaine de voyageurs ont pris place – grâce à un système électromagnétique généré par un moteur électrique. La pression atmosphérique servant à empêcher les collisions entre capsules voire des frottements avec les parois du tube, ce qui est à l’heure actuelle l’un des risques majeurs.

Gage de réussite, le projet est initié par l’entrepreneur de génie Elon Musk, co-fondateur de Paypal, créateur de Tesla Motors et de Space X dont il a d’ailleurs dépêché quelques membres pour s’occuper des plans du train.

Sur le plan technique, en revanche, c’est un défi complexe et onéreux.

Il faut jouer avec la pression atmosphérique à l’intérieur des tubes, trouver un moyen de générer l’énergie requise, supporter le poids de 28 passagers… Sans compter que le coût de production est estimé entre 6 et 8 milliards de dollars.

C’est certainement la raison pour laquelle l’équipe en charge du développement d’Hyperloop s’est faite si discrète. En effet, on attend des nouvelles fraîches depuis un an et demi. Quand enfin, le 15 janvier dernier, Elon Musk annonce sur sa page Twitter, sonnant et trébuchant, vouloir construire une piste d’essais, probablement au Texas. Le projet de train futuriste à lévitation n’est donc pas abandonné. Mieux encore, il semble avancer au rythme escompté.

Là-dessus, on peut vanter les mérites de la tactique d’Elon Musk pour avoir rendu public dès le début « Hyperloop Alpha » un dossier de plus de 57 pages offrant une vision détaillée de ce que devrait être Hyperloop. C’est grâce à cela que des start-ups ont pu réfléchir à la façon la plus judicieuse de réaliser ce projet. Et ce n’est pas fini puisque la voie, lorsqu’elle sera sortie de terre, pourra être testée par les entreprises et les groupes d’étudiants comme l’a assuré Elon Musk sur Twitter.

L’éco-ville Quay Valley doit accueillir le premier prototype.

La start-up HTT, en réflexion depuis un an, souhaite construire le réseau de transport dans une éco-ville révolutionnaire surnommée Quay Valley mais qui n’existe pas encore. Elle doit être construite entre Los Angeles et San Francisco sur une surface de 4 800 hectares l’année prochaine.

Pour information, Quay Valley a été pensé comme « une communauté modèle, auto-suffisante, qui combine à la fois les meilleures innovations du mouvement New Urbanism et la tradition des petites villes rurales de la Vallée de San Joaquin, tout en préservant l’environnement naturel de cette zone. » Avec un détail frappant : les habitants n’auront pas à débourser un centime en facture d’électricité.

Il apparaît donc logique que l’Hyperloop y soit testé, puis serve de moyen de transport à ses 150 000 futurs habitants.

Toutefois, HTT est encore en recherche de financement, qu’elle espère trouver autour du troisième trimestre 2015. En tout, pas moins de 100 millions de dollars sont nécessaires à la construction du prototype. Le PDG Dirk Ahlborn de HTT ne se démonte pas pour autant, et mise sur les financements participatifs du grand public.

Par Sébastien Tribot

Et aussi dans les
ressources documentaires :

 

Et aussi dans l’actualité :

La cigarette électronique se dote de normes en France, une première mondiale

L’Association française de normalisation (Afnor) a présenté jeudi au public les deux premières normes volontaires de fabrication de cigarettes électroniques et de liquides, élaborées en concertation avec l’ensemble des parties prenantes du secteur, une première mondiale.

La norme XP D90-300-1, pour les cigarettes électroniques, et la XP D90-300-2, pour les liquides, définissent un certain nombre de critères techniques de sécurité sur lesquels pourront s’appuyer les fabricants. Elles établissent également les informations à communiquer aux consommateurs pour garantir le maximum de transparence sur les produits.

Ces normes sont le résultat d’une demande formulée en avril 2014 par l’Institut national de la consommation, qui souhaitait que le vapotage soit mieux règlementé à un moment où des études montraient que cette nouvelle pratique n’était pas sans danger pour la santé.

« C’est une forme d’autorégulation du secteur », a souligné Olivier Peyrat, directeur général du groupe Afnor.

La norme XP D90-300-1 vise à prévenir le principal risque des ustensiles, à savoir la surchauffe de la source d’énergie ou de la chambre de vaporisation. Parmi les critères retenus, les vapoteuses devront être munies d’un système bloquant la vaporisation à 10 secondes.

La norme prévoit également sept tests pour que l’appareil « ne coupe pas, ne blesse pas, n’explose pas ou ne fuie pas ». « Quand on le laisse tomber d’1m50, le liquide ne doit pas passer du côté de la batterie », explique Bertrand Dautzenberg, professeur en pneumologie et président de la commission de normalisation.

Des tests sur les revêtements sont en outre préconisés pour vérifier qu’ils ne libèrent pas de substances toxiques ou allergisantes, et des conseils indiquent comment éviter l’accident au moment du remplissage.

– ‘Fumeurs découragés’ –

La norme pour les liquides concerne davantage la France dans la mesure où ces derniers sont la plupart du temps fabriqués dans l’Hexagone. Elle exige que les ingrédients utilisés soient de qualité pharmaceutique et de haute qualité alimentaire pour l’alcool et les mélanges aromatisants.

Sont par ailleurs interdites toutes les substances cancérogènes, mutagènes ou toxiques. Le flacon ne doit pas libérer de bisphénol A et doit être équipé d’un bouchon de sécurité en plus d’un bouchon compte-gouttes.

« L’objectif est de répondre aux inquiétudes des consommateurs et d’avoir des niveaux d’exigence raisonnables sans brider les innovations », a souligné Bertrand Dautzenberg, tout en précisant « qu’un an de cigarette électronique c’est un jour de tabagisme ».

Les deux normes comportent de plus un important volet d’information au consommateur sur la composition des produits, les doses de nicotine, les populations à risque, l’identité du fabricant et du distributeur, les consignes d’utilisation, etc.

Les fabricants pourront s’appuyer sur ce cahier des charges pour se déclarer puis se faire certifier s’ils le souhaitent, avant que la directive européenne sur les produits du tabac ne les y oblige en 2016.

« L’intérêt de tous est d’avoir un produit de qualité, c’est le but de la norme de pouvoir réunir tout le monde. Je suis sûr que 80% des fabricants qui vendent en France vont être aux normes d’ici six mois », a déclaré Bertrand Dautzenberg.

« Aujourd’hui, les fumeurs sont découragés tant par ce qu’on dit des dangers de la cigarette électronique dans les médias que par la nouvelle loi qui interdira son usage dans les lieux publics », a commenté Alan Depauw, vice-président de l’association de consommateurs Aiduce.

Au niveau européen, la France pilotera le travail d’élaboration de normes européennes qui démarrera en juin. L’Afnor présentera également en juin une troisième norme sur les contrôles des émissions de la vapeur émise.

« C’est une voie de professionnalisation et de formalisation des bonnes pratiques d’une filière jeune qui a besoin d’un cadre pour avancer dans le bon sens », a estimé Jean Moiroud, président de la Fédération interprofessionnelle de la vape (Fivape).

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Un ver marin pour reconstruire les os humains ?

Il sert d’appât aux pêcheurs. Mais les chercheurs eux aussi commencent à mordre à l’hameçon. Le docteur Franck Zal, chercheur au CNRS et à l’origine de ces découvertes, se demandait comment ce ver parvenait à respirer tout autant à marée haute (immergé) qu’à marée basse dans le sable des plages. Stupéfait des propriétés d’une molécule de ce ver, le scientifique décide en 2007 de fonder sa propre société privée en biotechnologie, baptisée Hemarina et basée en Bretagne.

Notre ver arénicole produit une molécule, qui, tout comme l’hémoglobine intracellulaire des globules rouges, est capable de transporter le dioxygène. Il s’agit d’une molécule extracellullaire, donc non enveloppée par une membrane cellulaire dont la structure est en bicouche hexagonale dite « HBL-Hb ». Elle est compatible avec tous les groupes sanguins humains. Un miracle d’universalité. On estime à 100 millions de litres le déficit de sang à l’échelle mondiale pour les transfusions. Le marché est donc colossal. Et ce n’est pas tout : cette macroprotéine peut transporter 50 fois plus de dioxygène que l’hémoglobine humaine !

Le pouvoir d’oxygénation de cette molécule permet de booster le taux de survie des greffons. Des essais sont même en cours au niveau de transplantations d’organes entiers. « Lors d’une transplantation, l’organe une fois prélevé est soumis à une forte diminution de son apport sanguin (ischémie) qui est à l’origine de lésions et de dysfonctionnements du greffon », explique la société Hemarina. « Ces altérations favorisent le rejet aigu et accélèrent l’apparition des lésions responsables du rejet chronique de l’organe transplanté. La solution HEMO2Life® permet, en additif aux solutions de préservation d’organes, d’oxygéner le greffon et donc de considérablement réduire les risques de rejet de la greffe ».

Lioad, laboratoire breton, vient de s’associer à la société Hemarina.  La fameuse molécule peut être intégrée dans des biomatériaux à base de composés similaires à ceux du tissus osseux. Le produit obtenu est implanté chez l’homme et se transforme alors en os. Les essais menés jusqu’à présent avec des cellules-souches mourraient assez rapidement, au bout de quelques semaines.

Hemarina fabrique également des pansements pour diabétiques. Les plaies de ces derniers cicatrisent en effet assez mal. D’où l’intérêt de leur donner un petit coup d’oxygène.

Par Aurore Freiberg, journaliste scientifique

Et aussi dans les
ressources documentaires :

La Nasa lance le logiciel gratuit de détection d’astéroïdes, Asteroid Data Hunter

En lançant l’Asteroid Data Hunter Challenge, la Nasa ne se doutait pas du succès qui allait en découler. En effet, suite à ce défi lancé à tous les amateurs d’astronomie possédant des compétences informatiques, la détection des astéroïdes a été améliorée de 15% ! Le coup d’envoi du concours s’est fait à l’occasion du festival South by Southwest au Texas. Les participants devaient optimiser les logiciels existants dédiés à la détection d’astéroïdes à partir des clichés pris par les télescopes. Motivés par 55000$ de récompenses, les scientifiques amateurs ont été particulièrement efficaces en proposant des algorithmes aux performances inattendues.

Agréablement surprise, la Nasa s’est empressée de les combiner pour créer l’Asteroid Data Hunter, un logiciel de détection d’astéroïdes gratuit et accessible à tous. Ce dernier améliore la détection de 15%, de quoi réjouir la Nasa qui n’en attendait pas tant. L’Asteroid Data Hunter utilise les photos issues du programme de surveillance du ciel Catalina de l’Université de l’Arizona et intègre les données du centre d’astrophysique de Harvard-Smithsonian de Cambridge. 

Grâce à ce libre accès, n’importe qui peut l’utiliser et participer à la chasse aux astéroïdes. L’Asteroid Data Hunter permet d’analyser les images de la principale ceinture d’astéroïdes située entre Mars et Jupiter envoyées par des télescopes terrestres. Lorsqu’un astéroïde est détecté, le logiciel vérifie si celui-ci est déjà répertorié ou non. S’il est nouveau, l’information est transmise au Minor Planet Center, un centre de la Nasa.

Quel est l’intérêt de cartographier les astéroïdes ? Protéger la Terre et anticiper une éventuelle chute ! Car si l’un d’entre eux, suffisamment gros, venait à percuter notre sol, cela pourrait signer la fin de l’espèce humaine. Même de « petits » astéroïdes peuvent causer des dégâts majeurs, comme ce fut le cas en 1908 avec un astéroïde de 45 m de diamètre qui provoqua une explosion équivalente à 5 Mégatonnes de TNT et qui avait rasé 2000 km² de forêt en Sibérie.

A ce jour, la Nasa surveille plusieurs milliers de géocroiseurs, ces astéroïdes évoluant dans l’environnement de la Terre. Grâce à l’Asteroid Data Hunter, l’agence américaine va pouvoir compléter sa liste.

Par Audrey Loubens

Climat: la Russie vise moins 25 à 30% d’émissions en 2030

Moscou a communiqué son objectif mardi in extremis, comme les Etats-Unis, pour respecter la date du 31 mars, à laquelle les pays « prêts à le faire » étaient invités à dévoiler leurs intentions pour l’après 2020.

La Russie représente un peu moins de 5% des émissions mondiales de gaz à effet de serre, loin derrière la Chine, les Etats-Unis, l’Inde et l’Union européenne.

Laurent Fabius, le ministre français des Affaires étrangères et futur président de la Conférence climat de l’Onu à Paris a « salué la publication par la Russie de sa contribution nationale pour la COP21 » et a invité « tous les pays à publier leur contribution dès que possible ».

Après l’Union européenne (28 pays), les Etats-Unis, le Mexique, la Norvège et la Suisse, « la Russie est la sixième partie à la Convention-cadre des Nations unies sur les changements climatiques à publier sa contribution », sur 196 membres.

Ces six contributions représentent environ un tiers des émissions mondiales de gaz à effet de serre.

Théoriquement, tous les pays doivent annoncer leur objectif de réduction de gaz à effet de serre au cours des prochaines semaines et mois, afin qu’une évaluation de l’effort global soit faite et comparée à l’objectif de limiter la hausse de la température mondiale à 2°C par rapport à l’ère pré-industrielle.

La Fondation Nicolas Hulot a apporté un bémol à l’annonce russe, en relevant qu’elle correspondait à des émissions quasi-stables entre maintenant et 2030.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Les secrets du béton de la Rome Antique

Le Panthéon, les marchés de Trajan, le Colisée… Vestiges d’une civilisation à l’apogée de son art et de sa puissance, ces monuments désormais emblématiques de la capitale italienne ont une valeur historique et culturelle inestimable. Mais pas seulement, puisqu’il aura fallu un peu plus que de la chance pour que ces témoins de la Rome antique puissent traverser les siècles en résistant aux ravages du temps et des éléments, aux tremblements de terre ainsi qu’aux multiples dégradations. L’incroyable longévité de ces bâtiments – près de deux millénaires ! – reste encore bien mystérieuse, poussant les scientifiques de tous bords à se pencher sur les techniques de construction et sur la qualité des matériaux utilisés.

Une équipe de chercheurs internationaux et interdisciplinaires, réunis sous l’égide du Laboratoire National Lawrence Berkeley (le « Berkeley Lab », rattaché au département américain de l’Énergie) aurait toutefois réussi à lever un pan du mystère. L’étude d’un échantillon du fameux mortier antique, combinant chaux et cendres volcaniques, à travers le prisme du synchrotron de l’ALS (Advanced Light Source), aurait révélé que la présence d’hydroxydes cristallins protégerait efficacement contre l’apparition des micro-fissures, et limiterait la propagation de celles-ci.

Cristaux de stratlingite lamellaire

La résistance du mortier aux micro-fissures serait en partie due à la cristallisation d’un minerai combinant des matériaux alumino-silicates et du calcium, le stratlingite lamellaire (équivalent du clinker, composant essentiel du ciment), renforçant aussi bien le matériau aux zones de contact que la matrice du ciment elle-même. Cette cohésion et cette résistance au long cours permettent au ciment de conserver un peu de son élasticité, un élément essentiel pour maintenir l’intégrité structurelle d’une construction dans un environnement à forte activité sismique.

Les matériaux utilisés par les Romains intéressent au plus haut point les scientifiques non seulement en raison de leur grande résistance et de leur durabilité, mais également pour des raisons énergétiques et environnementales. Le béton standard utilise le plus souvent comme liant du ciment Portland, un ciment composé principalement de silicates de calcium hydrauliques, nécessitant pour sa fabrication de passer par une étape de cuisson à 1450 degrés, un processus à la fois très gourmand en énergie et très polluant – importante source de gaz à effet de serre, la fabrication du ciment serait à l’origine de plus de 7 % des émissions totales de CO2 à l’échelle de la planète. Le ciment romain était lui bien moins énergivore, se contentant de chaux, de cendres volcaniques, d’eau et d’une cuisson à une température bien moindre, réduisant ainsi drastiquement l’impact environnemental. L’équipe scientifique aurait tenté à plusieurs reprises de reproduire un ciment équivalent, et il semblerait que certaines de ces tentatives aient été plus que probantes.

Cure interne du béton

Ce n’est pas la première fois que les vestiges de la Rome Antique (avec en premier lieu le Panthéon et sa coupole, 43 mètres de diamètre, la plus grande coupole de béton non-armé jamais construite au monde) mobilisent les chercheurs. D’autres ont auparavant essayé de percer les secrets de cette longévité. Un rapport du NIST (National Institute of Standards and Technology) avait déjà mis en avant les qualités du béton utilisé par nos illustres ancêtres. Selon ce rapport, le secret de cette longévité et de cette résistance tiendrait dans l’utilisation par les ingénieurs de l’époque d’un béton très léger qui aurait pris et se serait durci de l’intérieur. Ce béton, issu d’un procédé dénommé « cure interne du béton » (maintenir au contact du béton frais une humidité favorable à l’hydratation du ciment), donnerait de meilleurs résultats en terme de force, de résistance aux fissures et de durabilité.

Les qualités de ce béton proviendraient du remplacement d’une partie du sable et des pierres grossières habituellement mélangés au ciment pour élaborer le béton traditionnel, par de légers matériaux absorbants et pré-humidifiés, dispensant leur eau plus lentement et permettant la prise lente et interne. Bien que ce procédé coûte 10 à 12 % plus cher, il est rapidement amorti par sa longévité et ses frais d’entretien revus à la baisse – cette technique permettrait, selon le même rapport, de tripler la durée de vie d’un tablier de pont.

Par Rahman Moonzur

Le sparadrap générateur d’électricité bientôt collé sur votre bras

Grâce au produit fabriqué par des chercheurs coréens du de l’Institut supérieur coréen de sciences et de technologie (KAIST), il sera possible de recharger son smartphone sans chargeur. En effet, le Wearable Themro-Element est un générateur d’électricité flexible alimenté par la chaleur corporelle, de la taille d’un pansement et susceptible d’être intégré à un vêtement. Pour l’heure, le prototype présenté à l’observatoire mondial des nouveaux usages du numérique est capable d’améliorer de 30% le temps d’utilisation avant que la batterie ne lâche.

Un début prometteur obtenu après 5 années de développement. « Il génère aujourd’hui assez d’énergie en situation normale pour alimenter un bracelet connecté et doubler son autonomie entre deux charges mais il faudra encore l’améliorer pour qu’il puisse recharger un smartphone » précise l’un des inventeurs Byung Jin Cho. 

Mais les smartphones ne sont pas les seuls objets concernés, le Wearable Thermo-Element pourra alimenter des montres intelligentes ou encore les bracelets connectés. En réussissant à miniaturiser ce système de conversion de la chaleur corporelle en électricité, les chercheurs du KAIST en font un produit industrialisable aux applications multiples.

En raflant le grand prix Netxeplo, le sparadrap générateur d’énergie succède  à Wibbitz (2014), une appli mobile capable de transformer des articles en un résumé vidéo et à Electronic Tatoos (2013), des tatouages utilisés pour la surveillance des constantes vitales des patients.

  • Découvrez le wearable thermo-element :

Par Audrey Loubens

Memex, le moteur qui sonde le Web profond

Les moteurs de recherche Google, Bing ou Yahoo! ne couvrent qu’une petite partie du Web – entre 5 et 10%. Sous le “web visible”, se dissimule ainsi le “web invisible”, ou “web profond”. Les robots des moteurs de recherche ne référencent que des pages statiques, liées à d’autres pages.

La grande partie de la Toile (264 fois plus vaste que le “web visible”) leur reste inaccessible, pour plusieurs raisons. Il peut s’agir de pages ou de documents trop volumineux pour être entièrement indexés. Il peut aussi s’agir de pages protégées par l’auteur (par exemple, le cas du Monde et de ses pages payantes), qui est capable d’interdire aux robots de scanner son site, en insérant dans le code de ses pages un fichier robot.txt.

Les pages peuvent aussi être protégées, et accessibles uniquement avec un mot de passe et un identifiant. Il faut aussi savoir que de nombreux sites, comme ceux des Universités par exemple, ne rendent accessibles leurs pages que via leur moteur de recherche interne – les pages sont générées dynamiquement, et les URL des pages ne sont pas statiques. Il s’agit donc d’un web “privé”, ou “opaque”, car volontairement inaccessible, ou alors difficilement “scannable”.

Le “dark web” ne concerne pas que les échanges illégaux (armes, drogues), le piratage, le téléchargement et autres activités criminelles. Le web non indexé par les moteurs comprend des bases de données très utiles pour les chercheurs, comme Lexis Nexis ou Dialog/ProQuest, ou encore des bibliothèques en ligne. Dans le web invisible, on retrouve aussi des sites scientifiques, tels que celui de la Nasa, des sites universitaires (Berkeley, Harvard), des sites de médias, ou encore les sites des grandes entreprises.

Rendre visible l’invisible

Pour explorer cette partie non visible de l’iceberg, le Darpa, le laboratoire de recherche de l’armée américaine, a mis au point un programme capable de mener des recherches thématiques dans des pages Web non indexées. “Memex” (pour “mémoire” et ‘index”) ne se borne pas à repérer et à classer les pages Web en fonction de leur popularité et de mots-clés : il analyse les pages non répertoriées de réseaux tels que Tor, établit entre autres des liens entre les pages selon les bandeaux publicitaires qu’elles partagent, et croise de nombreuses données. Il permet aussi de créer des visualisations dynamiques des recherches, sous la forme de frises chronologiques.

Le département américaine de Défense a déjà testé, avec succès, Memex pour surveiller les réseaux de prostitution lors du Super Bowl – le programme était capable de repérer les pages cachées promouvant des services sexuels, et de récupérer des données de géolocalisation, afin d’aider la police dans leurs enquêtes. 

Salué par Barack Obama, l’outil développé par le Darpa pourrait aussi être utilisé dans d’autres activités – par exemple, dans le cas d’une épidémie comme Ebola, en repérant l’avancée géographique de données. Memex pourrait aussi, à terme, aider les recherches des internautes lambdas.

Le laboratoire de recherche précise sur son site que ce nouveau moteur de recherche ultra-puissant (dont la conception a coûté entre 10 et 20 millions de dollars) n’a pas l’intention de collecter des données  personnelles, ou de désanonymiser des services anonymes.

Par Fabien Soyez

La photo de la semaine #5

Personne n’a trouvé la réponse. La photo de la semaine #4 représentait… Une coupe de l’échantillon de roche lunaire 10.020 rapporté par Apollo 11. L’observation est faite avec un microscope à lumière polarisée, ce qui donne les couleurs particulières aux minéraux de la roche.

 

Place donc à la photo de la semaine #5 ! Cette semaine, à vous de découvrir ce qui se cache sur cette image. Bonne chance !

  • Mais qu’est-ce donc ?

photo de la semaine

 

Publiez vos propositions dans la zone « commentaires » ci-dessous.

Climat: Washington s’engage sur un objectif à l’horizon 2025

Reprenant les chiffres annoncés en novembre à Pékin lors de la conclusion d’un accord inédit avec la Chine, la Maison Blanche a annoncé avoir officiellement transmis ses engagements au secrétariat général de la Convention climat des Nations unies.

L’objectif affiché de la communauté internationale est de limiter le réchauffement de la planète à 2°C par rapport à l’ère pré-industrielle.

Pour l’ONG 350.org, les chiffres transmis à l’ONU représentent un « engagement important » de la part des Etats-Unis, deuxième plus gros émetteur de gaz à effet de serre derrière la Chine, mais « en soi, l’offre actuelle est clairement insuffisante pour rester sous la barre des 2°C ».

Et l’organisation environnementale de profiter de l’occasion pour réclamer le rejet du projet de l’oléoduc Keystone XL entre le Canada et les Etats-Unis. « Le président Obama ne peut prétendre être déterminé à réduire les émissions s’il autorise dans le même temps un projet majeur de développement des énergies fossiles », estime-t-elle.

M. Obama, qui a fait de la lutte contre le changement climatique l’une de ses priorités, a décidé de se passer du Congrès, farouchement opposé à toute loi sur le sujet. Il a choisi la voie réglementaire pour faire bouger les lignes, en s’appuyant en particulier sur l’Agence de protection de l’environnement (EPA).

En juin, il a ainsi annoncé de nouvelles normes pour une réduction draconienne des émissions de CO2 pour les centrales électriques existantes: baisse de 30% d’ici 2030 par rapport à 2005. Le charbon, qui fournit plus d’un tiers de l’électricité consommée aux Etats-Unis, reste une composante centrale du paysage énergétique américain.

Selon le Groupe intergouvernemental d’experts sur l’évolution du climat (Giec), les émissions de gaz à effet de serre – qui ne cessent de croître – doivent être réduites de 40 à 70% d’ici à 2050 pour espérer tenir le cap des 2°C.

L’Union européenne a été la première à transmettre, début mars, son plan post-2020 à l’ONU. Les 28 prévoient une baisse de 40% des émissions de gaz à effet de serre d’ici 2030 par rapport à 1990.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

L’Open data une priorité du G8

Les métadonnées sont aujourd’hui utilisées dans quasiment tous les domaines : santé, informatique, environnement, etc. Les Etats ont suivi cette tendance en décidant de mettre leur données publiques à disposition du plus grand nombre, en toute transparence et de manière normalisée.

« Open Data in the G8 » permet grâce à différents critères de savoir quel est l’implication de chaque pays signataire :

  • 1. Mettre à disposition des données ouvertes par défaut

Les organismes gouvernementaux doivent libérer toutes les données publiques dans des formats ouverts et lisibles automatiquement sauf s’il y a une raison impérieuse de ne pas les diffuser, liée par exemple à des préoccupations de sécurité ou de confidentialité nationales.

  • 2. Assurer la qualité et la quantité des données

Les organismes gouvernementaux doivent libérer un large éventail d’ensembles de données qui ont été suffisamment examinées et nettoyées.

  • 3. Rendre les données utilisables par tous

Les organismes gouvernementaux doivent normaliser les métadonnées (c’est-à-dire les données qui décrivent d’autres données) pour tous les ensembles de données, utiliser des licences libres, et veiller à l’accessibilité générale.

  • 4. Partager les données pour une meilleure gouvernance

Les organismes gouvernementaux doivent partager leurs bonnes pratiques en matière de données ouvertes à l’échelle internationale.

  • 5. Partager les données pour permettre l’innovation

Les organismes gouvernementaux doivent libérer l’ensemble des données considérées comme « de grande valeur » par la charte.

A l’aide de ces critères, un classement a été établi : la Grande-Bretagne arrive en tête, devant le Canada, les Etats-Unis, la France, l’Italie, le Japon, l’Allemagne et la Russie. On notera l’avant-dernière place de l’Allemagne qui n’a pas mis en place 2 des 5 critères requis, ainsi que la troisième place des Etats-Unis champion dans le domaine du big data et qui ne se sont pas encore complètement investis.

Ce rapport nous montre que le big data est bien au coeur de la technologie d’aujourd’hui et qu’il devient incontournable. Néanmoins, certaines grandes puissances ont des réticences à partager une partie de leurs données alors même qu’elles ont signé la charte. L’inflation de cyber-attaques constatée en 2014 explique sans doute la réticence (et la rétention) de certaines de ces nations…

Source : bulletins-electroniques.com

De la vie sur une Lune de Saturne ?

Jusqu’à présent les scientifiques considéraient que la vie n’était pas possible sans présence d’eau liquide. C’est ce dogme aqueux que les scientifiques James Stevenson, Jonathan Lunine, Paulette Clancy ont décidé de fissurer. 

Pas d’eau (H20), mais du méthane (CH4). Pas d’oxygène (O), mais de l’azote (N). L’étude intitulée « Membrane alternatives in worlds without oxygen: Creation of an azotosome » et publiée le 27 février 2015 dans la revue «  Science Advances  » sonne presque comme une hérésie.

Les membranes lipidiques (bicouches à base de phospholipides), qui constituent le fondement de la vie de la bactérie à l’homme, ne sont pas viables en dehors d’une biologie basée sur l’eau liquide. Ce constat a conduit les astronomes à chercher dans l’univers des régions favorables à la vie dans les limites imposées par la « zone habitable », c’est-à-dire la bande étroite où l’eau liquide peut exister. 

Pas d’eau (H20), mais du méthane (CH4)

Mais des membranes peuvent-elles être crées et fonctionner à des températures bien inférieures à celles où l’eau est à l’état liquide ? « Nous avons décidé de tenter de répondre à cette question » déclarent les scientifiques. « En proposant une membrane composée de petits composés à base d’azote, et qui est capable de se former et de fonctionner dans le méthane liquide à température cryogénique. »

Azotosomal. En recourant à des simulations moléculaires, l’équipe a montré que ces membranes cryogéniques ont une élasticité similaire à celle des membranes phospholipidiques dans l’eau avec la température d’une pièce ordinaire. 

Les chercheurs ont aussi montré que ces membranes peuvent être produites à partir de composés observés dans l’atmosphère de Titan, une Lune de la planète Saturne. Titan dispose d’un océan de méthane à sa surface. Avec vents marins, courants et même marées (gravitation). 

Titan est aussi le nom du programme de recherche d’Apple sur la voiture électrique autonome. Il y aura donc également peut-être des Titaniens sur Terre…

Par Julia Hernández, journaliste scientifique

Best of des IG Nobels… en vrac

La cérémonie des Ig Nobel vient chaque année bousculer avec beaucoup d’humour la très conventionnelle et poussiéreuse saison des Nobel, en mettant sur le devant de la scène les découvertes scientifiques les plus absurdes, les plus décalées, voire les plus nuisibles d’entre elles. La cuvée 2014 – dont nous vous avons parlé ici – fut un excellent cru, et nous encourage à nous replonger dans vingt-quatre années de prix parodiques, et ce de manière très exhaustive tant les palmarès regorgent de pépites hilarantes.

Mettez les pieds sous la table, nous avons compilé pour vous la crème de la crème des Ig Nobel, classés par catégories. Pour commencer, gros plan sur les IG Nobel… en vrac !

  • En 1997, Richard Hoagland reçut l’Ig Nobel d’astronomie pour avoir « découvert » des structures artificielles sur la Lune et sur la planète Mars. Le théoricien du complot américain s’était notamment fait connaître pour avoir voulu briser l’omerta concernant Cydonia, une forme étonnante rappelant un visage sur la surface de la planète rouge. Selon lui, les désormais célèbres clichés pris par la sonde Viking en 1976 auraient mis en évidence le reliquat d’une ancienne civilisation extra-terrestre. D’autres clichés plus récents de la structure l’ont obligé à se trouver d’autres lièvres à soulever…

Cliché pris par la sonde américaine Viking 1, en 1976 / Copyright NASA

Image satellite prise par Mars Global Surveyor, en 2001 / Copyright NASA

 

  • La même année, l’Ig Nobel des communications fut décerné à Sanford Wallace, pour son importante contribution aux névroses de notre société moderne en tant que « roi du spam ». Quant à Bernard Vonnegut, de l’université d’état d’Albany, il rafle l’Ig Nobel de météorologie pour son merveilleux rapport intitulé « Le plumage des poulets comme mesure de la vitesse des vents des tornades ».

 

  • En 1998, c’est le Canadien Troy Hurtubise qui attire l’attention du prestigieux jury, avec une étrange armure de protection conçue pour étudier de près les grizzlys, armure qui lui vaut les honneurs de l’Ig Nobel d’ingénierie et de sécurité. Pour s’assurer du bon fonctionnement de son armure anti-ours, le Canadien n’hésitera pas à donner de sa personne dans une batterie de tests aussi loufoques que dangereux : dévaler une pente comme un pantin désarticulé (trois fois), résister à l’assaut tout en finesse d’une voiture bélier, ou encore se faire tabasser par une bande de motards pas spécialement motivés. Devenu la coqueluche de Quentin Tarantino, Troy Hurtubise s’est depuis lancé dans la conception d’un exosquelette à l’épreuve des balles.

 

  • En 2003, l’Ig Nobel d’ingénierie vient rendre hommage à John Paul Stapp, George Nichols et Edward A. Murphy Jr, pour avoir conceptualisé à la fin des années 1940 la fameuse loi de Murphy, qui peut s’énoncer simplement ainsi : « Tout ce qui peut mal tourner va mal tourner ». L’université de Stockholm n’est pas en reste, puisqu’elle est récompensée la même année par un Ig Nobel multidisciplinaire pour Stefano Ghirlanda, Liselotte Jansson, et Magnus Enquist. Leur fait d’armes ? Avoir étudié les réactions d’un panel de poulets à la vue d’un échantillon de visages humains, travaux consignés dans leur rapport « Les poulets préfèrent les beaux humains ». Les préférences des poulets cobayes seraient étonnamment similaires à celles d’un groupe d’étudiants, utilisé comme référence humaine.

Visages utilisés et comparaison des réponses. Copyright Ghirlanda/Jansson/Enquist

 

  • En 2005, l’ingénieur-entrepreneur Gauri Nanda, du MIT, se voit attribuer l’Ig Nobel d’économie pour avoir développé un réveil qui sonne puis prend la poudre d’escampette, afin de forcer le dormeur à sortir de sa léthargie. Maintenant disponible en deux versions (Clocky et Tocky), le petit réveil qui se fait la malle favoriserait même quelques belles surprises matinales, si l’on en croit la vidéo promotionnelle tournée à Paris.

 

  • Comment faire pour réussir une photo de groupe, et combien faut-il prendre de photos pour être presque certain que tous les protagonistes auront les yeux ouverts ? Pour avoir laissé parler la science et réussi à élucider ce mystère ô combien important, les Australiens Nic Svenson et Piers Barnes sont repartis avec l’Ig Nobel de mathématiques 2006. Oui, mais alors combien de photos ? Pour un groupe de moins de vingt personnes, il faudrait diviser le nombre de participants par trois, si la lumière est décente ou si le flash est correct. Si ce n’est pas le cas, il faudrait diviser le nombre par deux.

Nic Svenson gâche une photo de Piers Barnes. Copyright CSIRO

 

  • L’année suivante, l’Ig Nobel d’aviation est décerné à Patricia V. Agostino, Santiago A. Plano et Diego A. Golombek (de l’université nationale de Quilmes, en Argentine) pour avoir permis aux hamsters de trouver un moyen de se remettre plus facilement du décalage horaire. Le remède miracle ? Un petit peu de Viagra !

 

  • En 2008, c’est au tout de Geoffrey Miller, Joshua Tybur et Brent Jordan (de l’université du Nouveau-Mexique) d’être distingués par le prix parodique d’économie, pour leur incursion remarquée dans le monde chaud bouillant du lap dance. Leur découverte ? Le montant des pourboires de ces danseuses de charme serait directement lié à leur cycle d’ovulation. Basée sur un panel de 18 danseuses suivies pendant 60 jours, l’étude révèle qu’elles toucheraient en moyenne 335 dollars pour cinq heures de travail pendant l’œstrus (couramment désigné comme les « chaleurs »), alors qu’elles n’empocheraient que 260 dollars pendant la phase progestative, et 185 maigres dollars pendant le cycle menstruel.

 

  • L’Ig Nobel 2011 de sécurité publique fut décerné à John Senders de l’Université de Toronto, pour ses travaux de recherche concernant l’attention nécessaire à la conduite d’un véhicule. Ces travaux comprenaient notamment quelques tests utilisant un dispositif masquant à intervalles plus ou moins réguliers la vue d’un conducteur alors qu’il roulait sur une autoroute.

 

  • Enfin, l’Ig Nobel 2013 de probabilité n’est pas dénué de bon sens… Bert Tolkamp, Marie Haskell, Fritha Langford, David Roberts, et Colin Morgan ont découvert que plus une vache reste couchée longtemps, plus il y a de chance pour qu’elle se relève. Parallèlement, une fois la vache relevée, il est très difficile de prédire quand elle se couchera à nouveau.

 

Par Rahman Moonzur

La finance publique mondiale cherche à unifier ses pratiques sur le climat

« La prise en compte du climat est devenue consubstantielle à notre métier dans la mesure où le changement climatique menace les acquis du développement », avance Anne Paugam, directrice générale de l’Agence française de développement (AFD) et vice-présidente de l’International development finance club (IDFC), institution qui organise le Forum Finance climat.

Conséquence des catastrophes climatiques, érosion des littoraux, rareté des ressources en eau: tous ces sujets influent désormais sur les projets d’investissements dans de nombreuses régions, notamment dans les pays en développement.

Et à neuf mois de la conférence internationale sur le climat de Paris (COP21), ces questions prennent encore plus d’importance.

En 2013, sur les 400 milliards de dollars investis par les membres de l’IDFC, 87 milliards de dollars l’ont été dans des projets en faveur du climat, dont 70 milliards pour le développement des énergies renouvelables et 15 milliards pour l’adaptation au changement climatique.

Outre la vingtaine de banques publiques de développement nationales et régionales membres de l’IDFC, d’autres institutions financières multilatérales (Banque Mondiale, Banque européenne d’investissement) et des acteurs privés seront présents au forum.

Le ministre des Affaires étrangères Laurent Fabius participera à la séance de clôture.

Alors que de plus en plus d’institutions financières – publiques et privées – mettent en avant leurs investissements en faveur de l’environnement et du climat, l’objectif du forum est avant tout de tracer une définition claire et commune de ce qu’est un investissement +vert+ et d’inciter tous les acteurs de la finance à l’adopter.

« Les financements publics ne suffiront pas à couvrir les investissements nécessaires pour lutter contre le réchauffement climatique », constate Anne Paugam, qui reconnaît que certains acteurs privés sont déjà particulièrement engagés sur ces questions, comme le Crédit Agricole en France ou Bank of America-Merrill Lynch aux Etats-Unis.

Certains le sont pour des raisons d’image et avec une volonté de démarquer leur offre de celles de leurs concurrents.

Plusieurs institutions et entreprises (GDF Suez, AFD, Vestas, Unibail-Rodamco, etc.) ont levé récemment d’importants montants sur les marchés via l’émission d’obligations « vertes ».

Pour Anne Paugam, « il faut structurer de manière crédible ce marché pour que ça ne débouche pas sur du greenwashing », c’est-à-dire des opérations estampillées « vertes » mais qui, si on regarde de près les projets financés, ne le sont pas tant que ça.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Le marché de l’électronique prêt-à-porter va doubler en 2015 (étude)

Au total 45,7 millions de montres, bracelets, lunettes et autres accessoires connectés devraient s’écouler cette année, plus du double des 19,6 millions vendus en 2014, selon IDC. En 2019, le marché devrait atteindre 126,1 millions d’unités.

Sur toute cette période, les appareils portés au poignet, sur lesquels beaucoup de fabricants concentrent leurs efforts, devraient représenter plus de 80% des ventes totales.

Parmi eux, les appareils compatibles avec des applications conçues par des tiers devraient fortement aider à la croissance du marché, et « enregistrer un grand pas en avant avec le lancement d’Apple Watch cette année », indique Ramon Llamas, un analyste d’IDC cité dans un communiqué.

La montre connectée du groupe à la pomme, qui sort le 24 avril, mais aussi d’autres appareils concurrents compatibles avec des applications tierces comme la Moto 360 de Motorola ou les montres Gear de Samsung devraient représenter au total 25,7 millions d’unités écoulées cette année, évalue IDC.

Les appareils modulaires, pouvant être portés sur diverses parties du corps grâce à un clip ou une sangle, arrivent en deuxième position et devraient représenter 5,3% du marché des « wearables » à horizon 2019.

En troisième position (4,5% en 2019), les vêtements connectés devraient être selon IDC la catégorie affichant la plus forte croissance dans la mesure où de plus en plus de sociétés intègrent de l’électronique à des T-shirts, des chaussettes, des chapeaux…

Les lunettes (3,5% du marché en 2019) devraient pour leur part séduire en premier lieu des utilisateurs professionnels sur des marchés spécifiques.

Jusqu’ici, « l’explosion des appareils +wearables+ a été clairement emmenée par les bracelets de fitness », relève Ryan Reith, un autre analyste d’IDC, mais « le marché se déplace rapidement vers des appareils plus chers qui offrent davantage de fonctionnalités ».

« L’entrée sur le marché d’Apple est symbolique, mais la clé du succès sera de créer des usages convaincants pour le consommateur moyen. Beaucoup d’utilisateurs auront besoin d’une bonne raison pour remplacer une montre traditionnelle par un appareil porté au poignet ou une autre forme de +wearable+ qui devra probablement être rechargé tous les jours et avoir son logiciel mis à jour de temps en temps », prévient-il.

soe/jt/gde

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

L’huile d’olive contient un ingrédient capable de tuer les cellules cancéreuses en moins d’une heure

Voilà un espoir de traitement surprenant. L’huile d’olive, un aliment courant et accessible à tous, contient un polyphénol aux propriétés extraordinaires, l’oléocanthal (OC). Les chercheurs de l’Université Rutgers et de la City University de New-York se sont intéressés à cet antioxydant avec pour objectif de découvrir comment il agit sur les cellules cancéreuses. Ce n’est pas un hasard si les scientifiques américains se sont tournés vers l’OC, celui-ci était déjà identifié comme capable de limiter la prolifération de certaines cellules cancéreuses, mais personne ne savait encore quels mécanismes rentraient en jeu.

Grâce aux travaux parus dans Molecular & Cellular Oncology, on sait exactement comment l’OC agit : il accélère la mort des cellules cancéreuses. Une telle cellule placée in vitro met entre 16 et 24 h pour mourir par apoptose, c’est-à-dire en s’autodétruisant naturellement. Mais en présence de l’OC, certaines cellules cancéreuses se suicident en une demi-heure !

Qu’a donc l’OC de si effrayant ?

Les auteurs de l’étude expliquent que l’OC pénètre à l’intérieur des cellules et s’attaque directement aux lysosomes. Ces derniers, responsables de la digestion de la cellule sont plus gros dans les cellules cancéreuses que dans les cellules saines. Suite à cette attaque en règle, la cellule décline puis meurt. Les scientifiques remarquent que les cellules saines ne sont pas affectées, ce qui témoigne de la capacité à cibler efficacement les cellules cancéreuses.

Cette nouvelle approche est très prometteuse. Toutefois, les expériences se limitent pour l’instant à des études in vitro sur des souris et une extrapolation à l’homme semble prématurée. Comme le rappelle David Foster, co-auteur de l’étude, la quantité d’OC administrée aux souris correspond pour un humain de 90 kg à 2,25 L d’huile d’olive. Cela commence à faire beaucoup !

Cette étude vient s’ajouter à d’autres qui prouvent les bienfaits de l’huile d’olive, notamment grâce à ses antioxydants qui la composent. Ingrédient essentiel du régime méditerranéen, réputé pour être le meilleur en termes de santé, l’huile d’olive est connue pour ses nombreux effets bénéfiques. En 2010 une équipe espagnole démontrait déjà l’impact positif de l’huile d’olive sur les tumeurs, l’huile cumulant trois actions : ralentissement de la tumeur, mort accéléré des cellules cancéreuses et diminution des altérations ADN. À l’époque, les mécanismes n’étaient pas connus, ce qui est désormais le cas.

Par Audrey Loubens

Energie : Jean Jouzel et Corinne Lepage ne partagent pas l’analyse de Maud Fontenoy

Médaille d’or du CNRS et président du Haut Conseil de la Science et de la Technologie de 2009 à 2013, Jean Jouzel est un expert à l’échelle internationale du changement climatique et vice-président du GIEC, le panel des experts de l’ONU sur l’évolution du climat. Le GIEC a notamment publié en 2011 une synthèse de la littérature scientifique mondiale en matière d’énergies renouvelables (le SRREN) dont la principale conclusion est que l’humanité peut passer à un mix énergétique aux ¾ renouvelable à horizon 2050. Depuis 2011 une très abondante littérature scientifique s’est ajoutée, et les coûts des écotechnologies énergétiques ont beaucoup baissé.

« Je mets souvent la stratégie allemande en avant » en matière de politique énergétique explique Jean Jouzel aux Techniques de l’ingénieur. « De façon positive bien entendu car je crois vraiment que ce sont eux qui sont sur la bonne voie y compris sur le plan économique ».

L’Allemagne s’est fixée comme objectif d’atteindre 80% d’électricité renouvelables à horizon 2050 (40% dès 2020) et a démontré être capable de faire régresser à la fois le nucléaire et les énergies fossiles (Lire à ce sujet sur Techniques de l’ingénieur : « En Allemagne la régression du nucléaire s’accompagne de celle du charbon »).

Problème, Maud Fontenoy a déclaré dimanche 22 mars qu’« en Allemagne, où là on a décidé de sortir du nucléaire (…) on a fait exploser les émissions de CO2 à cause du charbon ». Et Jean Jouzel a dans le passé aidé la Maud Fontenoy Foundation. « Effectivement, je suis dans le Comité Scientifique de la Fondation de Maud Fontenoy. Je l’ai fait dans l’idée de l’accompagner dans certaines des actions éducatives qu’elle mène (ce que j’ai effectivement fait) » explique le grand scientifique. Mais de préciser aussitôt « cela ne veut bien sûr pas dire que j’approuve ce qu’elle met en avant dans son ouvrage ».

Michel Drucker a présenté Maud Fontenoy comme « une écologiste intelligente ». Ajoutant que « si tous les écologistes ressemblaient à Maud de Fontenoy ils auraient encore plus de succès ». Ceci le jour des élections départementales. Le présentateur de France 2 a estimé que le livre de Maud Fontenoy (« Les raisons d’y croire, non au principe de précaution, OUI à l’innovation », Plon, 2015) est « un manifeste pour défendre une écologie réaliste et innovante au service de l’urgence climatique. Alors l’écologie réaliste, on y va, le gaz de schiste… ». Invitant alors Maud Fontenoy à commencer son plaidoyer à propos de cette énergie qui fait polémique en France comme dans le reste du monde. On comprend mal la logique de Michel Drucker selon qui le gaz de schiste pourrait être utile en France en matière climatique. Peut-être a-t-il oublié que le mix énergétique américain est très différent du français.

Pour Corinne Lepage, ex-Ministre de l’environnement d’Alain Juppé et administratrice de Transparency International France, un problème de déontologie se pose. « J’ai découvert avec stupéfaction les déclarations de Maud Fontenoy, invitée à « Vivement dimanche » alors que les vrais écologistes ne le sont jamais » a-t-elle déclaré aux Techniques de l’ingénieur. « Cela signifie qu’il s’agit d’une émission dans laquelle on a le droit de parler d’écologie à condition de défendre le nucléaire, les OGM, le gaz de schiste etc… C’est-à-dire d’être anti écolo. Une exception notable : celle de Nicolas Hulot. »

Et Corinne Lepage, notamment auteur du livre « L’état nucléaire » (Albin Michel, 2014) d’ajouter : « je pense que des personnalités qui utilisent leur notoriété comme le fait Madame Fontenoy pour être volontairement contre-productive à la cause qu’elle prétend défendre sont pires que celles qui comme Claude Allègre portent en bandoulière leur haine de l’écologie. Dans les propos qui ont été tenus, les à-peu-près, les contrevérités, les généralités qui n’ont aucun sens s’équilibrent. »

Transparence

Pour Hervé Kempf, ex-journaliste au Monde et fondateur du média indépendant Reporterre, qui vient de co-signer la tribune « Maud Fontenoy, l’imposture écologiste que le gouvernement prend en exemple », titre non sans rappeler un livre de Claude Allègre, un problème de transparence se pose : « Avec un tel positionnement, il n’est pas certain que Maud Fontenoy soit la plus indiquée pour enseigner l’écologie aux enfants. Ni, d’ailleurs, la transparence. Ni sa fondation, ni le ministère n’ont répondu aux appels répétés de Reporterre ». Révélant en outre que l’un des trois directeurs de la Maud Fontenoy Foundation, enregistrée aux Pays-Bas, est le milliardaire François Henri Joseph Pinault. Techniques de l’ingénieur a également tenté de joindre Maud Fontenoy par voie électronique et téléphonique afin de savoir quelles étaient sa/ses sources concernant l’évolution du mix électrique allemand. Aucune réponse. La secrétaire de la fondation, visiblement gênée, a confié que Maud Fontenoy avait reçu des tonnes de courriers « incendiaires » suite à son intervention dominicale.

« Le nucléaire est l’énergie la moins dangereuse pour l’homme » a affirmé Maud Fontenoy à Michel Drucker, visiblement conquis par le propos. « Et les accidents dues aux mines de charbon, au pétrole, à l’extraction et même aux énergies renouvelables font plus de morts que les accidents nucléaires » a ajouté la rameuse, n’hésitant pas à mettre dans le même panier des filières aussi différentes que le solaire photovoltaïque, le solaire thermodynamique, l’éolien, la micro-hydraulique, la grande hydraulique, la bioélectricité, la géothermie, l’hydrolien, l’ETM (énergie thermique des mers) ainsi que les énergies houlomotrices et marémotrices, dont le bilan doit bien entendu être effectué technologie par technologie. Une étude multicritère réalisée par le département énergie et atmosphère de Stanford University (Jacobson et al 2008) est arrivée à la conclusion que le bilan du nucléaire est aussi médiocre que celui du charbon avec CCS (Carbon capture and storage). L’éolien terrestre, suivi du solaire PV, parvenant au contraire au sommet du classement des énergies vertueuses.

Déontologie

« Ce qui est particulièrement dommageable, c’est qu’il n’y ait pas un journaliste en capacité de rétablir les faits et de veiller à ce qu’il n’y ait pas de désinformation » analyse Corinne Lepage à propos de l’émission « Vivement dimanche » du 22 mars 2015. Bien entendu ouverte à la liberté d’expression, l’ex-Député européenne estime que « chacun peut avoir l’avis qu’il veut car Dieu merci nous vivons dans un pays où il y a la liberté d’expression. En revanche, il ne faut pas confondre l’émission d’une opinion et la fourniture d’informations volontairement fausses. C’est là où il y a un problème. Et en particulier, la propagande anti allemande sur la question énergétique est à la fois stupide et mensongère. »

Denis Baupin, vice-président de l’assemblée nationale a présenté le 25 mars en commission ce graphique illustrant l’évolution du mix électrique allemand.

Pour Corinne Lepage, avocate du cabinet Huglo Lepage & Associés Conseil, l’un des experts reconnus en droit de l’environnement auprès de la Commission européenne, « dans 10 ans, lorsque toutes les preuves auront été apportées de la nocivité des pesticides, lorsque l’Allemagne aura réussi sa transition énergétique lors que la France sera engluée dans le nucléaire, lorsque l’exploitation du gaz de schiste aura été quasi abandonnée en Europe – à la condition qu’elle ait réellement commencé ce qui n’est pas le cas notamment en Pologne où toutes les entreprises étrangères se retirent les unes après les autres pour manque de rentabilité – des personnalités comme Madame Fontenoy et d’autres auront à répondre non pas d’erreur d’appréciation qu’elles auraient pu commettre, mais de fausses informations qu’elles auront délivrées. »

Le président François Hollande a promis à ses électeurs de réduire la part du nucléaire dans le mix électrique national de 75-80% aujourd’hui à 50% en 2025. Plusieurs études scientifiques montrent que passer à 90-100% d’électricité renouvelable est possible en Allemagne (Etude du SRU), aux USA (Etude du NREL)… et aussi en France. L’ADEME a effectivement confié à Mines ParisTech l’étude « vers un mix 100% électrique en France », ceci en partenariat avec plusieurs sociétés spécialisées de haut niveau. C’est une étude « stratégique pour le développement des énergies renouvelables qui est aujourd’hui essentiellement freiné par des problèmes d’acceptabilité eux mêmes nourris par des affirmations fausses du type « c’est trop cher » ou « comme çà ne produit pas quand on en a besoin donc ce n’est pas possible » » souligne l’un des auteurs de l’étude qui a préféré rester anonyme compte-tenu de la nature hautement politique du sujet. « Nous l’avons réalisée pour le compte de l’ADEME en partenariat avec Artelys et Energie Demain. L’ADEME se réserve la primeur de la présentation des résultats. »

Vivement un dimanche où ces études seront enfin présentées avec pédagogie aux Françaises et aux Français sur France 2, chaîne du service public.

Par Olivier Daniélo

Et aussi dans les
ressources documentaires :

Le développement des énergies solaires est-il une priorité en France ? L’analyse de 8 EXPERTS

Cédric Philibert (22 mars 2015)

  • Cédric Philibert est senior analyste à la division énergies renouvelables de l’Agence Internationale de l’Energie (une agence de l’OCDE) et notamment auteur du rapport de référence Solar Energy Perspectives.

Ce qu’il dit : « C’est encore pas tout à fait gagné (que la France atteigne son objectif de 23% d’énergies renouvelables d’ici 2020 ndlr). Notamment parce que l’on ne sait pas ce qui va sortir de la loi sur la transition énergétique. On a quand même beaucoup d’obstacles en France, qu’on a pas toujours ailleurs (Cédric Philibert reste très diplomate ndlr). On a un objectif photovoltaïque, et solaire en général, qui est très faible et qui est atteint. On est à 5 GW et c’est ce qu’a le Royaume-Uni aussi aujourd’hui. Je ne sais pas s’ils ont autant de soleil que nous, mais ils ont autant de solaire que nous. Ce qui prouve que l’équation économique sur le solaire n’est pas bien vue. Aujourd’hui on peut faire en France beaucoup de solaire à moins de 100€ le MWh (moins de 10 centimes le kWh ndlr) dans le sud de la France et on en fait très peu finalement. Concernant l’éolien on est très en retard sur les objectifs, à la fois dans l’offshore et sur l’éolien terrestre (…) ».

La suite de l’interview (vidéo) réalisée par le site ninjaclimat.com est accessible depuis le blog de Cédric Philibert.

Alain Liébart (septembre 2014)

  • Alain Liébart est ex-président de l’Observatoire des énergies renouvelables et de la Fondation Énergies pour le Monde.

Ce qu’il dit : « « Le développement à grande échelle des énergies décentralisées ne peut offrir aux hauts fonctionnaires les mêmes plans de carrière que ceux que leur offrent, depuis l’avènement du charbon, les énergies centralisées. Celles-là constitueront ce que Joël de Rosnay a conceptualisé sous le nom de “la longue traîne” : une infinité d’acteurs de taille moyenne, proches du terrain, représentant à eux tous une très grande surface économique et sociale. Ce projet sociétal, pour lequel j’ai toujours milité, est donc opposé à leur propre projet de corps. Avec les baisses réelles du coût des énergies renouvelables, ces deux projets sont maintenant en concurrence véritable et se préparent dans notre pays à un choc frontal. C’est pourquoi nous avons tous connu tellement de hauts fonctionnaires nucléocrates et si peu de proénergies renouvelables. Un phénomène inverse à l’évolution des mentalités dans la société en général. Et ceux que nous avons eu à connaître sont généralement restés très peu de temps en poste, ou ont très vite été marginalisés en périphérie du pouvoir. »

La suite de l’analyse d’Alain Liébart est disponible sur le site energies-renouvelables.org

Marc Théry (17 mars 2015)

  • Marc Théry, polytechnicien, est ingénieur territorial chargé de mission énergie à la communauté de communes du Mené, un territoire moteur de la transition énergétique au nord de la Bretagne. Marc Théry est l’auteur des newsletters « Les Energéthiques du Mené », des éditoriaux indépendants que l’on peut lire par exemple sur le site www.transitionfrance.fr.

En réponse à la chronique « Electricité Renouvelable : selon Chantal Jouanno, la France est incapable de faire aussi bien que le Japon et l’Allemagne » publié sur Techniques de l’ingénieur, voilà ce que Marc Théry dit :

« Hélas, désolé de devoir reconnaître que, pour une fois, Madame Jouanno a totalement raison. Non qu’il y ait une impossibilité physique ou matérielle à faire en France autant et même beaucoup plus qu’au Japon ou en Allemagne, bien au contraire : nos ressources renouvelables sont plus importantes. Mais ces deux pays n’ont pas la chance de compter l’élite inestimable, (les grands corps de l’état : énarchie, mines, ponts etc…) qui depuis la deuxième guerre mondiale nous a engagés dans toutes les impasses industrielles et énergétiques possibles qui ont fait de la France un nain industriel et un musée des horreurs énergétiques (nous y arrivons). Sans compter les ministères inénarrables, comme celui de la couture et du macramé dont fut chargé Madame Jouanno, championne de Karaté et ci-devant énarque elle-même.

Il faudrait pourtant maintenant en arriver à la vraie question : quand ceux qui sont chargés de résoudre les problèmes non seulement n’y parviennent pas, mais les aggravent avec pertinacité (c’est à dire obstination perverse), n’est-ce pas parce qu’ils sont eux-mêmes le problème ou une grande partie de celui-ci, Madame Jouanno en tête, qui n’a pas plus de compétence pour parler de cette question que moi pour jouer du violon ? Mais le papier ne refuse pas l’encre, et, avec la complicité des grands médias qui façonnent « l’opinion publique », ne doutons pas qu’il y a peu de risque que cela change… sauf accident majeur (économique ou autre), mais là, on changera sans doute de registre, hélas. »

Marc Jedliczka (20 mars 2015)

  • Marc Jedliczka, est directeur de l’association HESPUL et vice-président du CLER, le réseau pour la transition énergétique.

Ce qu’il dit : « Dans le cadre de mes responsabilités nationales au sein du CLER, j’ai participé personnellement aux groupes de travail du Grenelle, mais aussi au débat national sur la transition énergétique. Selon moi, ce qui bloque en France, clairement, c’est le nucléaire. Cela en deviendrait presque caricatural, il y a un aveuglement complet qui fait que le moindre kWh de photovoltaïque ou d’éolien pose problème au nucléaire et qu’ils ont les moyens de l’empêcher (…) »

La suite de l’interview de Marc Jedliczka est disponible depuis le blog MilkTheSun

Patrick Saultier (2015)

  • Patrick Saultier, ingénieur consultant projets locaux et participatifs EnR, directeur général d’Ile de Sein Energie (IDSE) et de Brocéliande Energies Locales.

Ce qu’il dit : « Comment expliquer qu’à Sein nous devons nous battre pour remplacer le fioul par des énergies plus sûres, moins chères et moins polluantes ? Que ceux qui ont des intérêts pour le système actuel s’y opposent est compréhensible. Que les gouvernants ne nous donnent pas la possibilité de le faire le serait moins ! Faisons le voeux que nos dirigeants retrouveront la raison et l’usage de la calculatrice en 2015 ! (…) »

Suite de l’analyse sur le site d’Ile de Sein Energie

Daniel Bour (mars 2015)

  • Daniel Bour est président d’ENERPLAN, le syndicat des professionnels de l’énergie solaire.

Ce qu’il dit : « La France semble ne pas avoir pris la pleine mesure de la révolution solaire, et est par conséquent de plus en plus distancée »

La suite de l’interview de Daniel Bour est disponible depuis le site du Figaro.

François Lempérière (septembre 2014)

  • François Lempérière, polytechnicien, est président de l’association Hydrocoop, ex-président du CFGB (Comité Français des Grands Barrages), ex-président du comité des coûts de la Commission Internationale des Grands Barrages et lauréat de l’Académie des Sciences à Paris.

Ce qu’il dit :« Les obstacles qui sont placés pour freiner le développement des énergies renouvelables en France sont absolument lamentables »

Thierry Salomon (17 mars 2015)

  • Thierry Salomon, énergéticien et vice-président de négaWatt.

Ce qu’il dit, depuis sa page Twitter : « Comme c’est étrange: la présentation de l’étude ADEME « Vers un mix électrique 100% renouvelable » a mystérieusement disparue du programme du colloque ADEME des 14-15 avril 2015. Magie noire ? Eclipse solaire ? »

Après Fukushima, vers le 100% renouvelable en France ?

C’était une étude qui était fortement attendue par les acteurs de la transition énergétique.

L’ADEME annonçait sur son site internet (message toujours visible) :

« En 2012, la part des énergies renouvelables dans le mix électrique français était de 16,7% et la loi de Transition Energétique pour la Croissance Verte a été préparée avec en ligne de mire dans son exposé des motifs, des objectifs de 27% en 2020 et de 40% en 2030 (…) Pendant deux jours, tables rondes et ateliers participatifs se succéderont avec une volonté affichée d’apporter des solutions et un mode d’emploi pour réussir l’implantation des EnR électriques au sein des territoires. L’ADEME profitera de ce rassemblement pour présenter son étude « Vers un mix électrique 100% renouvelable » dont les conclusions permettront un débat riche et porteur de solutions nouvelles et innovantes. »

Dans un communiqué de presse ADEME (agenda du premier semestre 2015) on peut lire :

« Le point d’orgue de ce colloque est la présentation d’une étude inédite commandée par l’ADEME et qui fournit les pistes pour une production d’électricité 100% renouvelable. »

Mais quand on va sur la page du programme du colloque la présentation de l’étude a disparu remarque le réseau TEPOS, le réseau TErritoires à Energie Positive qui rassemble les collectivités et acteurs du monde rural qui visent l’objectif 100% énergies renouvelables.

L’étude était pourtant bel et bien au programme, inscrite noir sur blanc, comme en témoigne le moteur de recherche Google, qui a beaucoup de mémoire.

Que s’est-il passé ? L’ADEME est placée sous la tutelle des ministres chargés de la recherche, de l’écologie et de l’énergie. Les services de la Ministre de l’Écologie, du Développement durable et de l’énergie, Ségolène Royal, ont-ils exigé ce retrait ? EDF est-il passé par là ? La perspective d’une électricité 100% renouvelable constitue-t-elle un sujet tabou en France ? Ou alors quelle explication ? La Gazette des Communes, elle aussi, s’interroge.

L’étude a été intégralement financé par l’ADEME (294 371,48 EUR TTC). Le marché public est décrit ainsi (source) :

Intitulé : « Cap 100 % Enre 2050, modélisation et optimisation d’un système électrique français 100 % renouvelable en 2050. » 

« L’Ademe souhaite pouvoir publier une étude permettant de définir les conditions et les impacts précis qu’aurait la mise en place d’un approvisionnement électrique à haut taux de pénétration des Enr (entre 75 % et 100%) à l’horizon 2050. A l’issue de cette étude, l’ademe souhaite pouvoir apporter des réponses aux questions suivantes :

  • sous quelles contraintes est-il possible de fournir une électricité à 75 ou 100% renouvelable sur le territoire métropolitain en 2050 ?

  • quel serait alors le mix énergétique optimal ?

  • quelle serait la répartition géographique des moyens de production ?

  • quel serait l’impact sur le coût de l’électricité pour le consommateur ?

  • quels seraient les besoins en terme de réseau de transport et d’interconnexions ?

  • quels seraient les besoins de moyens d’équilibrage et de services système ?

Notre volonté est de travailler sur l’équilibre offre-demande, afin d’estimer au plus juste les besoins en termes de capacités d’équilibrage et de transport nécessaires. Cette étude devra donc simuler l’équilibre offre-demande sur le réseau de transport, ainsi que le transit des flux d’électricité sur celui-ci, afin d’établir la capacité des systèmes électriques étudiés à couvrir la demande, et dans quelles conditions. Les résultats devront suggérer un ou des  » Mix énergétiques  » optimaux, ainsi que leurs répartitions géographiques, en fonction de jeux d’hypothèses issus de travaux prospectifs »

Le cahier des charges complet de l’étude, datant du 6 mars 2013, est disponible ici (PDF), sur le blog de Manfred Amoureux, ingénieur énergéticien. L’étude est décrite depuis le site PERSÉE (Centre Procédés, Energies Renouvelables et Systèmes Energétiques) de l’Ecole Nationale Supérieure des Mines de Paris (Mines ParisTech):

« Le projet ADEME CAP 100% Energies Renouvelables est considéré par les acteurs du domaine comme un projet stratégique. Il a comme objectif d’étudier le scénario de transition vers un mix électrique « à forte composante renouvelable » (e.g. de 40 à 100% de la consommation). Il doit permettre d’identifier, pour différentes hypothèses et en prenant en compte les caractéristiques du réseau de transport d’électricité, quels mixs énergétiques seraient possibles et pertinents, à quel coût et avec quels bénéfices environnementaux. Un panel d’industriels composé de de ERDF, TOTAL, Météo-France, la RTE et la DGEC a été constitué pour former le comité consultatif de ce projet phare.

La méthodologie du projet repose sur une optimisation des coûts de capitaux et des coûts d’opération du mix électrique. Les coûts d’opérations dans cette optimisation sont calculés afin d’assurer sur un nombre satisfaisant d’années météorologiques l’équilibre « offre-demande » à chaque heure de l’année et en tout point du réseau. Le réseau est modélisé de manière simplifié à partir de 25 zones incluant les pays frontaliers. L’optimisation des coûts d’investissement comprend notamment les investissements dans les centrales de production renouvelable, des moyens de stockage, leur localisation, les lignes de transport électriques. »

Robin Girard, docteur en mathématiques appliquées et spécialiste des systèmes électriques à base d’énergies renouvelables est la personne référente pour ce projet de recherche. L’étude « Vers un scenario énergétique 100% EnR (Energies renouvelables) pour la France » a été présentée par Robin Girard en octobre 2014 dans le cadre de « Journée Futuring Cities – Ville et Energie Durable », à l’Institut Mines Telecom, Paris. Robin Girard a notamment fait partie du programme de recherche « Safe Wind Project » (présenté page 9 ici).

Les partenaires du projet sont ARTELYS, société spécialisée dans l’optimisation des systèmes énergétiques, ARMINES-PERSÉE et ENERGIE DEMAIN, entreprise spécialisée dans la planification énergétique territoriale, la maîtrise de l’énergie et le développement des énergies renouvelables.

Selon le service presse de l’ADEME contacté par les Techniques de l »ingénieur, la présentation et publication de l’étude a été reportée au second semestre 2015. Des études complémentaires seraient nécessaires. Mais alors pourquoi avoir annoncé sa présentation le 14-15 avril 2015 ? N’était-il pas possible de publier l’étude comme prévu puis les compléments dans un second temps ?

Selon Eurostat la France est à l’échelle européenne médaille de bronze du retard pour remplir ses objectifs en matière d’énergies renouvelables. Seuls deux pays font pire.

L’esprit Solar Impulse de Bertrand Piccard parviendra-t-il un jour jusqu’à l’état français ?

Par Olivier Daniélo

La France s’arme à son tour de satellites espions

En s’équipant de trois satellites destinés à la collecte de renseignements d’origine électromagnétique (ROEM), la France va faire un bond de géant en matière d’espionnage. Avec le programme CERES (Capacité de renseignement électromagnétique spatiale) chapeauté par la Direction générale de l’armement (DGA) et lancé officiellement le 12 mars, elle s’aligne au même rang que les États-Unis, la Chine et la Russie et devient le premier pays européen à bénéficier d’un tel système. Enfin, deviendra ! La mise en route des satellites étant prévue pour 2020.

CERES agira en complément des satellites d’observation et de télécommunications dont dispose déjà la France et des informations qu’elle échange avec l’Allemagne et l’Italie. Les satellites évolueront en groupe, en formant un triangle afin que chacun d’eux détecte et localise les émetteurs, avec une précision de l’ordre de dix kilomètres, et mieux encore, surveille les signaux qui échappent à l’heure actuelle aux capteurs de surface. Un communiqué du CNES l’explique de cette manière : « Quand un radar émet un signal, chacun des satellites reçoit ce signal à un instant légèrement différent. C’est en croisant les informations recueillies par chacun et comparant l’heure de réception d’un même signal que l’on peut situer l’emplacement de l’émetteur. »

Les théâtres d’intérêt stratégique (centres de commandement par exemple) associés à leurs niveaux de danger seront ainsi déterminés, tout comme le degré de sophistication des réseaux de communication. Ces informations sont très précieuses pour l’armée qui peut, grâce à elles, aménager une stratégie en cas de menace. 

Les réflexions entamées en 2013 ont donc abouti. Et c’est à Airbus Defence & Space que la DGA a choisi de confier la mise en chantier des satellites du programme CERES. À cela, rien d’étonnant puisque Airbus DS est déjà le fabricant des satellites français Helios et  Pléiades ainsi que des démonstrateurs Essaim et Elisa. Cela ne fait donc que « démontrer la qualité de notre savoir-faire et de nos technologies » assure François Auque, le directeur général de Space Systems, sous-traitant d’airbus DS. Quant à la filiale française Thales Systèmes Aéroportés du groupe Thales, elle doit assurer la maîtrise d’oeuvre du segment sol utilisateurs tandis que Thales Alenia Space va s’occuper de la charge utile des satellites.

Le budget est estimé approximativement à 450 millions d’euros. Une enveloppe lourde qu’à justifié le ministre de la Défense, Jean-Yves Le Drian, par une « ambition élevée » de la loi de programmation militaire. Or, la surveillance des signaux electromagnétiques fait partie de ces quatre capacités qu’il considère essentielles avec l’imagerie sécurisée optique notamment. Car l’un des avantages du programme CERES – donc du trio de satellites d’écoute – est de pouvoir évoluer légalement au-dessus de n’importe quelle zone du globe. En dehors de tout cadre juridique, les satellites d’observation représentent la meilleure solution d’observation non intrusive. Ce qui se révèle très pratique quand on en dispose. 

Par Sébastien Tribot

Aujourd’hui, une question essentielle… Comment uriner sans éclaboussures ?

Vos relations sociales en ont peut-être un jour pâtis. Parce que votre mère à la maison vous a au moins une fois fait la leçon après avoir découvert quelques gouttelettes sur le dos de la cuvette/lunette/sol, ou encore à cause de votre conjointe qui vous a fait remarquer une trace suspecte sur votre pantalon; vous en avez souffert et vous aimeriez ne plus jamais entendre parler de ce terrible fléau.

Écoutez les conseils de Tadd Truscott et Randy Hurd.

Ces deux physiciens américains de la Brigham Young University se sont penchés sur l’art décalé du pipi propre, celui qui consiste à uriner sans en mettre partout sur la cuvette des toilettes ou ses pieds en cas de soulagement extérieur. Ils viennent de publier « Dynamiques de l’urinoir: le guide tactique » pour en finir avec ces fluides qui nous gâchent la vie, et c’est très sérieux.

Les deux hommes ont conçu un urètre masculin en plastique sous forme d’un cylindre de 8 millimètres sur 3 millimètres à l’aide d’une imprimante 3D. Le tuyau arroseur, fixé à un conteneur sous pression, a été utilisé sous différents débits afin d’observer scientifiquement l’effet des fluides masculins lorsqu’ils frappent des parois. Il en ressort que « viser la surface verticale est préférable (à l’horizontale) dans presque tous les cas ». L’angle choisi est également important: il est préférable de viser vers le bas ou le côté plutôt qu’un « 45 degrés classique » – opéré encore une fois en extérieur ou à l’urinoir.

Mais ce qui compte par-dessus tout, c’est la distance à laquelle vous devez vous tenir de la cuvette. Une proximité entre 10 et 15 centimètres serait l’idéal. Ainsi, le jet d’urine n’aurait pas le temps de s’éclater en une multitude de gouttelettes s’envolant à droite à gauche. Phénomène qui a apparemment déjà été étudié puisqu’on le nomme « instabilité de Plateau-Rayleigh ». Je suis aussi surpris que vous.

La conclusion de tout ça est évidente, privilégiez toujours la position assise, moins dangereuse, elle vous garantira un minimum d’éclaboussures pour un maximum d’hygiène. Le pipi debout est une approche risquée, même les experts risquent de briser l’intégrité du jet en se plaçant trop loin. Mais pour ceux pour qui poser ses fesses sur une lunette pour la petite commission est une atteinte à leur virilité, les auteurs de l’étude préconisent de bien choisir l’angle (inférieur à 45 degrés) et de viser la porcelaine plutôt que l’eau.

Par Sébastien Tribot

EDF pourrait racheter les activités « réacteurs » d’Areva (presse)

Selon ces journaux, EDF pourrait prendre une participation dans une large partie des activités d’Areva, à savoir le périmètre de l’ex-Framatome.

Joints par l’AFP, les deux groupes publics ont indiqué ne pas faire de commentaire.

Le quotidien Les Echos précise que les choses sont loin d’être faites ne serait-ce que parce qu’il faut l’aval du gouvernement, même si le ministre de l’économie, Emmanuel Macron, serait favorable à une telle intégration verticale, selon le journal.

Le Figaro indique quant à lui que le gouvernement attend les propositions des deux groupes « la semaine prochaine ».

Par ailleurs, le point de vue d’Areva sur le dossier ne serait pas encore arrêté selon les Echos qui fait état d’autres scénarios comme un rapprochement entre les deux groupes limitée à l’ingénierie des réacteurs, ce qui aurait la préférence d’Areva.

Le PDG d’EDF, Jean-Bernard Lévy, avait assuré en février n’avoir aucun projet de prise de participation des activités d’Areva, mais le gouvernement pousse à un tel rapprochement entre l’électricien et le spécialiste du nucléaire, qui a dévoilé début mars l’ampleur de ses difficultés financières.

jbo-abb/cb/ed

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

L’industrie s’engage contre la pollution plastique

Pour mettre fin à la pollution plastique dans les océans, le principal défi n’est pas de recycler les macrodéchets du 7e continent, comme l’imagine le néerlandais Boyan Slat, mais d’augmenter la prévention à terre. « Les images du 7e continent dans l’imaginaire collectif sont fausses. Ce n’est pas une île de déchets où l’on pourrait accoster ; les macrodéchets y sont minoritaires. En réalité, les images montrant des macro-déchets en plastique viennent de la décharge de Saïda au Liban, où les déchets se déversent par débordement directement dans la merMéditerranée. Dans le gyre de l’Atlantique Nord, les estimations sont à 5 kg de déchets plastiques par kilomètres carré, ce qui équivaut à environ une bouteille de plastique répartie en morceaux sur un terrain de football. On ne peut pas envoyer quelqu’un nettoyer cette pollution avec une pince à épiler: la seule solution est d’agir à terre », analyse Michel Loubry, directeur général de PlasticsEurope pour l’Europe de l’Ouest.

Sensibiliser à terre pour ne plus polluer la mer

Les scientifiques estiment que les déchets de matières plastiques retrouvés en mer proviennent à environ 80 % de terre. Il reste 20 % de déchets jetés par dessus bord à partir des bateaux de loisirs, de la marine marchande, des pêcheurs… La seule façon viable pour ne plus retrouver de plastiques en mer, c’est donc d’agir à terre auprès des citoyens, des professionnels et de la marine, « c’est d’arriver à 100 % de collecte et 100 % de valorisation », analyse Michel Loubry.

Pour mettre fin à ce fléau, PlasticsEurope travaille donc sur différents fronts. L’organisme s’attelle notamment à sensibiliser le grand public en soutenant l’opération « Vacances Propres » qui lutte contre les déchets sauvages, et l’opération « Je navigue, je trie ». De plus, la filière travaille à l’extension des consignes de tri pour 2022 et à la fin de la mise en décharge du plastique, conformément au projet de loi relatif à la transition énergétique pour la croissance verte.

Il faut être actif en Europe, mais aussi dans les zones qui polluent le plus. Pour cela, PlasticsEurope a monté un conseil mondial des producteurs de matières plastiques, le World Plastics Council (WPC). L’essentiel de la pollution plastique océanique proviendrait d’Asie. « Notre travail essentiel est de sensibiliser nos amis Chinois, Coréens, Philippins… sur le sujet et faire en sorte qu’ils s’occupent de cette problématique », assure Michel Loubry. « En Méditerranée, la pollution provient majoritairement du Maghreb, de l’Égypte et du Liban… Mais en Afrique, il n’y a pas d’organisme de producteurs, il faut les aider à monter les structures de traitements de déchets », estime-t-il.

« Clean Sweep », pour ne plus rejeter de granulés de plastique

Des granulés de plastique sont trop souvent retrouvés sur les côtes du monde. Pour mettre fin à cette pollution, depuis 3 ans, les producteurs de matières plastiques mettent en œuvre un programme visant à ne plus rejeter ces granulés dans l’environnement. Mais ce programme « zéro granulé perdu » n’est pas suffisant. « Il faut aller au-delà de nos usines, dans toute la chaîne de valeur, c’est-à-dire chez nos clients : les transformateurs, les transporteurs et les distributeurs », prévient Michel Loubry. « Il faut aller jusque dans les ports où est réalisée l’exportation des matières plastiques vers les pays étrangers », juge-t-il.

Les granulés de plastique sont vendus au détail dans des sacs de 25 kg, qui en contiennent environ 3 millions. Dans un entrepôt de logistique ou dans un port, si un sac se perce, il faut faire en sorte que l’ensemble des granulés soient ramassés et jetés à la poubelle. Car encore trop souvent en cas de déversement, les agents lavent au jet d’eau ou avec une souflette à air comprimée, ce qui entraîne le rejet de millions de granulés dans l’environnement. « L’opération Clean Sweep, c’est la mise en marche de l’explication dans toute la chaîne de valeur, de la nécessité de ne jamais laisser traîner des granulés de plastique sur le sol, de les ramasser de les jeter dans la poubelle adéquate », résume Michel Loubry. L’objectif est d’engager toute la chaîne en Europe dans ce travail d’ici 4 ans.

Par Matthieu Combe, journaliste scientifique

Patrick Deixonne explique l’expédition 7e continent

T.I. : Pouvez-vous nous présenter rapidement ce qu’est l’expédition 7e continent ?

Patrick Deixonne : Les expéditions 7e continent ont pour but de médiatiser la problématique de la pollution du plastique dans les océans. Pour cela, nous travaillons sur trois volets. Il y a le volet sensibilisation du grand public, la sensibilisation des scolaires et un volet scientifique. On essaie de toucher tout le monde, aussi bien la métropole que les DOM. À mes yeux, le volet pédagogique est tout aussi important que les aspects médiatiques et scientifiques. Nous sommes une association loi 1901 basée en Guyanne française. L’année dernière, nous avons été financés en grande partie par l’Agence de l’eau Seine-Normandie.

T.I. : Quels sont vos premiers constats suite à vos expéditions ?

P. Deixonne : Il était important de se rendre sur place pour vérifier que le plastique se regroupait bien dans les gyres. À chaque fois que l’on part, on se pose beaucoup de questions et on développe de plus en plus notre volet scientifique. Notre spécificité est d’essayer de répondre à des questions auxquelles personne n’a encore répondu. Pour cela, nos partenaires les plus importants sont le CNES et le CNRS, mais nos expéditions ont aussi permis de sensibiliser un peu le monde scientifique en France. De plus en plus de laboratoires demandent qu’on leur ramène des échantillons pour faire des tests.

Le dématage que l’on a subi l’an dernier nous a empêché de faire les tests que nous voulions sur la mesure de la micropollution par les satellites. Mais nous allons reprendre ce volet pour essayer de repérer les macro et microdéchets. Nous voulons aussi répondre à la question « où va le plastique après s’être morcelé ? ». Nous allons essayer de repérer les nanoparticules de plastique et les identifier.

Dans l’Atlantique Nord, on est tombé dans une zone où l’on ramassait les microparticules à la main. Il y en avait des millions autour du bateau. Lorsque l’on prenait une passeoire et que l’on faisait un petit coup dans l’eau à la main, on récupérait des microdéchets. Il faut donc que l’on y retourne, car on a été pris par le temps. Nous avons noté tous ces endroits pour y retourner et compléter l’information.

On étudie aussi les métaux lourds sur les plastiques et dans les poissons pour voir s’il y a un échange de pollution qui se fait. Je pense que ces résultats seront publiés l’année prochaine pour être complétés avec les travaux de la prochaine expédition.

T.I. : Une étude parue dans le journal PLOS ONE a estimé le plastique flottant dans l’océan mondial à 268 940 tonnes. Selon eux, les gyres sont plus des centres de transformation que d’accumulation, les quantités n’ayant pas évolué dans les gyres depuis plus de 20 ans. Cela est-il une bonne nouvelle?

P. Deixonne : Suite à l’étude parue dans PLOS ONE, nous nous demandons « où va le plastique ? », comme je vous le disais. Si le plastique n’est pas en augmentation, c’est qu’il part quelque part. Dans cette étude, les auteurs n’ont pas étudié les particules inférieures à 300 µm. De notre côté, nous pensons que le plastique se dégrade de plus en plus et se fragmente. Lorsque l’on travaille avec un filet Manta avec des pores de 300 µm, on ne récupère pas les plus petites particules. On met donc au point des filets Manta avec des pores de 20 µm pour voir si de plus petites particules flottantes existent.

T.I. : Pouvez-vous nous en dire plus sur la prochaine expédition?

P. Deixonne : La prochaine expédition aura lieu du 15 mai au 15 juin 2015. Nous repartirons dans le gyre de l’Atlantique Nord, à bord du Guyavoile, un maxi-catamaran. Comme nous sommes tombés sur des concentrations très importantes, au-delà de ce que l’on trouve dans les publications scientifiques, nous voulons vérifier cela. Nous pensons que les chiffres sont sous-estimés à certains endroits. Cela est compréhensif puisque la zone fait 2 à 3 fois la France. Lorsque l’on prélève des échantillons, la concentration mesurée est donc très aléatoire. Nous essaierons aussi de corréler les résultats avec la circulation océanique.

Nous resterons au moins 15 jours sur place, pour avoir le temps de faire les mesures. C’est tout ce que je peux vous dire pour le moment, pour être sûrs de nos résultats lorsque nous les annoncerons.

T.I. : Pouvez-vous nous en dire plus sur votre volet pédagogique ?

P. Deixonne : Pour le volet pédagogique, on passe par des structures telles que le CNES ou l’Agence de l’eau Seine-Normandie pour toucher un maximum d’écoles. On organise des opérations sur le terrain pendant la mission. Cette expédition terrestre réunit les écoles pour faire des ramassages de déchets le long des rivières. Ensuite, les scolaires entrent en contact avec nous par Skype en plein milieu de l’océan pour faire le lien entre ce qu’on trouve dans les fleuves et ce que l’on retrouve dans le gyre.

Nous avons aussi développé un volet pédagogique sur notre site Internet. Il s’agit de fiches qui intègrent le programme scolaire des premières. Les professeurs peuvent l’intégrer très facilement dans le programme. Cette année, avant de partir en mission, on consacrera une semaine en se déplaçant sur l’Arc Antillais. On va faire la Martinique, la Dominique, la Guadeloupe et Saint-Martin. On s’arrêtera sur chaque île et on sensibilisera les jeunes à cette problématique. On va aussi faire déplacer une troupe de théâtre spécialisée dans le message environnemental et coupler ces actions à des actes de ramassage.

En savoir plus sur l’expédition 7e continent : http://septiemecontinent.com

Dans le cadre de l’expédition 2014, l’équipe a réalisé un documentaire de 52 minutes. Libre de droit, il est diffusé gratuitement sur Internet. Il revient sur la préparation de l’expédition et suit l’équipe dans leur route vers le gyre. Il présente la réalité du 7e continent : une soupe de microplastiques plus qu’un réel continent de macrodéchets ! 

Propos recueillis par Matthieu Combe, journaliste scientifique

Algopack, des algues pour remplacer le plastique ?

« Une partie de l’innovation d’Algopack a été de trouver une molécule naturelle dans l’algue qui se comporte comme les molécules utilisées dans les matériaux pétro-sourcés habituels », affirme Rémy Lucas, fondateur et président d’Algopack. Voilà comment est né un matériau digne du plastique. En plus, « on ne rajoute aucun plastifiant ou aucun autre produit, le matériau est composé à 100 % de cette molécule d’algues », précise le fondateur de l’entreprise.

Les algues utilisées actuellement en France pour les premières applications sont des algues brunes. Cultivées actuellement sur une surface de 12 hectares, 145 nouveaux hectares de culture sont prévus en 2015, à 2,5 km au large de Saint-Malo. Fin 2015, la start-up mutera du format « start-up » à un format « industriel ». « Début 2016, il est sûr que l’on verra les applications sur le marché avec des grandes marques au niveau mondial », prévient R. Lucas.

Une solution mondiale pour remplacer le plastique ?

« On a sécurisé les ressources au niveau mondial : on n’utilise pas d’algues invasives, mais des algues déjà présentes sur les zones », nous précise R. Lucas. « On a testé la matière au Japon, aux États-Unis, en Irlande et les algues qui poussent là-bas sont tout à fait compatibles avec notre process », assure-t-il.

Le process est donc développable partout dans le monde, avec des algues locales non invasives. L’intérêt est aussi d’avoir des unités de production à proximité de la ressource. Beaucoup de pays seraient d’ores et déjà intéressés. « Dans de nombreux pays, la filière pêche souffre, il y a aussi des zones où le poisson commence à se raréfier. Des pays sont en train de réfléchir à la diversification des filières pêches pour faire travailler les pêcheurs qui restent à quai. Développer des filières d’algues permet d’apporter des solutions à l’emploi, tout en respectant la biodiversité des zones », analyse le fondateur d’Algopack. « Le potentiel est vraiment mondial », se réjouit-il.

R. Lucas rêve de voir un jour l’ensemble de l’industrie du plastique passer au plastique à base d’algues. Mais ce ne sera pas pour tout de suite. « Le plastique a mis 50 ans avant d’être vraiment compatible à tous les domaines », rappelle-t-il. Néanmoins, la chimie du végétal va avoir une part de plus en plus importante. « La chimie traditionnelle en Europe est en déclin ; à mon avis, le seul moyen de maintenir l’emploi tout en préservant la biodiversité, c’est d’agir en faveur de la chimie du végétal », analyse l’ancien cadre de l’industrie plastique.

Deux produits pour la transition plastique

L’entreprise propose pour le moment deux matériaux : l’Algoblend, matériau composé à 50 % d’algues et 50 % de plastique et l’Algopack, matériau composé à 100 % d’algues. La capacité de production de l’entreprise est actuellement de 2 400 tonnes par an pour l’Algoblend. Sur l’Algopack, la start-up passe tout juste à une production industrielle : elle devrait avoisiner les 500 tonnes en 2015 et les 2 000 tonnes en 2016.

Ces deux matériaux se présentent initialement sous la forme de granulés, similaires aux « larmes de sirène » des plastiques tradionnels. Transformer de la matière Algoblend, c’est aussi réduire la consommation d’énergie sur les presses. « Pour transformer une granule plastique traditionnelle, les presses chauffent autour de 220 °C ; avec l’Algoblend, nous sommes plus aux alentours de 170 °C », insiste R. Lucas. La matière s’utilise dans les moules et les extrudeuses du marché, sans nécessité d’investissements complémentaires. Elle est apte au contact alimentaire direct, aux normes du jouet, de la puériculture, de la téléphonie…

L’Algopack se développement actuellement sur de petits marchés : horticulture, pots à crayon, pots à bougies… car la matière est totalement opaque et la production est encore faible. L’Algopack ne possède pas encore l’aptitude au contact alimentaire, mais « on est en train de travailler dessus », assure R. Lucas. « Pour empêcher que le matériau se dégrade au contact de la nourriture, on met des laques végétales (coating), comme pour le carton, mais sans plastique », explique-t-il.

En fin de vie, l’Algopack est biodégradable et compostable : « La matière se dégrade en 12 semaines en terre. Cela permet de retrouver l’une des fonctions historiques de l’algue : c’est un fertilisant naturel », se réjouit R. Lucas. Ainsi, en fin de vie, l’objet fertilise la terre, plutôt que de la polluer ! Et s’il finit dans l’eau, il se dégradera en quelques heures, sans polluer.

Côté prix, l’Algoblend demeure plus cher que les matières plastiques habituelles. En revanche, l’Algopack est à un prix similaire. La tonne de granulés d’Algopack est vendue 1 200 €, lorsqu’une tonne de PVC ou PET est vendue 1 000 € et une tonne de polyéthylène ou polypropylène environ 1 300 €.

Comment sont cultivées ces algues ?

Les algues utilisées pour fabriquer ces produits sont des algues brunes. À croissance très rapide, l’algue brune capte du CO2 qu’elle transforme en sucres pour grandir, et ne rejette en mer que de l’oxygène. « On n’utilise ni pesticide, ni engrais, très peu d’eau, alors que beaucoup de « bio-matériaux » issus de ressources agricoles telles que le maïs ou la canne à sucre sont consommateurs d’engrais, de pesticides, d’eau et empiètent sur le foncier agricole », prévient R. Lucas.

En amont de la culture en mer, les algues grandissent en écloserie, en partenariat avec la société C-Weed Aquaculture. « Au bout de 3 semaines environ, les algues sont mises en mer sur de grandes cordres, comme des lignes de piscine et sont tenues par des bouées à la surface », explique R. Lucas. Les algues peuvent alors se développer par photosynthèse. Pour la récolte, il suffit de retirer les cordes de l’eau et de couper les algues. « Il n’y a aucune opération de nettoyage : les cordes sont mises à sécher dans des champs, les algues pourrissent et les cordes peuvent ensuite être réutilisées », annonce R. Lucas.

La nouvelle zone de culture de 145 hectares est située sur la zone Procoq, une zone dédiée à la protection de la ressource en coquillages. Les algues y seront cultivées en semi-surface et les pêcheurs placeront des naissains de coquilles Saint-Jacques sous la culture. « L’intérêt des pêcheurs est d’avoir une zone balisée grâce à la culture d’algues, car elle est interdite à la pêche et à la navigation », assure R. Lucas. « De plus, l’algue a un atout : elle capte le CO2 et renvoie de l’oxygène dans l’eau, ce qui favorise le plancton et donc le développement de nourriture pour les coquillages », prévient-il. Les cordes sont aussi maintenues au fond et accrochées à des récifs artificiels pour que la biodiversité puisse nicher ou se protéger.

Outre la culture de ces algues, il est également possible de valoriser en Algopack les déchets d’algues issus de l’industrie agroalimentaire, cosmétique ou d’ailleurs !

Découvrez Algopack en vidéo : https://www.youtube.com/embed/ucQgBIMIqyM

Par Matthieu Combe, journaliste scientifique

Plastique en Méditerranée : quelles solutions ?

Afin de lutter contre le rejet de macrodéchets plastiques dans sa principauté de bord de mer, le Prince Albert II a décidé d’interdire les sacs plastiques à usage unique dès 2016. De plus, au plus tard en 2019, les produits alimentaires tels que les fruits, les légumes et les confiseries devront être conditionnés dans « des sacs en papier recyclés ou issus de forêts gérées durablement ». Et en 2020, la distribution ou la vente de vaisselle jetable en matières plastiques sera interdite, sauf si elle contient « au moins 40% de matériaux d’origine végétale », car biodégradables, prévient le Prince Albert II. « Les alternatives ont certes un coût économique immédiat, mais leur coût écologique à long terme est sans commune mesure à celui du pétrole », insiste-t-il.

La «déclaration de Monaco» pour une approche intégrée et coordonnée

Les participants au colloque ont adopté la « déclaration de Monaco », portée par Bernard Fautrier, vice-président de la Fondation Prince Albert II de Monaco. Cette déclaration vise à agir contre la pollution en Méditerranée et appelle les différents acteurs concernés à rejoindre les travaux de cette task force Beyond Plastic Med « créée pour rechercher et promouvoir des solutions concrètes pour lutter efficacement contre l’afflux des pollutions plastiques en Méditerranée ». Cette task force permettra de réaliser une liste des bonnes pratiques et à les diffuser à tous ses partenaires.

Concernant les solutions concrètes à mettre en oeuvre, le « point de départ » sera assuré par les conclusions de ce colloque. Elles seront complétées par le livre bleu de Tara Océans, réalisé à la suite de l’expédition Tara Méditerranée qui s’est déroulée entre mai et décembre 2014. Ce livre bleu prévu pour mai 2015 reprendra les solutions locales découvertes concernant l’assainissement des eaux, la gestion des déchets, l’innovation pour un plastique biodégradable, la promotion du tourisme durable, l’éducation ou encore la création d’Aires Marines Protégées. Ces solutions ont notamment été discutées lors des escales en Albanie, en Grèce, au Liban, en Israël, à Malte, en Tunisie, en Algérie, en Espagne, au Maroc et au Portugal, et lors des 5 ateliers d’échanges menés avec des acteurs locaux, experts et décideurs, pour avancer vers des solutions communes.

Par ailleurs, un fonds fiduciaire avait été annoncé par le Prince Albert II de Monaco et François Hollande en 2013. Ce fonds vise à aider au développement de nouvelles aires marines protégées en Méditerranée et à l’amélioration des aires existantes. A l’occasion de ce colloque, la création officielle de cette association a été annoncée. Portée conjointement par la France, Monaco et la Fondation Prince Albert II de Monaco, elle a été renforcée par le soutien de la Tunisie, du Maroc, de la Croatie, de Chypre et de la Bosnie. D’autres acteurs sont invités à rejoindre le mouvement.

Selon une étude parue dans le journal Plos one, à elle seule, la mer Méditerranée contiendrait 247 milliards de particules de plastiques flottants, soit 23 150 tonnes. C’est quasiment deux fois plus que le nombre de plastiques flottants estimés dans l’Atlantique Sud (12 780 tonnes), mais moins que dans l’Atlantique Nord (56 470 tonnes). En tant que mer fermée, les eaux ne se renouvellent intégralement qu’en 90 ans, ce qui contribue à l’accumulation des déchets selon François Galgani, chercheur à l’Ifremer et co-auteur de cette étude. C’est l’une des mers les plus polluées au monde par le plastique, que cela soit des plastiques flottants, des plastiques retrouvés sur les plages ou dans les fonds marins.

Par Matthieu Combe, journaliste scientifique

Les bioplastiques pour lutter contre la pollution ?

En 2003, 15 milliards de sacs plastiques à usage unique étaient distribués en caisse en France et 2 milliards de sacs « fruits et légumes». La généralisation du paiement des sacs a permis de faire chuter le nombre de sacs plastiques distribués grauitement en caisse à 500 millions en 2013, auxquels il faut ajouter 1 milliard de sacs payants et de cabas.  Mais le nombre de sacs «fruits et légumes» est passé à 5 miliards.

Au total, le nombre de sacs distribués a néanmoins chuté de 24,4 milliards à 10,2 milliards.

Le projet de loi relatif à la transition énergétique prévoit l’interdiction de la distribution de sacs en matières plastiques à usage unique en caisse au 1er janvier 2016 et l’ensemble des autres sacs (fruits et légumes…) au 1er janvier 2017. Seuls seront autorisés « les sacs compostables en compostage domestique et constitués, pour tout ou partie, de matières biosourcées ». Le texte actuel prévoit aussi l’interdiction des emballages plastiques non biodégradables pour l’envoi de la presse et de la publicité à partir du 1er janvier 2017. Ces dispositions donnent un élan considérable à la filière bioplastique française.

A la sortie du vote à l’Assemblée Nationale, le projet de texte de loi prévoyait l’interdiction de la vaisselle platique jetable en 2018. Cette disposition a été modifiée au Sénat qui a préféré élargir les consignes de tri à ces plastiques. Ainsi, au plus tard le 1er janvier 2018, « les producteurs ou détenteurs de déchets d’ustensiles jetables de cuisine pour la table en matières plastiques, à l’exclusion des ménages, mettent en place un tri à la source de ces déchets et, lorsque ces déchets ne sont pas traités sur place, une collecte séparée de ces déchets », prévoit le projet de loi.

Des sacs bioplastique pour la collecte séparée des bio-déchets

Le loi de transition énergétique prévoit aussi la généralisation du tri à la source des déchets organiques pour tous les producteurs de déchets d’ici à 2025. Cela permettra de ne plus jeter les biodéchets dans les ordures ménagères résiduelles, mais de les valoriser par compostage.

La collecte de biodéchets nécessite des sacs en bioplastique biodégradables et compostables. Ces sacs répondent à la norme de biodégradabilité européenne EN13432:2000 de biodégradabilité et portent le label « OK compost ». Cette norme atteste de leur biodégradabilité de 90 % en 6 mois au maximum. Dans les plateformes de compostage industriel, les sacs en bioplastique disparaissent en 90 jours. C’est un délai compatible avec la fermentation des déchets, ce qui évite d’avoir à vider les sacs. La matière fertilisante qui en résulte est vendue aux agriculteurs. Certaines communes (comme Lorient, Châlons-en-Champagne ou Clermont-Ferrand…) et sociétés de collecte ont déjà choisi le compostage industriel comme solution de traitement des déchets organiques.

Par ailleurs, si quelques sacs biodégradables étaient mis au recyclage plutôt qu’au compost, ils ne devraient pas perturber les chaînes de recyclage. « Il est faux de dire que les bioplastiques perturbent les chaînes de recyclage dès qu’ils sont présents : il y a eu de nombreux tests qui montrent que jusqu’à près 10 % dans les flux de recyclage, cela ne pose pas de problèmes », assure Jean-Marc Nony, directeur Environnement de SPhere, fabricant de sacs en bioplastiques.

1 hectare de céréales permet de produire jusqu’à 10 tonnes de bioplastiques. Dans ces conditions, le Club Bio-plastiques estime le marché potentiel à environ 70 000 tonnes de résines bioplastiques. Cela nécessiterait la culture de de 7 000 hectares de céréales, soit environ 0,07 % des surfaces de céréales cultivées en France. Le développement de la filière pourrait créer 2 000 emplois directs.

Quels liens entre bioplastiques et lutte contre la pollution marine?

« Nous sommes intimement convaincus que l’avenir de la plasturgie passe par des réponses concrètes à notre niveau au problème de la pollution plastique, que cela soit la pollution terrestre ou la pollution marine », insiste Jean-Marc Nony. Les sacs actuels en bioplastiques se dégraderaient en 2 ans en mer, mais  « on travaille sur des nouvelles matières qui seront aussi bioassimilables en milieu marin, parce que le milieu marin signifie des températures et des types de microorganismes un peu différents », prévient-il. Le groupe espère obtenir des résultats d’ici 2 ans.

Plastics Europe craint que le développement des sacs biodégradables n’aggrave les rejets dans la nature. Les citoyens pourraient considérer qu’en raison de leur biodégradabilité, ces sacs peutvent être jetés un peu n’importe où. Mais, « on est tous d’accord que si l’on fait des sacs qui sont bioassimilables en milieu marin, il faudra quand même écrire dessus « Ne pas les jeter dans la mer ou la nature » », assure Jean-Marc Nony. Quoi qu’il advienne, malgré tous les efforts de sensibilisation qui pourraient être déployés, il n’est pas trop risqué de dire que les rejets dans la nature ne seront pas stoppés. Généraliser les sacs biodégradables ne peut donc être qu’une bonne nouvelle pour lutter contre la pollution !

Que contiennent les sacs en bioplastiques ?

Les bioplastiques sont fabriqués à partir d’amidon de céréales (maïs ou blé) ou de fécule de pomme de terre. Une fois les matières agricoles végétales récoltées, les amidonniers et féculiers extraient l’amidon des grains de céréales, ou la fécule dans le cas de la pomme de terre. Ensuite, les fabricants transforment l’amidon et la fécule en résines bioplastiques (Base amidon, PHA, PLA…) qui seront ensuite transformées par les industriels de la plasturgie en objets.

Les sacs en bioplastiques ne sont néanmoins pas totalement constitués de produits végétaux. La part végétale varie entre 20 et 70 %, le reste est constitué de polymères d’origine fossile. Ainsi, les sacs de caisse (épaisseur de 15-16 µm) présentent une part bioplastique comprise entre 30 et 35 %, les sacs de fruits et légumes (10 µm) une part comprise entre 20 et 25 %. Plus un produit est rigide, plus la part en bioplastiques peut augmenter (l’élasticité est conférée par la part «fossile»). Ainsi, les sacs poubelles (16-22 µm) peuvent présenter une part végétale de 40-50 % et les produits rigides, comme la vaisselle, de 60 à 70 %.

De nombreux travaux de recherche, conduits actuellement, visent à augmenter la part de ressources renouvelables dans la composition de ces objets. L’objectif porté par la filière bioplastique est d’atteindre une part moyenne d’au moins 70 % de matières végétales d’ici 2018. La filière cherche notamment à remplacer une part des polymères d’origine fossile (copolyesters) par de l’huile de tournesol ou de chardon.

Des sacs qui nécessitent moins d’énergie ?

Les analyses de cycle de vie permettent de comparer l’énergie et les émissions de gaz à effet de serre d’un sac en bioplastique à un sac traditionnel. Les différentes ACV portant sur les sacs en plastique base fossile et les sacs bioplastiques sont assez mitigées. Les sacs bioplastiques consomment a priori moins d’eau et présentent un intérêt en termes d’émissions de gaz à effet de serre et de consommation d’énergie non renouvelable, à condition que les masses des emballages correspondants soient suffisamment limitées, mais les process doivent être améliorés pour diminuer l’eutrophisation des eaux. « Ces différentes études ne sont pas toujours pertinentes pour les bioplastiques, car si les scénarios peuvent être très adaptés pour les plastiques traditionnels, ils ne le sont pas encore pour les nouveaux plastiques qui sont en développement et qui ne jouissent pas encore de toute l’optimisation en termes de process industriel et de structure », prévient Christophe Doukhi-de Boissoudy, Président du Club Bio-plastiques et directeur général de Novamont France.

« Les bioplastiques trouvent tout leur intérêt dans leur contribution au développement de la valorisation organique des biodéchets. Ces biodéchets ne sont encore que trop rarement valorisés et de plus limitent la production d’énergie lorsqu’ils sont incinérés de par leur forte concentration en eau. Un gros effort est encore à faire sur ce point et les bioplastiques ont un rôle indéniable à jouer dans le développement de ce secteur », assure Christophe Doukhi-de Boissoudy.

Si les sacs bioplastiques peuvent avoir certains avantages, ils coûtent pour le moment de 2 à 3 fois plus cher. Le consommateur sera-t-il prêt à payer cette différence de prix pour limiter la pollution ?

Par Matthieu Combe, journaliste scientifique

Abeilles et frelons asiatiques: qu’attend le ministère?

Stéphane Le Foll a classé le frelon asiatique en danger sanitaire de 2e catégorie en 2013. Mais aucune réelle coordination de lutte au niveau national n’a été mise en place, fautes de moyens. Pourtant, Stéphane Le Foll avait annoncé la classification du frelon asiatique en catégorie 1 en octobre 2012.

Puis, il a réitéré son intention de le faire en Décembre 2014 devant les apiculteurs de la Sarthe. Malgré cette intention affichée, l’UNAF dénonce un « double discours », puisqu’aucune décision n’a été prise malgré l’urgence. 

Selon le Muséum National d’Histoire Naturelle, le frelon asiatique est aujourd’hui présent dans 63 départements du sud, du centre et de l’ouest de la France, couvrant les trois quarts du territoire. Il a également gagné l’Espagne, l’Italie, le Portugal et la Belgique. « Le pire, c’est que nos collègues de pays étrangers ont demandé à leurs états d’attaquer la France pour n’avoir pas pris de mesures pour limiter l’invasion du frelon », assure Henri Clément, porte-parole de l’UNAF.

Se doter de moyens pour assurer la lutte

Le classement du frelon asiatique en danger sanitaire de catégorie 2 n’impose pas d’obligation de destructions de nids. En revanche, le classement en catégorie 1 imposerait un plan de lutte obligatoire, à la charge de l’état. Le Gouvernement ne semble donc pas pressé de débloquer des fonds.

Pour diminuer les prix de la lutte contre ce ravageur, l’UNAF demande le retour du SO2 pour la destruction des nids. Aujourd’hui la destruction des nids ne peut se faire que par des biodicides (ou par destruction mécanique pour les nids facilement accessibles), selon la note de service DGAL/SDSPA/N2013-8082 de mai 2013 définissant les « mesures de surveillance, de prévention et de luttes permettant de limiter l’impact du frelon asiatique ». 

Pour lutter contre l’attaque des ruchers par les frelons asiatiques, cette note met également en oeuvre le « piégeage de protection du rucher ». Celui-ci consiste en « l’installation au rucher, pendant les périodes estivales et automnales, de dispositifs de piégeages de masse d’ouvrières de V. Velutina », explique l’ITSAP, l’Institut de l’abeille. « Son objectif est la capture d’ouvrières afin de réduire la claustration des colonies d’abeilles et de maintenir l’activité de butinage, tout en minimisant les atteintes aux insectes non cibles », précise-t-il. Ces moyens de lutte sont généralement à la charge des apiculteurs, parfois avec le soutien de collectivités locales.

Mais pour l’UNAF, ce piégeage est insuffisant. « Si on ne piège qu’au niveau du rucher, on n’empêche pas le pillage des frelons sur les ruches l’été venu et on n’empêche en rien la prolifération des frelons », regrette Gilles Lanio, Président de l’UNAF . Car lorsqu’un nid se développe, les ouvrières ont un terrain de « chasse » beaucoup plus vaste. « Si les fondatrices ont un terrain de chasse d’environ 300 m autour du lieu de nidification, les ouvrières prospectent jusqu’à 3 km pour chercher de la nourriture», prévient Gilles Lanio. 

Plutôt que de piéger les milliers de frelons ouvriers des nids, il serait plus efficace de piéger les reines fécondées au printemps, avant qu’elles ne pondent ! L’union apicole demande donc un piégeage de printemps, au-delà des ruchers, pour intercepter les reines. « Un nid de frelon en fin de saison peut lâcher 400 à 500 reines qui vont passer l’hiver au chaud. A la fin de l’hiver, ces reines vont devoir chercher un endroit pour faire un nid », détaille Gilles Lanio. Ces reines doivent donc être interceptées avant qu’elles n’aient le temps de fonder leur nid. 

Le piégeage proposé par l’UNAF est sélectif. « Nous préconisons un piégeage de printemps qui va de février à début mai pour intercepter les reines qui à ce moment là doivent assumer toutes seules leur alimentation », expose-t-il. Un piégeage de grande envergure à ce moment sur le territoire permettrait de faire reculer la pression des frelons. Mais, faute de moyens , les apiculteurs ne peuvent pas assurer seuls les frais de piégeage. 

Un tel piège sélectif coûte environ 4 euros.  Certes, il tuera quelques insectes utiles, mais un nid de frelon qui n’a pas été détruit peut consommer de 3 500 à 15 000 équivalent abeilles par jour au mois de septembre ! Au moment où la filière apicole connait des surmortalités d’abeilles chroniques et multifactorielles, l’implication de l’état et le classement de ce frelon en danger sanitaire de catégorie 1 est capital pour l’avenir de l’apiculture française. Car, entre 1994 et 2014, la production nationale de miel est passée de 32 000 tonnes à 10 000 tonnes…

Bientôt le tour de Aethina tumida ? Les apiculteurs craignent désormais également l’arrivée d’un petit coléoptère des ruches, Aethina tumida, dont la progression est rapide en Italie, depuis son apparition à l’automne 2014. En France, ce coléoptère est déjà classé en danger sanitaire de catégorie 1.

Par Matthieu Combe, journaliste scientifique

Et aussi dans l’actualité :

Les LED remplaceront-elles les halogènes en 2016 ?

D’après une nouvelle analyse réalisée par CLASP, l’Agence énergétique danoise et Energy Piano et fournie à la Commission européenne, les ampoules LED sont beaucoup plus abordables et éco-énergétiques que prévu. « Les ampoules LED actuellement proposées sur le marché atteignent des niveaux de prix qui n’étaient initialement attendus qu’en 2020, 2022, 2024 et 2025 », fait savoir CLASP dans un communiqué. « Cette formidable accélération de 5 à 11 ans en termes d’accessibilité des ampoules LED issues des principaux fabricants européens indique que les consommateurs bénéficient de périodes de rentabilisation très attractives et inférieures à 1 an, dans le cas d’une utilisation sur une prise résidentielle à hauteur de 3 heures par jour», poursuit l’organisation de promotion des économies d’énergies. 

Pour montrer l’efficacité des LED, les auteurs de l’étude rappellent que de grandes sociétés majeures proposant des éclairages grand public et professionnels, telles qu’IKEA et Erco, parient sur cette technologie. Elles ont notamment annoncé leur intention de ne vendre plus que des LED d’ici 2016, abandonnant es ampoules fluocompactes. 

Un report qui coûterait cher en économies d’énergie

Grâce à ce rapport, les trois organisations espèrent montrer à la Commission européenne que les LED constituent déjà une technologie mâture. Elles estiment que le report de la réglementation de deux ans engendrerait une perte de 33 térawattheures (TWh) d’économies d’énergie sur 10 ans entre 2016 et 2026. « La décision prochaine que prendront les dirigeants politiques européens autour de la question de savoir s’il s’agit de reporter ou non la phase finale de la suppression progressive des ampoules électriques sera une décision critique, », note Michael Scholand de CLASP Europe. « En conservant l’échéance 2016, l’Europe pourra accélérer l’innovation en matière d’éclairage LED, nous permettant d’espérer des réductions plus rapides des prix, dont les consommateurs bénéficieront plus rapidement qu’en cas de report de cette suppression progressive », défend-il.

Les ampoules halogènes sont désormais les ampoules les plus vendues en Europe. Avec la disparition des ampoules à incandescence, les consommateurs se tournent davantage vers ces lampes qu’ils jugent plus efficaces que les ampoules fluocompactes (LFC) et bien moins chères que les LED. Mais les halogènes consomment plus d’électricité. Cette distanciation inattendue en faveur de l’halogène met à mal les économies électriques domestiques prévues par la Commission Européenne dans le cadre du retrait progressif des ampoules énergivores. Les halogènes représentant environ 70 % des ventes d’éclairage grand public, l’interdiction des halogènes en septembre 2016 ou 2018 devrait transformer totalement le marché de l’éclairage, au profit des LFC et LED. Le plus tôt sera le mieux. 

Par Matthieu Combe, journaliste scientifique