Abeilles et frelons asiatiques: qu’attend le ministère?

Stéphane Le Foll a classé le frelon asiatique en danger sanitaire de 2e catégorie en 2013. Mais aucune réelle coordination de lutte au niveau national n’a été mise en place, fautes de moyens. Pourtant, Stéphane Le Foll avait annoncé la classification du frelon asiatique en catégorie 1 en octobre 2012.

Puis, il a réitéré son intention de le faire en Décembre 2014 devant les apiculteurs de la Sarthe. Malgré cette intention affichée, l’UNAF dénonce un « double discours », puisqu’aucune décision n’a été prise malgré l’urgence. 

Selon le Muséum National d’Histoire Naturelle, le frelon asiatique est aujourd’hui présent dans 63 départements du sud, du centre et de l’ouest de la France, couvrant les trois quarts du territoire. Il a également gagné l’Espagne, l’Italie, le Portugal et la Belgique. « Le pire, c’est que nos collègues de pays étrangers ont demandé à leurs états d’attaquer la France pour n’avoir pas pris de mesures pour limiter l’invasion du frelon », assure Henri Clément, porte-parole de l’UNAF.

Se doter de moyens pour assurer la lutte

Le classement du frelon asiatique en danger sanitaire de catégorie 2 n’impose pas d’obligation de destructions de nids. En revanche, le classement en catégorie 1 imposerait un plan de lutte obligatoire, à la charge de l’état. Le Gouvernement ne semble donc pas pressé de débloquer des fonds.

Pour diminuer les prix de la lutte contre ce ravageur, l’UNAF demande le retour du SO2 pour la destruction des nids. Aujourd’hui la destruction des nids ne peut se faire que par des biodicides (ou par destruction mécanique pour les nids facilement accessibles), selon la note de service DGAL/SDSPA/N2013-8082 de mai 2013 définissant les « mesures de surveillance, de prévention et de luttes permettant de limiter l’impact du frelon asiatique ». 

Pour lutter contre l’attaque des ruchers par les frelons asiatiques, cette note met également en oeuvre le « piégeage de protection du rucher ». Celui-ci consiste en « l’installation au rucher, pendant les périodes estivales et automnales, de dispositifs de piégeages de masse d’ouvrières de V. Velutina », explique l’ITSAP, l’Institut de l’abeille. « Son objectif est la capture d’ouvrières afin de réduire la claustration des colonies d’abeilles et de maintenir l’activité de butinage, tout en minimisant les atteintes aux insectes non cibles », précise-t-il. Ces moyens de lutte sont généralement à la charge des apiculteurs, parfois avec le soutien de collectivités locales.

Mais pour l’UNAF, ce piégeage est insuffisant. « Si on ne piège qu’au niveau du rucher, on n’empêche pas le pillage des frelons sur les ruches l’été venu et on n’empêche en rien la prolifération des frelons », regrette Gilles Lanio, Président de l’UNAF . Car lorsqu’un nid se développe, les ouvrières ont un terrain de « chasse » beaucoup plus vaste. « Si les fondatrices ont un terrain de chasse d’environ 300 m autour du lieu de nidification, les ouvrières prospectent jusqu’à 3 km pour chercher de la nourriture», prévient Gilles Lanio. 

Plutôt que de piéger les milliers de frelons ouvriers des nids, il serait plus efficace de piéger les reines fécondées au printemps, avant qu’elles ne pondent ! L’union apicole demande donc un piégeage de printemps, au-delà des ruchers, pour intercepter les reines. « Un nid de frelon en fin de saison peut lâcher 400 à 500 reines qui vont passer l’hiver au chaud. A la fin de l’hiver, ces reines vont devoir chercher un endroit pour faire un nid », détaille Gilles Lanio. Ces reines doivent donc être interceptées avant qu’elles n’aient le temps de fonder leur nid. 

Le piégeage proposé par l’UNAF est sélectif. « Nous préconisons un piégeage de printemps qui va de février à début mai pour intercepter les reines qui à ce moment là doivent assumer toutes seules leur alimentation », expose-t-il. Un piégeage de grande envergure à ce moment sur le territoire permettrait de faire reculer la pression des frelons. Mais, faute de moyens , les apiculteurs ne peuvent pas assurer seuls les frais de piégeage. 

Un tel piège sélectif coûte environ 4 euros.  Certes, il tuera quelques insectes utiles, mais un nid de frelon qui n’a pas été détruit peut consommer de 3 500 à 15 000 équivalent abeilles par jour au mois de septembre ! Au moment où la filière apicole connait des surmortalités d’abeilles chroniques et multifactorielles, l’implication de l’état et le classement de ce frelon en danger sanitaire de catégorie 1 est capital pour l’avenir de l’apiculture française. Car, entre 1994 et 2014, la production nationale de miel est passée de 32 000 tonnes à 10 000 tonnes…

Bientôt le tour de Aethina tumida ? Les apiculteurs craignent désormais également l’arrivée d’un petit coléoptère des ruches, Aethina tumida, dont la progression est rapide en Italie, depuis son apparition à l’automne 2014. En France, ce coléoptère est déjà classé en danger sanitaire de catégorie 1.

Par Matthieu Combe, journaliste scientifique

Et aussi dans l’actualité :

Les LED remplaceront-elles les halogènes en 2016 ?

D’après une nouvelle analyse réalisée par CLASP, l’Agence énergétique danoise et Energy Piano et fournie à la Commission européenne, les ampoules LED sont beaucoup plus abordables et éco-énergétiques que prévu. « Les ampoules LED actuellement proposées sur le marché atteignent des niveaux de prix qui n’étaient initialement attendus qu’en 2020, 2022, 2024 et 2025 », fait savoir CLASP dans un communiqué. « Cette formidable accélération de 5 à 11 ans en termes d’accessibilité des ampoules LED issues des principaux fabricants européens indique que les consommateurs bénéficient de périodes de rentabilisation très attractives et inférieures à 1 an, dans le cas d’une utilisation sur une prise résidentielle à hauteur de 3 heures par jour», poursuit l’organisation de promotion des économies d’énergies. 

Pour montrer l’efficacité des LED, les auteurs de l’étude rappellent que de grandes sociétés majeures proposant des éclairages grand public et professionnels, telles qu’IKEA et Erco, parient sur cette technologie. Elles ont notamment annoncé leur intention de ne vendre plus que des LED d’ici 2016, abandonnant es ampoules fluocompactes. 

Un report qui coûterait cher en économies d’énergie

Grâce à ce rapport, les trois organisations espèrent montrer à la Commission européenne que les LED constituent déjà une technologie mâture. Elles estiment que le report de la réglementation de deux ans engendrerait une perte de 33 térawattheures (TWh) d’économies d’énergie sur 10 ans entre 2016 et 2026. « La décision prochaine que prendront les dirigeants politiques européens autour de la question de savoir s’il s’agit de reporter ou non la phase finale de la suppression progressive des ampoules électriques sera une décision critique, », note Michael Scholand de CLASP Europe. « En conservant l’échéance 2016, l’Europe pourra accélérer l’innovation en matière d’éclairage LED, nous permettant d’espérer des réductions plus rapides des prix, dont les consommateurs bénéficieront plus rapidement qu’en cas de report de cette suppression progressive », défend-il.

Les ampoules halogènes sont désormais les ampoules les plus vendues en Europe. Avec la disparition des ampoules à incandescence, les consommateurs se tournent davantage vers ces lampes qu’ils jugent plus efficaces que les ampoules fluocompactes (LFC) et bien moins chères que les LED. Mais les halogènes consomment plus d’électricité. Cette distanciation inattendue en faveur de l’halogène met à mal les économies électriques domestiques prévues par la Commission Européenne dans le cadre du retrait progressif des ampoules énergivores. Les halogènes représentant environ 70 % des ventes d’éclairage grand public, l’interdiction des halogènes en septembre 2016 ou 2018 devrait transformer totalement le marché de l’éclairage, au profit des LFC et LED. Le plus tôt sera le mieux. 

Par Matthieu Combe, journaliste scientifique

 

Les néonicotinoïdes bientôt interdits ?

L’amendement n°1077, présenté par les écologistes, va permettre de soutenir « prioritairement les projets de groupements d’intérêt écologique et économique ou les projets territoriaux visant la suppression des produits phytosanitaires de la famille des néonicotinoïdes » dans le cadre du plan Ecophyto 2. L’amendement n°754, présenté par les députés socialistes Gérard Bapt et Delphine Batho stipule que « l’usage des produits phytosanitaires de la famille des néonicotinoïdes est interdit à compter du 1er janvier 2016 » en France.

L’adoption s’est faite contre l’avis du Gouvernement, défavorable au motif notamment que « le cadre européen ne permet pas une interdiction stricte », selon la ministre de l’écologie, Ségolène Royal. Cela est confirmé par  Maître Bernard Fau, Avocat à la Cour de Paris et Avocat de l’Union Nationale de l’Apiculture Française (UNAF), pourtant favorable à l’interdiction des néonicotinoïdes. Selon lui, « du point de vue juridique, c’est une position qui est difficilement tenable, parce que les décisions d’interdiction ne peuvent pas se prendre de cette manière, sur un amendement présenté au Parlement Français ».

Si cet amendement venait à être voté tel quel au Sénat, les apiculteurs craignent la mise en place de dérogations qui, encore une fois, videraient la loi d’une application efficace sur le terrain. Mais l’avenir de l’amendement n°754 est déjà sérieuresement menacé au Sénat. Le 4 février 2015, le Sénat rejetait une proposition de résolution demandant au Gouvernement d’ « agir auprès de l’Union européenne pour une interdiction de toutes les utilisations des pesticides néonicotinoïdes en Europe tant que les risques graves pour la santé humaine, animale et l’environnement ne seront pas écartés ». Cette proposition avait été rejetée par 248 sénateurs sur 312 suffrages exprimés.

Lors de l’examen de cette proposition au Sénat, le ministre Stéphane Le Foll a défendu son opposition à cette résolution. Il a notamment rappelé qu’une restriction d’utilisation existait déjà au niveau européen pour 3 substances néonicotinoïdes pour toutes les cultures attractives pour les abeilles. « Elles ne peuvent plus être utilisées en période de floraison. Pour les cultures restantes et pour les céréales à paille, les semis ne peuvent pas se faire à la période de forte activité des abeilles», a rappelé Stéphane Le Foll. L’interdiction de semer ces semences enrobées a lieu de Janvier à Juin.

Une interdiction partielle au niveau européen sur 3 néonicotinoïdes

Le règlement européen 485/2013 interdit partiellement l’utilisation de 3 néonicotinoïdes – imidaclopride, clothianidine et thiaméthoxame – en Europe depuis décembre 2013. Il restreint l’utilisation de ces néonicotinoïdes à l’enrobage de semences des céréales d’hiver uniquement et à la pulvérisation après la floraison des cultures attractives pour les abeilles. Cinq autres néonicotinoïdes restent néanmoins actuellement autorisés en France.

Ce réglement prévoit la réévaluation des données disponibles d’ici décembre 2015. L’EFSA doit lancer prochainement un « appel à données scientifiques ». « Les chercheurs indépendants, les ONG, les associations d’apiculteurs et les industriels vont pouvoir envoyer les données sur la toxicité des néonicotinoïdes sur les abeilles, les abeilles solitaires et les pollinisateurs », détailleMartin Dermine, Coordinateur abeille pour l’association PAN EUROPE (Pesticides Action Network – Europe). Le nouvel avis de l’EFSA devrait être publié début 2016. Sur la base de cet avis, la Commission européenne décidera ou non de revoir l’’interdiction des 3 néonicotinoïdes.

Suite à une multiplication des facteurs portant atteinte aux abeilles (apparition des insecticides néonicotinoïdes et du fipronil, de parasites, de prédateurs, développement de la monoculture, réchauffement climatique, etc.), les mortalités observées dans les ruchers sont passées de 5 % dans les années 1990 à plus de 30 % aujourd’hui. Les rendements de miel par ruche sont significativement réduits, faisant passer la production nationale de 32 000 tonnes en 1995 à 10 000 tonnes en 2014. Plusieurs études scientifiques indépendantes montrent pourtant que les néonicotinoïdes n’augmentent pas notablement les rendements.

Par Matthieu Combe, journaliste scientifique

La Chine va installer 45 MW PAR JOUR de solaire PV entre 2015 et 2019 (IHS)

La Chine prend de plus en plus l’allure d’un énorme dragon solaire.

Ce ne sont pas moins de 45 MW par jour en moyenne qui seront installés par ce dernier sur la période 2015-2019. Soit l’équivalent d’environ 4 mètres carrés de panneaux PV par seconde en non-stop, jour et nuit.

Il faut réunir les deux suivants sur le podium, le Japon (45 GW) et les USA (42 GW), pour parvenir à rivaliser avec le champion chinois dans sa course effrénée.

L’Inde va aussi connaître une croissance fulgurante. Mais néanmoins en deçà de l’objectif de 100 GW fixé par le gouvernement Modi à horizon 2022. La plupart des experts dont ceux d’IHS mais aussi ceux de Mercom Capital Group estiment que cet objectif n’est pas réaliste. L’Inde cherche à afficher sa puissance face à son grand voisin chinois, ce qui pousse les responsables politiques à afficher des chiffres très ambitieux. L’Inde, qui a mis en place 3 GW ces 5 dernières années, va installer 13 GW entre 2015 et 2019 selon IHS. Selon Mercom Capital Group 1,8 GW seront installés durant l’année 2015.

Le Royaume-Uni, pays solaire

Situation pour le moins paradoxale, c’est le Royaume-Uni (22 GW) qui va prendre le leadership de l’installation de capacités solaires en Europe. Ce qui ne peut que mettre la France, pays baigné de soleil comparativement à notre voisin d’Outre-Manche, dans une situation embarassante. Seuls 6 GW seront installés dans l’hexagone. 2 GW de moins que l’Italie et 2 GW de plus que les Pays-Bas, pays 13 fois plus petit que la France.

Même l’Allemagne, pays pourtant leader ces dernières années et qui compte aujourd’hui une puissance PV installée de 38 GW, sera devancée par la Grande-Bretagne. Le pays de Goethe installera néanmoins 14 GW supplémentaires, soit 2,3 fois plus que la France. Les autres pays européens installeront une puissance cumulée évaluée par IHS à une vingtaine de GW. Au total l’Europe parviendra à frôler les 60 GW, soit environ un tiers de moins que la Chine.

D’autres marchés seront en émergence comme le Canada, l’Afrique du sud et l’Australie qui pourrait chacun installer 7 à 8 GW durant la période considérée, le Chili (4 GW) et la Thaïlande (2 GW). Le reste du monde cumulera une trentaine de GW, principalement en Asie.

L’Egypte, qui vient de signer le 15 mars 2015 des pré-accords (MoU) pour l’installation d’un total de 6,5 GW de solaire PV, semble avoir été oubliée du rapport IHS.

La planète a franchit les 185 GW (estimation) fin 2014. Elle comptera 498 GW en 2019, soit une croissance d’un facteur 2,7. Avec le facteur de capacité mondial moyen retenu par l’institut Fraunhofer (14,8%), cette puissance installée permettra de délivrer environ 645 TWh par an. Soit 25% de plus que la demande électrique française annuelle.

Les prix des modules PV standards c-Si chuteront de 27% entre 2015 et 2019 atteignant $0.45$/W.

La révolution solaire est bel et bien en marche. Tirée par la formidable force motrice chinoise.

Par Olivier Daniélo

La très rapide chute du coût des batteries (Méta-étude, Nature Climate Change)

La méta-étude « Rapidly falling costs of battery packs for electric vehicles », dont les auteurs sont les Suèdois Björn Nykvist et Måns Nilsson, est basée sur des estimations de coûts provenant de 80 études peer-reviewed, des estimations d’agences, des rapports d’industries et de cabinets de consultants, des rapports intégrant les analyses de représentants de l’industrie et d’experts, et enfin de manufacturiers leaders du domaine.

Alors que le coût des batteries était de 1300$ par kWh en 2006 (régression logarithmique sur la base de l’ensemble des estimations) il est tombé à 410$ en 2014, ce qui correspond à une réduction des coûts de 14% par an. Pour les entreprises leaders (le Californien Tesla Motors et le Japonais Nissan), le coût est même descendu à 300$ en 2014.

Le taux d’apprentissage (Learning rate) obtenu, c’est à dire la réduction du coût suite à un doublement du volume de production, est de 6 à 9%, ce qui est « en accord avec les études antérieures sur les technologies de batteries pour voitures » indiquent les co-auteurs. La stratégie du multimilliardaire Elon Musk, construire une usine géante (« GigaFactoty ») dans le Nevada, consiste précisément à pousser les volumes de production pour faire baisser les coûts et ainsi s’imposer sur le marché. Le chinois Byd, acronyme de « Build Your Dreams », a annoncé vouloir produire un volume identique à celui de Tesla Motors. La compétition s’annonce musclée. L’Europe n’a toujours pas réagit à ces offensives américaines et chinoises dans ce secteur hyper-stratégique.

Ci-dessus : Evolution du coût des batteries de 2005 à 2014 et projections pour la décennie et demi à venir (d’après Nykvist et al 2015)

 

Une très bonne nouvelle pour mettre le soleil en bouteille

Les batteries de voitures électriques peuvent aussi être utilisées pour le stockage stationnaire, par exemple pour stocker l’énergie solaire. Arrivées en fin de leur première vie dans les véhicules au bout d’environ 8 ans, les batteries conservent environ 80% de leur capacité de stockage initiale. Elles peuvent alors être réutilisées pour les applications stationnaires. Le slogan de Nissan en la matière est « Reuse, Resell, Refabricate and Recycle ».

SolarCity, le numéro 1 du solaire résidentiel aux USA fondé par Elon Musk, vient précisément de lancer son nouveau produit « GridLogic » qui consiste à fournir un micro-réseau (MicroGrid) complet : panneaux solaires, batteries pour la gestion intra-journalière, micro-lignes électriques et micro-générateur thermique de secours pour les longues (et peu fréquentes) périodes sans soleil. Cela tombe bien, Tesla Motors produit précisément des batteries avec son allié Panasonic ! GridLogic est un produit que le PDG SolarCity, Peter Rive, a décrit dans le New-York Times comme “un modèle (template) qui peut être répliqué jusqu’à obtenir la nouvelle génération du réseau électrique. » Un nouveau modèle énergétique basé sur une production très décentralisée et ainsi à haute résilience en cas de catastrophe naturelle ou de conflit armé. Ce qui séduit fortement outre-Atlantique où les passages de tornades et d’ouragans provoquent chaque année des coupures de courant. Dans les régions du Japon qui ont été dévastées par le méga-tsunami en 2011, seules les maisons équipées de panneaux solaires étaient éclairées le soir.

La Deutsche Bank a publié début le 2 mars 2015 un rapport qui annonce un coût incrémental du stockage batterie de seulement 2 c€ par kWh solaire en 2020, contre 14 c€ aujourd’hui. Certains observateurs, comme par exemple Ken Munson, le fondateur de la start-up americano-australienne Sunverge spécialisée en systèmes énergétiques intelligents, estiment que la chute des coûts pourrait être encore plus rapide.

L’Australie, pays baigné de soleil et aux très longues (et donc coûteuses) lignes électriques, est l’un des marchés les plus prometteurs au monde pour le solaire + stockage. Sunpower, filiale solaire du groupe Français Total, est dès aujourd’hui présent sur ce marché. »

Même si le charbon était gratuit, les centrales à charbon ne peuvent plus concurrencer le solaire » en Australie soulignait dès juillet 2014 l’expert Gil Parkinson dans The Guardian, propos rapportés par l’entreprise française Comwatt. Ceci à cause du coût du transport de l’électricité. « Dans une démocratie d’énergie, même le charbon gratuit n’a pas de valeur. »

Par Olivier Daniélo

Les premiers satellites propulsés électriquement ont été lancés

Cap Canaveral, 3h50, heure locale. 2 mars 2015. Le seizième lanceur Falcon 9 décolle avec à son bord deux satellites, Eutelsat 115 West B et ABS-3A, les premiers d’une nouvelle famille. Car ces satellites mis au point par Boeing possèdent une particularité qui pourrait bien révolutionner une partie du secteur spatial : leur système de propulsion est 100 % électrique ! Sur le même principe que la propulsion chimique, des produits sont éjectés pour obtenir la poussée. Les satellites Eutelsat utilisent chacun quatre propulseurs ioniques à grille Xips 25 grâce auxquels ils pourront passer de l’orbite d’injection à leur orbite opérationnelle. Cette nouvelle génération « tout électrique » présente l’avantage d’abaisser les coûts. En effet,  la nouvelle plateforme de Boeing à propulsion entièrement électrique a permis de réduire de près de 2 tonnes la masse des satellites. Or, chaque kilo en moins, c’est potentiellement 20 000 € d’économiser. Mais c’est aussi la possibilité de lancer les satellites deux par deux, soit une diminution des coûts de lancement d’environ 20 %.

Le gain de poids peut donc être directement converti en gain financier, mais il peut aussi permettre d’augmenter la charge utile. Deux avantages qui ont poussé Boeing à se lancer dans l’aventure du 100 % électrique. Un choix loin d’être évident car malgré les économies réalisées, la propulsion électrique présente l’inconvénient d’une faible poussée, et donc des manœuvres de mise à poste bien plus longues qu’avec une propulsion chimique. Ainsi, les deux satellites Eutelsat et ABS mettront  entre 6 et 8 mois à se positionner sur leur orbite géostationnaire, une étape qui n’aurait duré qu’une semaine en utilisant du carburant. De plus, leurs propulseurs ne seront pas mis sous tension immédiatement, il faudra attendre quelques jours que les satellites aient totalement dégazés. Une étape là encore plus longue puisqu’elle survient en quelques heures pour les satellites classiques. Mais ces délais rallongés n’effraient ni ABS ni Eutelsat qui prévoient d’envoyer d’autres satellites à propulsion électrique dont l’un, construit par Airbus, aura une durée de mise à poste déjà divisée de moitié puisqu’il atteindra son orbite en seulement 4 mois.

Par Audrey Loubens

 

De l’azote détecté à la surface de Mars, autre indication d’une vie passée (Nasa)

Les nitrates sont une catégorie de molécules qui contiennent de l’azote sous une forme pouvant être utilisée par des organismes vivants, a expliqué l’Agence spatiale américaine.

Cette découverte apporte ainsi une preuve de plus que la planète rouge a réuni dans le passé des conditions propices à l’existence de la vie.

L’azote est indispensable pour toutes les formes de vie connue, puisqu’il constitue un élément clé des plus grandes molécules comme l’ADN, qui code les instructions génétiques de la vie.

Sur la Terre comme sur Mars, l’azote se trouve à l’état gazeux dans l’atmosphère sous forme de deux atomes attachés ensemble qui, ainsi, ne peuvent pas se combiner aisément avec d’autres molécules.

Or les atomes d’azote doivent être soit seuls, soit fixés à des molécules d’oxygène pour pouvoir créer des réactions chimiques indispensables à la vie.

Une molécule de nitrate, formée d’un atome d’azote et de trois atomes d’oxygène, est la source d’azote fixée qui peut ainsi se combiner à une variété d’autres atomes et de molécules.

Toutefois les scientifiques soulignent qu’il n’y aucune indication suggérant que ces molécules de nitrate découvertes par un instrument de Curiosity proviennent d’un organisme vivant.

La surface de Mars est aujourd’hui inhospitalière à toute forme de vie connue.

Selon ces chercheurs, ces nitrates sont anciens et ont résulté de processus non-biologiques comme par exemple l’impact d’astéroïde ou la foudre sur Mars dans un lointain passé.

L’équipe scientifique de Curiosity a déjà découvert des indices prouvant que la vie a pu exister sur Mars il y a plusieurs milliards d’années, telle la présence d’eau liquide abondante, comme en témoigne des lits d’anciennes rivières et la présence de matériaux organiques dans le cratère de Gale, où le robot s’est posé en août 2012.

Curiosity se trouve actuellement au pied du mont Sharp, une montagne de 5.500 mètres de hauteur formée de couches sédimentaires, dans l’une desquelles il a capté les molécules de nitrate.

Le robot avait aussi détecté en décembre, près de la surface de Mars, des émanations régulières de méthane sans avoir pu déterminer l’origine de ce gaz qui, sur Terre, provient à 95% de micro-organismes.

Curiosity ne dispose pas d’instrument permettant d’établir l’existence de la vie sur la planète rouge.

L’objectif de sa mission était d’établir si Mars, dans le passé, était habitable en réunissant les conditions nécessaires à l’existence de la vie microbienne.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Le futur pont de Londres suscite l’enthousiasme des architectes

Le futur pont de Londres

Ce futur pont fera la jonction entre les quartiers de Nine Elms sur la rive Sud et ceux de Pimlico sur la rive Nord et s’ajoutera à la trentaine de ponts déjà présents à Londres. Il incorporera une piste cyclable en plus d’un passage piéton.

Parfois improbables, futuristes, ces 74 projets ne manquent pas d’audace quant à leur design. Comme le déclare Ravi Govindia, dirigeant du Conseil de Wandsworth, « cette compétition de design a su capter l’imagination des gens ».

Un seul projet sera retenu et annoncé l’été prochain − le 24 juillet normalement. Mais en attendant de connaître l’heureux élu de ce concours international, voici en images les quelques propositions architecturales surprenantes à nous avoir « tapé dans l’œil » :

Pour en voir plus, c’est par ici.

Ce n’est pas le seul nouveau pont que la capitale anglaise va accueillir. D’autres projets sont en gestation, comme celui d’un pont-jardin ou encore celui, toutefois moins probable, d’un pont habitable.

Le pont-jardin

Vous l’imaginez, ce pont où la végétation est luxuriante, cet entre-deux mondes où les feuilles d’un arbre viendraient vous caresser sous l’effet d’une brise et où vous entendriez le chant mélodieux des oiseaux ?

Et bien ce pont-jardin devrait voir le jour, pile entre le pont de Waterloo et celui de Blackfriars. Il reliera South Bank à Temple. Le comité d’urbanisme et la mairie de Londres ont tous deux donnés leur aval à la conception de l’architecte Thomas Heatherwick; le permis de construire a été délivré vendredi 19 décembre.

Selon les pronostics, le « garden bridge » devrait s’ouvrir au public en 2018, à condition que les financements soient trouvés. Pour l’instant seuls les deux tiers des 225 millions d’euros nécessaires à l’ouvrage ont été recueillis. Mais si ce dernier tiers est récolté, la construction pourrait commencer fin 2015.

Et les badauds du monde entier pourront, dès 2018, traverser gratuitement ce havre de paix d’une superficie comparable à celle d’un terrain de football et rempli de fleurs et de plantes grasses.

Le pont habitable

Il n’en reste plus beaucoup dans le monde. Certes au VIe siècle, ils n’étaient pas rares, mais la révolution industrielle et les maladies inhérentes aux problèmes de pollution auront progressivement eu raison des ponts habités au milieu du XIXe siècle.

Aujourd’hui, le Ponte Vecchio de la ville de Florence en Italie est probablement le plus célèbre de ces survivants. Mais peut-être plus pour longtemps. L’architecte anglais Laurie Chetwood souhaite en effet réhabiliter le London Bridge en une « place publique » où l’on retrouverait des échoppes et des habitations futuristes.

Le but de l’opération est de créer de la surface car, on le sait, l’espace est une problématique courante pour les villes qui en manquent de plus en plus.

Le cabinet de l’architecte a présenté dans ce sens une structure faite de granit et de métal sur laquelle seraient érigées deux tours. Toutefois, il semblerait que la Chine soit davantage intéressée par ce concept de pont que Londres.

Par Sébastien Tribot

  • Pour en savoir plus :

The Huffington Post, « Un futur pont sur la Tamise inspire les projets architecturaux les plus fous », 27 février 2015.

Les Echos, « Le pont de Londres viendra du futur », 6 mars 2015

Konbini, « En images : à Londres, le prochain pont de la Tamise vient du futur », mars 2015

Le Monde, « Londres veut construire un « pont-jardin » au-dessus de la Tamise », 22 décembre 2014

Le Parisien, « Futur : vivre sur les ponts », 27 février 2014

The Creators Project, « Le nouveau pont de Londres viendra du futur », 26 février 2015

The Huffington Post, « Londres: un pont-jardin sur la Tamise, peut-être en 2018 », 2 décembre 2014

CyberArchi, « Un pont-jardin sur la Tamise à Londres, à l’horizon 2018 ? », 4 décembre 2014

6 savants fous qui se sont sacrifiés pour la science

Prenez Isaac Newton. Considéré par beaucoup comme le plus grand scientifique de tous les temps, il n’est pas que le génial découvreur de la gravitation universelle. Entre autres choses, Newton a aussi révolutionné nos connaissances en optique. Il était si dévoué à sa cause que pour tester une de ses théories sur la perception des couleurs, il s’enfonça une aiguille à tricoter sous le globe oculaire, jusqu’à ce qu’elle touche l’arrière de l’orbite. Il nota ensuite de façon très factuelle qu’il voyait des cercles colorés lorsqu’il se triturait l’œil avec l’aiguille. Si vous pensiez que l’histoire de la science était faite de sagesse et de précautions, vous allez découvrir qu’elle n’a rien à envier à Jackass.

Stubbins Ffirth

En 1793, une terrible épidémie de fièvre jaune tua plus de 5 000 personnes à Philadelphie. Quelques années plus tard, un jeune médecin nommé Stubbins Ffirth émit l’hypothèse que la fièvre jaune n’était pas une maladie contagieuse, mais qu’elle était plutôt causée par le climat estival. Pour prouver sa théorie, il entreprit une série d’expériences sur lui-même tellement ignobles qu’elles le rendirent célèbre : Ffirth commença par se faire des incisions sur les bras pour y verser du vomi de patient infecté, puis il s’en versa également dans les yeux.

Il fit ensuite chauffer du vomi pour en inhaler les vapeurs, et comme il n’était toujours pas malade, il finit par en boire. À l’issue de ces expériences, il était toujours en pleine santé, ce qui lui sembla être une preuve éclatante de son hypothèse. Il fallut attendre 60 ans après la mort de Stubbins Ffirth pour découvrir qu’en réalité, la fièvre jaune était transmise par les moustiques.

Johann Wilhelm Ritter

Quand Alessandro Volta inventa la première pile électrique en 1800, il révolutionna le monde de l’énergie. Ce qu’il n’imaginait sans doute pas, c’est l’utilisation qu’allait en faire Johann Wilhelm Ritter, un physicien allemand à qui l’on doit la découverte des ultra-violets, et qui fut pris d’une passion bizarre pour l’invention de son collègue italien. Ritter décida d’étudier les effets de l’électricité sur l’organisme en connectant la pile à différentes parties de son corps. Quand il électrifia sa langue, il ressentit une saveur acide, et quand il posa les fils sur ses yeux, il perçut d’étranges couleurs flotter devant lui.

Par amour de la science, Ritter appliqua aussi le courant électrique sur ses parties génitales. L’expérience fut si « concluante », que le physicien déclara autour de lui qu’il allait épouser sa pile. La curiosité de Ritter pour l’auto-stimulation électrique aurait pu s’arrêter là, mais il s’exposa à des courants de plus en plus élevés, sur des durées toujours plus longues, allant jusqu’à prendre de l’opium pour supporter la douleur.

Sa santé finit fatalement par en pâtir : ses yeux s’infectèrent, il eut des spasmes et des migraines, sa langue perdit temporairement sa sensibilité, et le courant paralysa un de ses bras pendant toute une semaine… Cela ne l’empêcha pas de continuer ses recherches, à la stupéfaction de ses collègues. Ritter mourut finalement de la tuberculose à 33 ans, mais ses expériences sur lui-même ont sans doute précipité son destin.

Nicolae Minovici

Au début du XXe siècle, alors qu’il enseignait la médecine légale à l’Université de Bucarest, le professeur Nicolae Minovici se posa une question bien légitime : qu’est ce que ça fait de mourir pendu? Pour y répondre, il commença par s’auto-asphixier. Il s’allongea sur un lit de camp, passa la tête dans un nœud coulant relié à une poulie, puis il tira sur l’autre extrémité de la corde. Très vite, son visage vira au rouge, sa vision se brouilla, et comme il sentait qu’il allait s’évanouir, il relâcha la corde au bout de quelques secondes. Mais ce n’était qu’un début.

Pour la deuxième phase de ses recherches, Minovici plaça son cou dans un nœud desserré, puis il demanda à des assistants de tirer sur la corde jusqu’à ce qu’il soit suspendu au-dessus du sol. La première fois, le professeur ne put tenir que quelques instants avant d’arrêter l’expérience, mais avec de la pratique il finit par résister 25 secondes à l’étranglement. L’ultime étape consistait à être pendu pour de bon.

Cette fois-ci, Minovici serra le nœud coulant autour de sa gorge, mais quand ses assistants tirèrent, la douleur fut si intense qu’il leur fit signe de relâcher presque aussitôt, avant même que ses pieds ne quittent le sol. Au bout du compte, ces expériences se soldèrent par des ecchymoses, des difficultés pour avaler, ainsi que par l’étude la plus complète jamais menée sur les effets de la pendaison.

John Paul Stapp

Après la Seconde Guerre mondiale, l’armée américaine avait besoin de mieux comprendre les effets de l’accélération et de la décélération sur le corps humain, notamment pour protéger les pilotes d’avion plus efficacement en cas de crash. À l’époque, les experts estimaient que la force maximale qu’une personne pouvait supporter était de 18 G, soit une pression 18 fois plus importante que la gravité terrestre. C’était avant que le colonel John Paul Stapp n’intervienne. Stapp était un docteur en biophysique déterminé à améliorer la sécurité aéronautique, même si cela impliquait de concevoir des machines mortelles, puis de les essayer lui-même.

Son invention la plus célèbre est une sorte de traîneau propulsé par des fusées, surnommé le Gee Whiz. Cet appareil était capable d’atteindre les 1 200 km/h, quasiment la vitesse du son, puis de stopper instantanément au bout d’une voie ferrée d’environ 600 m. En véritable crash dummy humain, Stapp essaya le traîneau 29 fois en 7 ans. La violence des tests lui valut plusieurs fractures et pertes de conscience, mais cela n’empêcha pas le colonel de battre son record de vitesse lors d’une ultime tentative, le 10 décembre 1954. Stapp fut propulsé à une vitesse de 1 017 km/h, ce qui est plus rapide qu’une balle de calibre 45.

C’est la plus grande vitesse jamais atteinte sur rails, et ça reste la plus grande vitesse atteinte au sol dans un véhicule sans cockpit. Mais le plus spectaculaire fut le moment où l’engin passa de 1 000 km/h à 0 en 1 seconde et demie. Lors de cette décélération, Stapp subit 46,2 G, ce qui reste un record absolu, et qui équivaut à percuter un mur à 200 km/h avec une voiture. Le choc fut si violent que Stapp resta aveugle jusqu’au lendemain, les yeux remplis de sang. Il garda des problèmes de vue toute sa vie, mais malgré tous les dangers auxquels il s’exposa, il mourut dans son sommeil à l’âge de 89 ans.

Henry Head

Le Dr Henry Head était un neurologue anglais, pionnier dans l’étude du système nerveux. Au début du XXe siècle, il se lança dans des recherches sur la physiologie de la douleur, et comme on n’est jamais mieux servi que par soi-même, il utilisa son propre corps comme un laboratoire. Le 25 avril 1903, il persuada un chirurgien de lui ouvrir le bras, puis de lui sectionner deux nerfs avant de recoudre le tout. Le but de la manœuvre était d’étudier la façon dont les sensations reviennent après une telle blessure. Pour l’aider dans sa démarche, son collègue William Rivers le soumit à une batterie de tests, tous plus douloureux les uns que les autres.

Pendant 4 ans, Rivers tortura le bras de Head pendant que ce dernier lui disait s’il sentait quelque chose, ou non. Le sacrifice du neurologue permit aux deux hommes de faire une découverte fondamentale : comme les sensations de chaleur et de douleur revenaient plus rapidement que certaines sensations plus subtiles, ils en déduisirent qu’il y avait deux voies de sensibilité distinctes. Une voie de sensations vagues, qu’ils baptisèrent protopathique, et une voie de sensations plus précises, qu’ils nommèrent épicritique. Pour savoir si tout le corps était capable de percevoir les deux types de stimuli, Rivers examina son collègue des pieds à la tête, et il finit par trouver chez lui une zone purement protopathique : son pénis.

Dans une pure abnégation scientifique, Henry Head accepta de se faire piquer sa virilité avec des aiguilles et de la tremper dans de l’eau brûlante pour déterminer la sensibilité de l’organe. Grâce à ces expériences, nous savons aujourd’hui pourquoi on ne peut pas lire en braille avec son pénis. Merci, M. Head !

Evan O’Neil Kane

Le 15 février 1921, alors qu’il est allongé sur une table d’opération pour se faire enlever l’appendice, le chirurgien américain Evan O’Neil Kane annonce qu’il va s’opérer lui-même. Comme il est chirurgien chef de l’hôpital, l’équipe médicale ne peut que lui obéir et le regarder mener sa petite expérience. Kane s’injecte de la cocaïne et de l’adrénaline pour s’anesthésier, puis il s’ouvre le ventre, et sectionne son appendice gonflé. Un bref moment de panique s’empare de l’assistance quand les tripes du chirurgien s’échappent, mais celui-ci les replace calmement à l’intérieur, puis termine l’opération.

14 jours plus tard, il était sur pieds, et prêt à reprendre le travail. L’affaire fit les gros titres de la presse internationale, mais Kane n’en avait pas terminé avec les plaisirs de l’auto-chirurgie. En 1932, à l’âge de 71 ans, il a besoin de se faire opérer d’une hernie inguinale. Cette opération est plus délicate qu’une simple appendicectomie, parce qu’il y a un risque de couper l’artère fémorale. Mais en bon aventurier du scalpel, Kane décide d’opérer lui-même à nouveau. Pendant l’intervention qui dura 1h45, il plaisanta avec les infirmières, et il demanda un deuxième shot d’anesthésique quand la douleur commença à se faire sentir.

Il sembla se remettre rapidement de l’opération, mais en réalité, il ne retrouva jamais toutes ses forces et il mourut trois mois plus tard d’une pneumonie. Evan O’Neil Kane reste la seule personne de l’histoire à s’être opérée d’une appendicite et d’une hernie lui-même.

Source : Axolot

Les robots, vers des applications à gogo ?

Au Japon, le robot Pepper fait l’accueil dans les magasins SoftBank Mobile et aide les vendeurs à vendre les machines à café de Nestlé. Il est également vendu à des développeurs depuis février, afin qu’ils créent le maximum d’applications avant sa commercialisation grand public. Le robot sera proposé dès le mois de Juin au Japon autour de 198 000 yens (environ 1467 euros). Pepper va ainsi permettre de démocratiser les robots beaucoup plus que Nao ne l’a déjà fait. Il faudra néanmoins attendre encore quelques mois avant de voir le robot débarquer sur le marché français.

Pepper est programmé pour reconnaître les émotions de ses interlocuteurs et adapter son comportement en fonction. « Ce robot est capable de capter à peu près correctement dans quel état émotionnel est son interlocuteur, en faisant de la reconnaissance faciale, mais aussi en faisant du traitement du signal sur la voix », précise Jean-Claude Heudin, Directeur de l’Institut de l’Internet du Multimédia, expert des robots et des avatars. Il adapte ainsi son registre pour communiquer au mieux avec vous ou vous remonter le moral.

Des catalogues d’applications, comme sur smartphones

Sur le site d’Aldebarran, il est indiqué que « Capable de s’adapter et de s’améliorer, il sera bientôt capable d’aller chercher de nouvelles applications pour vous surprendre et vous divertir!». Cela préfigure le marché de la robotique de demain.

« Si les robots se développent, il y aura des Appstore pour robots » prévient Jean-Claude Heudin . Pepper est déjà une machine universelle : le robot ne coûte pas cher, mais il faudra télécharger des applications pour ajouter de nouvelles fonctionnalités. « A terme, le marché visé est de l’ordre du smartphone. Vous pourrez acheter votre propre robot humanoïde à un prix défiant toute concurrence, un peu comme les smartphones, qui sont sponsorisés par certains opérateurs. Le modèle économique sera plutôt dans le développement d’applications et de téléchargement pour des applications particulières : baby-sitter, gardien de malade, assistance d’accueil, etc. », prévient Jean-Claude Heudin. Cela bien évidemment, à condition que les robots soient acceptés dans l’ensemble des foyers, comme cela a été le cas avec les smartphones.

Google, futur leader des applications pour robots?

Google a toujours un coup d’avance. Leader avec son système d’exploitation Android et son moteur de recherche incontournable, Google a racheté les principaux laboratoires de robotique aux Etats-Unis et  investit largement dans le domaine. 

« C’est un investissement dans la prochaine révolution pour se positionner sur des marchés futurs importants », assure Jean-Claude Heudin. Après la révolution des objets connectés,« Google a très envie de rester leader dans les systèmes d’exploitation et, les robots, c’est un peu l’ultime machine connectée», prévient-il. « Son ambition est de faire en sorte qu’Android devienne l’iOS des objets connectés et des robots, lorsqu’il y en aura partout », juge-t-il.

Par Matthieu Combe, journaliste scientifique

La lumière fait blanchir la couleur rouge des tableaux de Van Gogh

Les amateurs de Van Gogh doivent se dépêcher d’aller admirer ses tableaux, car ceux-ci se dégradent petit à petit. Plus particulièrement, la couleur rouge est victime d’une sorte de blanchiment. De quoi affadir les œuvres du maître. Des scientifiques belges s’en sont inquiétés et ont décidé de découvrir quel mal se cachait derrière cette dégradation. Ils n’ont pas hésité à prélever un minuscule échantillon du tableau « Meules de foin sous un ciel pluvieux », caractéristique du phénomène avec des feuilles mortes censées arborer une teinte rouge éclatante mais désormais à l’apparence blanchâtre.

En y regardant de plus près, les chercheurs de l’Université d’Anvers ont découvert que le grain de peinture était composé de différentes couches : une coque grise recouvre intégralement le cœur du pigment au rouge intact. Les scientifiques ont analysé ces dixièmes de millimètres de matière à l’aide du rayonnement synchrotron. Les mesures publiées dans Angewandte Chemie indiquent que le pigment utilisé par Van Gogh est du minium (Pb3O4), un oxyde de plomb couramment utilisé. Celui-ci se dégrade sous l’effet de la lumière, prenant une teinte noirâtre, blanchâtre ou verdâtre. Mais quel mécanisme se cache derrière l’évolution vers une teinte plus blanche ? Sous l’effet de la lumière, le minium capte le dioxyde de carbone présent dans son environnement, dans l’air ou issu de la décomposition d’acides gras au sein même de la peinture. Ce faisant, le minium se transforme en plombonacrite, un carbonate de plomb. Ce dernier continue à réagir avec le CO2 pour devenir du céruse, un pigment… blanc ! Le grain de pigment rouge se retrouve ainsi isolé à l’intérieur d’une gangue de couleur blanche.

Ci-dessus : Vincent Van Gogh – La vigne rouge

 

Si les chercheurs on levé le voile sur la façon dont les rouges blanchissent sous l’effet de la lumière, ils n’ont toutefois pas indiqué comment préserver la couleur. De plus, il apparaît délicat d’exposer une toile dans la pénombre. La dégradation des peintures utilisant du minium comme pigment rouge semble inéluctable.

Par Audrey Loubens

Revue du web #78 : les vidéos les plus étonnantes de mars 2015 (2/2)

Cette semaine dans la revue du Web :

  • Atelier fonderie, acte II : la forge à induction ;

  • « Inspiration » : les ferrofluides au service des lampes à lave ;

  • Les ferrofluides, comme à la maison ;

  • Le gadget (inutile?) de la semaine : le « bulletproof » à toutes les sauces ;

  • Et en bonus : une météorite au dessus de l’Alsace et de la Lorraine.

Atelier fonderie, acte II : la forge à induction

La semaine dernière, la Revue du Web s’ouvrait sur le surprenant atelier fonderie artisanal de Grant Thompson, un amateur éclairé qui se prend – avec un certain succès – pour un apprenti-forgeron du fond du jardin. Débutons la Revue de cette semaine dans le même esprit, avec une forge que l’on ne pourra pas trouver dans toutes les chaumières, à savoir une forge à induction. Le principe de cette forge repose sur l’induction électromagnétique, permettant de chauffer tous types de matériaux sans qu’ils n’aient besoin d’entrer en contact avec la source d’énergie.

Le matériau (ici, une lame de couteau), placé au cœur des spirales de l’électroaimant, baigne alors littéralement dans un champ électromagnétique. La perte des courants de Foucault dans le matériau – obligatoirement conducteur – produit de la chaleur dans celui-ci, par effet Joule, principe même du chauffage par induction. Il est impressionnant de voir avec quelle rapidité la lame se met à rougir, prête à être travaillée.

« Inspiration » : les ferrofluides au service des lampes à lave

Vous vous souvenez sans aucun doute des lampes à lave : ces lampes de décoration passées de mode, formées d’un globe de verre allongé contenant un liquide transparent et de la cire. Le principe de ces lampes était élémentaire : une fois chauffée par l’ampoule à incandescence, la cire fond et perd en densité (et donc se met à monter), puis une fois éloignée de la source de chaleur, regagne en densité (et donc se met à redescendre). Bien que s’inspirant quelque peu de ce format, « Inspiration » n’a pas grand chose à voir avec ces illustres – et franchement has-been – aînées, mais nous rappelle à leur bon souvenir.

« Inspiration » se base sur les incroyables propriétés ferromagnétiques de ce que l’on appelle les ferrofluides, un colloïde (au même titre que le lait) de nanoparticules ferromagnétiques d’une dizaine de nanomètres, dans une solution aqueuse. Lorsque les nanoparticules du ferrofluide entrent dans un champ magnétique suffisamment grand, la magie opère : le ferrofluide s’anime, palpite, se hérisse de pointes dont l’équilibre instable est un ravissement.

Le projet, lancé sur Kickstarter, est déjà largement financé.

Les ferrofluides, comme à la maison

Pas encore rassasié en ferrofluides ? L’engouement pour ce liquide colloïdal de nanoparticules ferromagnétiques fait qu’il est désormais facile de se procurer dans le commerce de petites quantités de ferrofluides, afin d’inviter la magie chez soi ou d’alimenter en vidéos les plates-formes en ligne, comme cette superbe séquence dont nous vous parlions ici.

Dans la vidéo qui suit, un internaute nous prouve qu’il est aisé de s’amuser avec bien peu de choses, à savoir un flacon contenant 20ml de ferrofluide, une boite de Pétri et un classique aimant néodyme fer bore. Après avoir versé le précieux liquide dans la boite de Pétri (qui sert ici seulement à s’intercaler entre le ferrofluide et l’aimant), le ballet peut commencer, le fluide révélant sous l’influence du champ magnétique ses qualités polymorphes si particulières, s’anime et se hérisse de pointes désormais familières.

Alors, lorsque l’expérience ne se déroule pas vraiment comme prévu, et que le contenu de la boite de Pétri se renverse, notre internaute ne semble pas se démonter, et profite de la situation pour continuer sa petite expérimentation, pour notre plus grand plaisir.

Le gadget (inutile?) de la semaine : le « bulletproof » à toutes les sauces

Notre gadget (inutile?) de la semaine vient nous rappeler que lorsqu’il est question de sécurité, tout est permis… Surfant sur la psychose ambiante liée à la multiplication des attentats terroristes un peu partout dans le monde, certains petits malins ont créé des produits dont l’intérêt limité vient seulement nourrir la paranoïa de l’homme en situation de danger permanent. Cet homme a absolument besoin de se sentir protégé, mais désire également ne pas éveiller le moindre soupçon quant à cette surenchère défensive. En effet, un gilet pare-balle perd un peu de son efficacité… en devenant apparent.

Fort de ce constat, Tom Nardone a conçu une casquette pare-balle, alternative à la fois discrète et élégante au sempiternel casque balistique qui, bien qu’assurant une protection jugée optimale, pèche par son manque de discrétion pour une utilisation au quotidien. Le projet, lancé sur Kickstarter, a connu un grand succès et a reçu près de 12 000 dollars, soit plus de trois fois la somme espérée. La casquette viendra donc couvrir le chef de quelques quidams en danger, pour 99 dollars :

Une boutique d’Eindhoven (dans le sud des Pays-Bas) va jusqu’à proposer des costumes à l’épreuve des balles, mais pas seulement. On peut retenir le bon goût de la série des marcels blancs, ou encore… le chic de la cravate pare-balle. Eh oui, chaque petit bout compte, surtout lorsque le moindre article coûte au minimum la coquette somme de 2400 euros.

Bonus : une météorite au dessus de l’Alsace et de la Lorraine

Terminons notre Revue du Web avec quelques images de la météorite qui a survolé l’Autriche, la Suisse, l’Allemagne, mais également l’Alsace et la Lorraine, dimanche dernier, un peu avant 21 heures. Une énorme boule de feu auraient traversé le ciel, certains témoins évoquant même une détonation sourde voire un grondement accompagnant l’apparition céleste.

On se souvient que la désintégration d’une météorite dans le ciel russe, au-dessus de l’Oural, il y a plus de deux ans, avait fait beaucoup parlé d’elle… D’une part pour le calibre exceptionnel de l’engin (un diamètre compris entre 15 et 17 mètres, pour une masse comprise entre 7000 et 10000 tonnes), mais aussi en raison du très grand nombre de vidéos disponibles, la faute aux « dash-cams », ces caméras embarquées permettant de filmer ce qu’il se passe sur la route et de se prémunir contre les fraudes à l’assurance, pratique endémique en Russie.

Peu de dash-cams de ce côté-ci du Caucase, mais un automobiliste autrichien a tout de même immortalisé ce moment dans la région du Tyrol, ainsi qu’un automobiliste allemand dans les environs de Fribourg-en-Brisgau.

Par Rahman Moonzur

L’histoire de Jupiter expliquerait la singularité de notre système solaire

Jupiter aurait détruit sur son passage une première génération de ces grandes planètes rocheuses similaires à la nôtre, avant de voir son orbite se stabiliser, selon un article paru lundi dans les Comptes-rendus de l’Académie américaine des sciences (PNAS).

Cette théorie pourrait expliquer pourquoi notre système solaire est très différent des centaines d’autres systèmes planétaires découverts ces dernières années.

« Nous pouvons désormais regarder notre système solaire dans le contexte de tous ces autres systèmes stellaires et constater que l’une des caractéristiques les plus intéressantes est l’absence de planète à l’intérieur de l’orbite de Mercure », la plus proche du soleil, relève Gregory Laughlin, professeur d’astrophysique à l’Université de Californie à Santa Cruz, co-auteur de cette étude.

« Le système planétaire standard de la Voie Lactée est apparemment formé d’un groupe de ‘super-Terres' » dont l’orbite est très proche de leur étoile », poursuit l’astrophysicien pour qui « notre système solaire paraît être de plus en plus une bizarrerie ».

Au moment de la formation de Jupiter et de Saturne, il est possible que des planètes rocheuses dotées d’une atmosphère très épaisse se soient formées près du soleil à partir d’un disque de gaz et de poussière pour devenir des « super-Terres » typiques. C’est le cas d’un très grand nombre d’exoplanètes découvertes en orbite autour d’étoiles ces dix dernières années.

Alors que Jupiter avançait à l’intérieur du système solaire, les perturbations gravitationnelles de la planète géante auraient provoqué une série de collisions entre les autres planètes et des astéroïdes, les réduisant en morceaux.

Les débris se seraient alors fondus dans le disque dense autour du soleil détruisant dans ce processus toutes les super-Terres qui venaient de se former.

Ces débris auraient ensuite servi à former une seconde génération de planètes: Mercure, Vénus, la Terre et Mars.

Ces nouvelles planètes sont d’ailleurs plus jeunes que celles se trouvant sur des orbites plus éloignées comme Uranus, Neptune et pluton, soulignent ces scientifiques.

De plus, ces planètes plus jeunes sont également moins massives que les super-Terres et ont des atmosphères beaucoup moins épaisses, relève Gregory Laughlin.

« Une des prédictions de notre théorie c’est que des planètes rocheuses semblables à la Terre avec une pression atmosphérique relativement faible, sont rares », note-t-il.

Selon cet astrophysicien, la formation de Mercure, Vénus, de Mars et de la Terre a été rendue possible par la présence de Saturne, qui a permis de maintenir Jupiter sur une orbite plus éloignée du soleil que ce n’est en général le cas pour ces géantes gazeuses.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Des épreuves sportives pour « Superhumains » en marge des JO 2020 ?

Les technologies d’assistance et la robotique pourraient donc permettre à n’importe qui de posséder des « aptitudes de superhumain » et de rivaliser avec des athlètes entraînés et des adultes en bonne condition. Cependant, l’idée n’est pas que la technologie seule détermine le résultat, comme le confirme Masahiko Inami, professeur en valorisation du potentiel humain à l’Université de Keio. Ainsi, les règles devront être étudiées afin de laisser de l’importance aux capacités des individus et à leur effort.

Le professeur Inami travaille notamment sur des lunettes qui donneraient au sportif, via deux caméras portées sur la tête, la vision de ce qui se trouve devant et derrière lui simultanément, soit de manière superposée, soit en parallèle, ce qui pourrait démultiplier les capacités de perception du joueur. Un autre exemple de jeu est développé par Takuya Nojima, professeur associé à l’Université d’Électro-Communications, combinant le dodgeball américain et un jeu de rôle, où les scores attribués varient selon les personnes et où les contacts sont détectés par des capteurs.

Le comité est à la recherche de partenaires afin de développer ses activités et des avis du public afin d’améliorer ses projets. Mis en place en 2014 suite à l’anniversaire des 50 ans des derniers Jeux Olympiques organisés à Tokyo, en 1964, ce comité est constitué d’une quarantaine de membres d’horizons divers (chercheurs, prothésistes, anciens athlètes et réalisateurs de jeux, etc).

Pour en savoir plus :

[email protected] ;

– le site du comité des sports pour les « superhumains » (en japonais), Superhuman Sports Society ;

– sur le site du Asahi Shimbun, 14 février 2014 (en anglais) : « Superhuman sports of the future for anyone could be on the horizon for 2020« .

Source : bulletins-electroniques.com

Le caméléon utilise des nano-cristaux pour changer de couleur

Le caméléon est un animal incroyablement surprenant. Avec ses yeux aux mouvements indépendants, sa langue projetable à plus de 20 km/h et ses changements de couleurs, ce lézard possède des propriétés rares dans le monde animal. Parmi elles, sa capacité à modifier la couleur de sa peau a longtemps intrigué les scientifiques. Alors que beaucoup de croyances entourent le caméléon, une équipe de scientifiques suisses a mis à jour un mécanisme jusque-là mal connu. Le caméléon possède dans sa peau des cellules iridophores, c’est-à-dire des cellules contenant des pigments mais dont la taille peut être modifiée par le système nerveux. En jouant sur la taille de ces nano-cristaux, le caméléon modifie les longueurs d’onde absorbées et peut s’afficher dans des couleurs différentes.

Les chercheurs de la faculté des sciences de l’Université de Genève se sont tout particulièrement intéressés au caméléon panthère mâle. Originaire de Madagascar, celui-ci est capable de passer de couleurs douces à très vives rapidement. Le caméléon utilise sa couleur principalement pour communiquer avec ses congénères et afficher clairement son humeur. À tendance séductrice, le caméléon montre des couleurs vives et claires ; d’humeur guerrière, il présente plutôt des teintes sombres. Désormais, on sait que ces variations reposent sur deux critères : les pigments et la taille des cellules iridophores.

Dans le cas du caméléon panthère, une deuxième couche de cellules existe en profondeur sous la peau. Cette couche est composée de cellules plus grosses que celles présentes en surface, dont le rôle est de réfléchir la lumière infra-rouge et ainsi de se protéger du soleil. Entre la première couche de nano-cristaux, plus dense et dédiée à la sélection de la couleur, et la deuxième agissant comme filtre solaire, le caméléon dispose d’une peau multi-fonctions très efficace.

Par Audrey Loubens

Le 3Doodler est le premier stylo pour dessiner dans l’espace

Il coute moins de 100€ et est en train de révolutionner l’art graphique ! Le 3Doodler est un stylo 3D permettant de dessiner en 3 dimensions. Fini le bon vieux dessin sur sa feuille, place à la sculpture dessinée. Ce stylo nouvelle génération mesure 18 cm sur 24 cm et pèse 200g. Une tige de plastique remplace la cartouche d’encre d’un stylo classique. Une fois le stylo branché, il ne reste plus qu’à appuyer un bouton situé sur le dessus du 3Doodler afin de faire chauffer le plastique qui, une fois fondu, s’écoule de la pointe. La résistance utilisée chauffe à 270°.

Le plastique utilisé, qu’il s’agisse de PLA ou d’ABS, se solidifie quasi-instantanément grâce à un petit ventilateur intégré. L’œuvre d’art réalisée est donc figée rapidement, de quoi envisager des dessins complexes comme une tour Eiffel, une Statue de la liberté, un chien, un dragon ou une tortue Ninja.

 Le 3Doodler n’a aucune limite si ce n’est celle de votre imagination et votre temps libre. Toutefois si le stylo est affiché à un tarif abordable, comptez environ 9€ pour 25 tiges de couleur (bleu, rouge, blanc, jaune, vert, violet, marron…) ce qui n’est pas tant que ça pour dessiner. WobbleWorks, la société  qui a quand même raflé 1.7 millions lors de sa campagne de financement participatif,  propose sur son site des patrons pour s’initier à l’utilisation du 3Doodler. 

Mais à quoi peut bien servir un stylo 3D ? A s’amuser, et c’est déjà pas mal. Certains redoublent d’ingéniosité pour imaginer les objets les plus fous ou surréalistes à dessiner en volume. Par exemple, le studio de mode SHIGO, à Honk-Kong, n’a pas hésité à se lancer dans la fabrication d’une « robe coquillage », un projet qui a duré 3 mois. De leur côté, les inventeurs du 3Doodler ont réalisé un drone en moins de 3h !

  • Créez votre propre drone avec le 3Doodler :

Par Audrey Loubens

5G, internet des objets, mouvement maker : les tendances 2015

L’observatoire des tendances 2015 publié par NI revient sur 4 tendances déjà bien marquées :

  • 5G : L’Internet pour tous et pour tout ;
  • L’Internet des Objets va faire rouiller les équipements de test automatique de grande envergure ;
  • L’Internet des Objets Industriels ;
  • L’influence du mouvement Maker.

Richard Keromen, ingénieur test et RF chez National Instrument, nous présente ces tendances :

Production et montage : Bruno Decottignies

Bill Gates se méfie de l’intelligence artificielle

En matière d’intelligence artificielle, Mr Gates n’est pas le seul à penser que la situation pourrait nos échapper. D’autres pointures telles que Elon Musk, l’emblématique patron de Tesla Motors et de Space X, ainsi que Stephen Hawking, professeur de mathématiques et physicien théoricien britannique dont la « vie extraordinaire » a été traduit récemment sur grand écran, ont le même point de vue… qui est que nous ne devons pas concevoir des machines au pouvoir de réflexion supérieur à celui de l’être humain.

La super­intelligence artificielle est une menace pour l’humanité. Celui qui a co­fondé Microsoft en 1975 a d’ailleurs exprimé son inquiétude lors d’une discussion sur le site web communautaire Reddit. Il précise « qu’au début les machines accompliront de nombreuses tâches pour nous, que cela devrait être positif si nous le gérons bien » mais qu’à un moment donné, probablement « dans quelques décennies, l’intelligence des machines sera assez forte pour devenir un sujet de préoccupation ».

Ce n’est donc pas une menace immédiate, rassurons­nous, l’intelligence artificielle est encore balbutiante. Non, il s’agit avant tout d’une mise en garde encourageant à la méfiance. Pour Bill Gates, le développement de l’intelligence artificielle doit être assuré avec une grande précaution.

Car si l’IA est encore limitée, il redoute le jour où les robots seront dotés d’une conscience. Il rejoint ainsi la position d’Elon Musk, qui dans ce souci d’encadrement de la recherche, s’est délesté de dix millions de dollars au profit de l’association Future of Life Institute.

Il semble évident et nécessaire qu’une réflexion plus poussée sur le sujet devrait être menée au niveau national et international. Scientifiques et entrepreneurs de pointe sont de plus en plus nombreux à penser qu’il faudrait instaurer un cadre éthique dans ce domaine, ajuster les lois, pour s’assurer simplement comme le dit le dirigeant de Tesla « que nous ne faisons rien de stupide ».

D’un point de vue extérieur cependant, il peut paraître assez étrange que ce soient ceux-là même qui conçoivent actuellement l’intelligence artificielle qui en ait le plus peur. Mais c’est aussi rassurant, d’une certaine manière, de voir que son développement n’est pas pris à la légère. Et que des arrangements sont mis en place afin d’éviter, comme le prédit funestement Stephen Hawking, que les humains ne soient dépassés par le développement de l’intelligence artificielle, « limités par leur lente évolution biologique », et ne soient en fin de compte devenus inutiles et remplacés comme nous remplaçons nos outils électroménagers devenus obsolescents.

Reste à savoir si cela représente une technique de communication, en amont, pour étouffer les craintes du public quant aux machines intelligentes à venir, étayées à la fois par ces sommités et par de nombreux films de science­fictions (Matrix, I. Robot, Blade Runner…). Car en affichant ainsi leurs préoccupations, ils démontrent aussi leur sérieux.

Alors faut­il vraiment avoir peur des machines autonomes comme le pensent Bill Gates, Elon Musk et Stephen Hawking ? À priori non, pas dans l’immédiat. La complexité de l’intelligence humaine est telle que nous ne sommes pas en mesure de faire émerger une conscience artificielle. L’architecture informatique est encore très basique et l’idée même qu’une intelligence artificielle se développe elle­même à un rythme exponentiel demeure pour le moment dans le domaine de la science­fiction.

En revanche, définir les effets de la robotisation sur l’emploi reste difficile. Sur ce point, les avis divergent. Les partisans estiment que sans une plus forte robotisation, l’industrialisation française coure à sa perte, menacée par les délocalisations des entreprises. La robotisation serait de fait un outil pour baisser les coûts de production qui nous permettrait d’atteindre une compétitivité égale à celle de la Chine. C’est en tout cas ce que pense le syndicat des machines et technologies de production (Symop.) Alors que les opposants craignent que la robotisation entraîne un plus haut taux de chômage, que les tâches à l’origine destinées aux humains soient effectuées par les machines ou les ordinateurs.

Seul l’avenir nous dira si notre confiance dans les machines n’était pas erronée et que cette crainte étayée par les sommités de l’innovation n’était pas exagérée.

Par Sébastien Tribot

Imprimante 3D: « Il faut se préparer à l’usine du futur »

Le CESE préconise à l’adresse des pouvoirs publics de « créer un écosystème favorable en France », en misant sur le développement des formations et des qualifications et notamment « l’apprentissage de l’informatique et l’utilisation d’imprimantes 3D dès l’âge de 5 ans ».

Le CESE demande également dans son projet d’avis « une clarification rapide des intentions des pouvoirs publics quant à l’avenir des 34 plans industriels et plus particulièrement celui dédié à +l’usine du futur+ ».

« Cette technologie n’a attiré que depuis 3 ou 4 ans l’attention des médias grands public, en raison de l’accroissement considérable de ses applications, réelles ou potentielles », relève le CESE dans son projet d’avis intitulé « Innovations technologiques et performance industrielle globale: l’exemple de l’impression 3D ».

L’impression 3D recouvre en réalité toute une série de procédés qui ont en commun de fabriquer des objets, permettant d’adopter directement des formes précises et complexes.

L’impression 3D est désormais considérée – avec l’internet mobile, l’internet des objets, le Cloud computing (informatique en nuage), le Big data (mégadonnées), l’automatisation des métiers du savoir, la robotique de pointe ou encore les matériaux avancés – comme « l’une des technologies liées au numérique susceptibles de transformer profondément les modes de production et les modèles économiques actuels ».

Cette technologie de l’ère numérique touche des secteurs comme celui de la santé (prothèses et implants sur mesures), de l’aéronautique, la bijouterie, l’horlogerie ou encore l’industrie du jouet.

Elle permet encore « la personnalisation des objets », souligne le CESE qui reconnaît néanmoins que son « impact sur le volume de l’emploi demeure encore incertain ».

Le Conseil insiste sur le fait que l’impression 3D a été inventée au même moment (1984) en France et aux États-Unis mais que ces derniers représentent 38% du nombre d’imprimantes 3D, alors que la France n’occupe que le 7e rang mondial, avec un peu plus de 3%.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

De la glace carbonique comme source d’énergie

En déposant de la glace carbonique sur une surface suffisamment chaude, c’est-à-dire dont la température est supérieure à son point d’ébullition, de la vapeur se forme. Celle-ci peut alors être utilisée pour entraîner une turbine. C’est le principe mis en œuvre par une équipe de l’Université de Northumbria en Grande-Bretagne. Les chercheurs exploitent l’effet Leidenfrost qui explique comment une fine couche de vapeur se forme autour d’une goutte de liquide déposée sur une surface plus chaude que la température d’ébullition du liquide concerné.

La goutte ne s’évapore plus, ainsi protégée par la couche de vapeur, mais lévite au-dessus de la surface. Les chercheurs ont appliqué ce principe à la glace carbonique, avec succès. La vapeur dégagée a pu faire fonctionner une turbine en aluminium préchauffée à une température comprise entre 300 et 500 °C, elle-même couplée à une bobine électromagnétique. Ce système permet donc de générer de l’électricité avec comme matière première de la glace carbonique.

Le concept est particulièrement adapté à la conquête de la planète Mars, dont les sols contiennent une grande quantité de glace carbonique. En installant un système similaire, des colons pourraient produire de l’électricité de façon autonome et infinie. Toutefois, cette application se veut à long terme et d’autres utilisations plus « terre à terre » pourraient intéresser les industriels comme le forage en haute profondeur et la micro-mécanique.

Par Audrey Loubens

Le CIRC classe le glyphosate « cancérigène probable »

Les associations tirent la sonnette d’alarme depuis longtemps pour dénoncer la toxicité des insecticides à base de glyphosate sur le terrain. Le glyphosate est la matière active la plus utilisée au monde dans les herbicides en agriculture et pour les jardiniers amateurs. Générations Futures, notamment, « se félicite de cette classification qui reconnait la dangerosité avérée du glyphosate », dans un communiqué du 20 mars.

Mais la classification par le CIRC n’oblige pas les Etats à prendre des mesures de protection pour les professionnels et les citoyens. Selon le réglement européen 1107/2009 (Annexe II point 3.6.3), « une substance active, un phytoprotecteur ou un synergiste n’est approuvé(e) que si, sur la base de l’évaluation de tests de carcinogénicité effectués […] il/elle n’est pas – ou ne doit pas être – classé(e) cancérogène de catégorie 1A ou 1B », c’est-à-dire si il/elle n’est pas cancérogène avéré. Le glyphosate, en tant que cancérogène probable (groupe 2A), n’entre donc pas dans le cadre d’application de ce réglement. 

Néanmoins, les experts du CIRC rappellent qu’ « il revient aux gouvernements et aux autres organisations internationales de recommander des réglementations, des législations ou des interventions de santé publiques ». En réaction, Générations Futures demande « une réévaluation immédiate par l’EFSA du glyphosate ». Parallèlement, l’association demande le retrait du marché, et notamment des jardineries, des pesticides à base de glyphosate. 

A l’occasion de cette nouvelle classification, deux autres insecticides – malathion et diazinon – deviennent également des cancérigènes « probables ». Les insecticides tetrachlorvinphos et parathion, qui font déjà l’objet d’interdictions ou de restrictions dans de nombreux pays, font quant à eux leur entrée dans la catégorie des cancérigènes possibles pour l’homme.

Les formulations commerciales sont encore plus toxiques !

Si cette nouvelle classification met en lumière la toxicité du glyphosate, il ne faut pas oublier qu’il est additionné d’adjuvants également toxiques dans les formulations commerciales. Selon une étude du Professeur Gilles-Eric Séralini parue en 2014, les adjuvants ajoutés au glyphosate dans les formulations d’herbicides comme le Roundup augmentent considérablement la toxicité de la seule matière active glyphosate pour des cellules humaines. Il rappelait alors que la toxicité à long-terme de ces formulations n’était pas évaluée. 

« L’Anses elle-même a relevé le manque des tests sur les effets chroniques des pesticides tels qu’ils sont vendus et utilisés comme une faille majeure dans le dispositif d’évaluation », rapelle François Veillerette, porte parole de Générations Futures.

Une interdiction récente du Roundup au Sri Lanka

Début mars, avant la parution cette nouvelle classification, l’utilisation du glyphosate était interdite au Sri Lanka sur directive du président Mahinda Rajapaksa. Cette interdiction a été prise en raison du rôle suspecté de l’herbicide dans une maladie chronique grave des reins d’origine inconnue touchant actuellement des dizaines de milliers d’agriculteurs du pays.

« Nous demandons au gouvernement de saisir l’Anses d’une demande d’expertise sur ce sujet en urgence afin de réévaluer les risques posés par la molécule », insiste encore Générations Futures. 

Par Matthieu Combe, journaliste scientifique

Eclipse solaire: l’Allemagne passe avec succès le stress-test de sa transition énergétique

Tennet, l’un des quatre opérateurs chargés de la gestion du système électrique du pays, a communiqué via Twitter sur la fréquence du réseau électrique tout au long de l’éclipse. La fréquence du réseau doit être maintenue à 50 Hertz. L’amplitude de fluctuation considérée comme acceptable est de ± 0,50 Hz autour de 50 Hz. ​« En fonctionnement normal la fréquence doit être comprise entre 49,8 et 50,2 Hz. En dessous de 48,8 Hz (au dessus de 52 Hz) il y a un début de perte de contrôle de la charge. » explique le site EnergiePourDemain.fr réalisé notamment avec la collaboration du CNRS et de l’ADEME. « Si la fréquence descend au dessous de 47 Hz il y a perte complète de la charge et le réseau s’effondre. Pour le remettre en marche cela peut demander plusieurs jours. »

La déviation maximale observée par l’opérateur Tennet durant l’éclipse a été de +0.05 Hz à 11H08, ceci consécutivement à la remontée de la production solaire PV. 0,05 Hz c’est 10 fois moins que le niveau maxi acceptable. La régulation de fréquence s’est donc déroulée sans embûches.

A 9H45, juste avant l’éclipse, la puissance solaire PV délivrée était de 13,3 GW (animation disponible ici). Une heure plus tard elle avait sombré à 5,1 GW, le niveau minimum car l’éclipse n’était pas totale. A 12H00 elle était déjà remontée à 19,4 GW puis à 20,3 GW à 13H. Ceci sur un maximum théorique de 28 GW en cette période de l’année (veille de l’équinoxe de printemps) à cette latitude de l’hémisphère nord (48 à 54° nord). La puissance PV installée dans le pays est de 38 GWc. Le facteur de capacité du PV était ainsi de 53% à 13H, ce qui témoigne d’une belle journée bien ensoleillée. Seul le nord-ouest du pays était nuageux (voir carte ci-dessous). Le niveau d’insolation était d’environ du 3/4 du niveau maximal théorique possible à cette période de l’année en Allemagne. Un niveau idéal pour tester la capacité d’adaptation du réseau.

Entre 75 minutes (10H45 – 12H), la puissance PV a monté de 14,3 GW, ce qui est équivalent à la puissance délivrée par 14 réacteurs nucléaires tournant à plein régime. Ce qui fait une cadence de ramp-up du 190 MW par minute. L’Allemagne a démontré sa capacité à faire face à cette variation rapide en mobilisant ses STEP (stockage hydraulique gravitaire) et son back-up thermique. Démentissant ainsi les oiseaux de mauvais augure et hostiles au développement des énergies renouvelables.

En France le soleil avait rendez-vous avec Fessenheim

En France, que le temps soit ensoleillé ou nuageux, le problème ne se posait pas: la puissance solaire installée est bien trop faible pour causer un quelconque problème au réseau électrique. Et le pays dispose de 5 GW de Stations de Transfert d’Energie par Pompage (STEP, stockage hydraulique gravitaire).

A 9H30 la puissance solaire PV délivrée en France était de 1,2 GW selon RTE (sur un total d’environ 5,5 GW). Elle est tombée à 0,4 GW à 10H30. Puis est remontée à 2 GW à midi. Aucun problème n’a été constaté sur le réseau pour cette variation d’1,6 GW. C’est à dire d’amplitude inférieure à la chute de puissance obtenue lors d’une panne de la centrale nucléaire de Fessenheim (1,8 GW). Cette centrale née en 1977 soufflera ses 40 bougies en 2017.

Seul un problème en Allemagne aurait pu par effet de domino se transmettre aux réseaux des pays voisins via les interconnexions trans-nationales. L’Allemagne a démontré sa robustesse. La croissance du solaire et de l’éolien peut se poursuivre.

Une éclipse partielle aura lieu en Chine en mars 2016, pays qui compte aujourd’hui une puissance solaire installée de 28 GW et bien davantage dans un an. Et les USA connaîtront une éclipse totale en avril 2017. Cela sera l’occasion pour ces deux grands pays d’effectuer leur propre stress-test.

Par Olivier Daniélo

En savoir plus :

US 708 est l’étoile la plus rapide de la galaxie

L’étoile US708 appartient à la catégorie des astres hyper-rapides. Avec une vitesse de 1 200 km/s, il ne lui faudra que 25 millions d’années pour parvenir aux frontières de notre galaxie et se retrouver de l’autre côté. Une prouesse dont bien peu d’étoiles sont capables. Pour s’extraire de l’attraction exercée par notre galaxie, les étoiles doivent se déplacer à vitesse grand V. Mais peu d’entre elles peuvent acquérir la vitesse nécessaire de quelques centaines de kilomètres par seconde. D’ailleurs, les scénarios aboutissant à l’accélération d’une étoile restent de l’ordre de l’hypothèse.

Parmi elles, le passage de l’étoile près d’un trou noir expliquerait son accélération, ou encore des étoiles originaires de systèmes binaires dont l’une a évolué en supernova, expulsant avec force son ex-consœur. C’est probablement ce qui est arrivé à US 708. Alors qu’elle gravitait autour d’une naine blanche massive, cette dernière a explosé. US 708 s’est retrouvée éjectée avec la vitesse exceptionnelle que l‘on sait.

Les mesures concernant US 708 et réalisées sur plusieurs années ont été publiées sur Sciencesmag.org. D’après elles, l’étoile est un poids plume avec une masse deux fois inférieure à celle du Soleil. Toutefois, les astronomes supposent qu’US 708 était à l’origine une géante rouge jusqu’à trois fois plus lourde que le Soleil.

Par Audrey Loubens

Un trottoir anti-smog nettoyant l’air

Le principe de fonctionnement est connu depuis longtemps et utilisé dans d’autres domaines : le dioxyde de titane (TiO2), qui rentre dans la composition des dalles, permet, avec l’aide des rayonnements ultraviolets du soleil, de transformer les oxydes d’azote contenus dans l’air (NOx) en ions nitrates (NO3-), avant qu’ils n’aient pu se convertir en ozone (O3), responsable du smog. Le dioxyde de titane ne joue qu’un rôle de catalyseur (de photo-catalyseur ici en l’occurrence) et n’est donc pas consommé pendant la réaction de « nettoyage » de l’air. Les ions nitrates s’accumulent au sol et sont lavés par la pluie qui les achemine vers les égouts. Les concentrations sont faibles et ne peuvent constituer un danger pour la qualité de l’eau et la santé.

Dans le cas de Bottrop, 750 m2 de béton ont été installés à un croisement routier qui devrait être capable d’éliminer 1,82 mg de NOx par heure (2,4 micro-g/m2 par heure en moyenne, d’après les informations du site de Photoment). La ville de Laupheim (Bade-Wurtemberg) avait déjà introduit Photoment en 2014 sur une surface de 500 m2. L’utilisation de ce béton, qui a pour le reste les mêmes caractéristiques qu’un béton traditionnel, conduit à un coût supplémentaire de 3 à 5 euros par m2. Son emploi doit donc être comparé avec d’autres mesures possibles pour réduire les émissions d’oxydes d’azote.

Ce produit a été conçu par l’entreprise Steag Power Minerals, en collaboration avec le producteur de dioxyde de titane Kronos Titan et avec la validation technique de l’Université de Technologie de Berlin (TU Berlin).

Source : bulletins-electroniques.com

Et aussi dans les
ressources documentaires :

La pollution en Ile de France provient-elle des centrales à charbon allemandes ?

L’Île de France fortement polluée ? Certains pro-nucléaires et/ou xénophobes en ont profité pour semer des messages de désinformation sur les réseaux sociaux. Comme par exemple ici, de la part du journaliste Gilles Dauxerres. Selon eux l’Allemagne aurait augmenté sa production électrique à base de charbon (ce qui est faux, lire sur Techniques de l’Ingénieur l’article : En Allemagne la régression du nucléaire s’accompagne de celle du charbon) et en conséquence l’air de Paris est devenu dangereux pour la santé.

Selon AirParif, en Ile de France, seulement 2% des particules proviennent des centrales électriques thermiques. La France produit en effet une partie de son électricité à partir des centrales au charbon (5119 MW selon RTE) et de fioul (8883 MW). 1,5% de la production électrique française en 2014 était à base de charbon, et 0,8% à base de fioul. Cette carte EDF permet de localiser les sites concernés. En région parisienne se trouvent la centrale au charbon de Vitry-Sur-Seine (500 MW) et la centrale thermique au fioul de Porcheville (2400 MW) juste à côté de Mantes-la-Jolie. Le centrale à charbon du Havre (1450 MW) n’est guère éloignée.

Toujours selon Airparif 37% de la pollution particulaire (PM2,5) en Ile de France provient du résidentiel et tertiaire (chauffage, y compris au bois, moyen de chauffage encouragé par Ségolène Royal), 27% du trafic routier (véhicules diesel), 24% de l’industrie manufacturière et 7% des activités agricoles (dont les épandages d’engrais). Le trafic aéroportuaire pèse de son côté 2% et les transports ferroviaires et fluviaux 1%. Pour les PM10 les ordres de grandeur sont globalement équivalents. A noter qu’au niveau du boulevard périphérique de Paris, la part du trafic routier monte à 47% au lieu de 27% en moyenne en Ile de France.

Selon la direction de déplacement des masses d’air, des particules peuvent provenir des régions voisines : la Basse-Normandie, la Picardie, la Champagne-Ardennes, la Bourgogne et la région Centre. Et aussi de régions plus éloignées, voir même de pays voisins : Belgique, Luxembourg, Pays-Bas, Royaume-Uni, Irlande, Allemagne, Suisse.

Ajoutons que du fait des vents d’ouest dominants, la France (pays de la zone tempérée du littoral Atlantique) envoie plus souvent ses particules vers ses voisins de l’est que l’inverse. La pollution française est poussée vers l’Allemagne. C’est d’ailleurs pour cette raison que les Allemands et les Suisses sont inquiets de l’état de la centrale nucléaire de Fessenheim: en cas de catastrophe nucléaire suite à des actes terroristes ou un événement climatique exceptionnel ils pourraient être affectés par la pollution radioactive.

En Grande-Bretagne le tiers de l’électricité provient de la combustion du charbon. Paris est plus proche de Londres (330 km), de Bruxelles (260 km), du Luxembourg (280 km) et d’Amsterdam (440 km) que de Berlin (863 km), Francfort (450 km), Stuttgart (480 km), Munich (700 km) ou Hambourg (760 km). Or plus on s’éloigne d’un foyer d’émission de particules, plus leur concentration baisse.

A noter qu’une bonne partie des particules produites par les pays voisins proviennent elles aussi du trafic routier, de l’industrie manufacturière et du résidentiel et tertiaire. La production électrique à base de charbon, qui recule en Allemagne grâce à la montée des énergies renouvelables, n’est qu’une composante parmi de nombreuses autres.

Une pollution printanière multi-source

Selon le CNRS (communiqué du 21 mars 2014) voici les « différentes fractions de particules fines observées du 7 au 15 mars dernier, sur la zone 5 du supersite SIRTA au CEA Saclay :

  • PM2,5 nitrate d’ammonium : 51 % – le nitrate d’ammonium est un composé « secondaire », formé dans l’atmosphère à partir d’ammoniac et d’oxyde d’azote, sous l’action de la photochimie. L’ammoniac est principalement émis par les activités agricoles. Il représente 97% des émissions nationales annuelles d’ammoniac en 2011. Les oxydes d’azote (NOx) sont principalement émis par les transports, et dans une moindre mesure l’industrie manufacturière et l’agriculture. Ils concernent respectivement 56%, 14% et 10% des émissions nationales de NOx en 2011.

  • PM2,5 primaires combustion de biomasse : 15 % – particules fines émises directement dans l’atmosphère par la combustion de biomasse (chauffage au bois et brûlage de déchets verts).

  • PM2,5 primaires fuel fossile : 11 % – particules fines émises directement dans l’atmosphère par la combustion de dérivés du pétrole (dont les transports).

  • PM2,5 organiques secondaires : 12 % – particules fines composées de matière organique, générées dans l’atmosphère à partir de précurseurs gazeux comme les composés organiques volatils (COV). En période hivernale (comme c’est le cas actuellement), ces COV sont émis principalement par les activités humaines.

  • PM2,5 sulfate d’ammonium : 11 % – le sulfate d’ammonium est également un composé « secondaire », formé dans l’atmosphère à partir d’ammoniac et de dioxyde de soufre. Le dioxyde de soufre est émis en France par l’industrie manufacturière et la transformation d’énergie. »

Il n’y a donc vraiment aucune raison de focaliser exclusivement sur les centrales électriques allemandes (ce qui n’enlève rien au problème sanitaire que constituent les centrales à charbon pour les riverains des centrales en Allemagne). L’Allemagne, qui produit dès à présent 27% de son électricité à partie des énergies renouvelables, va dépasser les 40% dès 2020 et à comme objectif 80% à horizon 2050.

Ce climat germanophobe qui pollue le débat énergétique et environnemental est vraiment détestable. Balayer devant sa porte avant d’accuser les partenaires européens de la France est le premier pas vers l’éco-responsabilité.

Le site Atlantico.fr a osé publier le 22 mars 2015 l’article « Pollution sur Paris : la vache, les autos sont hors de cause ! » (signé du journaliste Hugues Sarraf) au contenu gravement fallacieux et vraiment irresponsable compte-tenu des implications sanitaires: le fait que les sources soient multiples ne peut en aucun cas conduire à la conclusion que chacune de ces sources soit hors de cause. Quand 10 violeurs agressent collectivement une Femme, le fait qu’ils soient 10 n’enlève rien à la responsabilité individuelle de chacun d’entre eux.

Mais les biais dans le sens inverse existent aussi. Dans un article publié sur LeMonde.fr, signé Audrey Garric, le titre du camembert qui l’illustre, en grands caractères gras, est erroné: « 51% du trafic en Ile de France provient du trafic routier ». Le bon chiffre est 27%, comme l’indique clairement le communiqué de presse Airparif qui sert de référence à l’article du Monde. Le 51% (47% en réalité car il y a une seconde erreur dans ce camembert) correspond à la contribution des PM2,5 au niveau du boulevard périphérique.Le sous-titre « PM2,5 mesurées près du trafic routier », intégré en petit caractères et en italique au camembert, est en contradiction avec le titre qui porte sur toute l’Ile De France.

« L’idéologie c’est ce qui pense à votre place » soulignait l’intellectuel Jean-François Revel.

Par Olivier Daniélo

En savoir plus :

Fukushima: le combustible fondu du réacteur 1 bel et bien tombé on ne sait où

Ces dernières semaines, le gérant du complexe atomique, Tokyo Electric Power (Tepco), ainsi que des chercheurs du laboratoire KEK, de l’Université de Tsukuba et d’un établissement universitaire de Tokyo, ont utilisé un dispositif spécial qui permet de voir où se trouve le combustible nucléaire.

Il ont ainsi réussi à situer le combustible de la piscine de désactivation du réacteur 1, mais pas le combustible du coeur du même réacteur à l’endroit où il aurait pourtant dû être s’il n’avait pas fondu.

Pour ce faire, ont été utilisées les propriétés de particules de haute énergie et charge négative appelées muons.

Lesdits muons, des cousins des électrons, ne sont pas faciles à arrêter: ils traversent librement de nombreux matériaux, au point d’ailleurs de gêner parfois des expériences scientifiques.

Pourtant, ils peuvent être stoppés par des substances à haute densité. En traquant les muons bloqués, il est ainsi possible de produire une image de la présence du combustible nucléaire dans le réacteur.

C’est cette particularité que les chercheurs ont utilisée en mesurant les flots de muons depuis plusieurs endroits à l’extérieur du réacteur nucléaire examiné.

« On devrait voir une ombre sur les images à l’endroit du coeur, or elle n’est pas là, ce qui signife très probablement que tout le combustible est tombé », a expliqué à la télévision le professeur du KEK Fumihiko Takasaki qui a conçu et dirigé ces tests.

Jusqu’à présent, Tepco et les experts du secteurs avaient certes la quasi certitude que le combustible avait fondu, mais sur la base de calculs et simulations. Cette fois, des mesures en donnent une quasi preuve, sans dire cependant exactement où se trouve ledit combustible: au fond de la cuve sous pression ou plus bas encore ?

La même question se pose en outre pour les coeurs des réacteurs 2 et 3 dont on suppute qu’ils ont aussi subi peu ou prou un sort identique.

En tout état de cause, la tâche d’extraction des débris de ce combustible fondu ne s’en trouvera pas facilitée.

La récupération de ce corium constituera l’opération la plus délicate et la plus longue du processus de démantèlement engagé.

Selon les prévisions actuelles, il faudra entre 20 et 30 ans uniquement pour procéder à ce retrait qui, dans le meilleur des cas, ne pourra pas débuter avant 2020.

« En tant que scientifiques, nous ressentons cependant la responsabilité d’utiliser nos connaissances et compétences pour aider à procéder au démantèlement le plus rapidement possible », avait déclaré il y quelques mois M. Takasaki.

kap/mf

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Samsø, l’île 100 % renouvelable et énergétiquement indépendante

Søren Hermansen est le directeur de la Samsø Energy Academy. Samsø est la première île au monde où 100 % de l’électricité provient des énergies renouvelables.

Parlez-moi de Samsø

Samsø est une île danoise de 100 km2 et de 3700 habitants. Elle a conservé son statut de municipalité insulaire lors des réformes structurelles après la crise grâce aux conditions très spéciales de l’île. Cela nous a donné l’autonomie de prendre des décisions localement.

L’énergie de l’île provient à 100 % d’énergies renouvelables. De quels types d’énergie renouvelables parlons-nous ?

Le plus grand changement a été de passer de l’électricité importée des centrales à charbon à l’électricité produite localement par les éoliennes. Nous avons également environ 10 % d’énergie solaire, mais le reste provient de l’éolien.

Pour le chauffage, nous sommes passés du chauffage au mazout à un nouveau système. Nous n’avons pas de gazoduc, comme ailleurs au Danemark, où le gaz naturel arrive de la mer du Nord. Désormais, les maisons des zones densément peuplées sont toutes chauffées grâce à un système de chauffage urbain, qui envoie de l’eau chaude à tous les foyers Ce système est alimenté par de la paille locale, des copeaux de bois provenant des forêts et des panneaux solaires thermiques.

+Efficacité+

J’imagine que l’efficacité énergétique est également un facteur clé de ce nouveau système ?

Oui, nous nous sommes fixés un objectif de réduction de 20 % de notre consommation d’énergie. C’était très intéressant, car lorsque nous avons mis en place les installations énergétiques dans les maisons, nous devions parfois rappeler aux habitants qu’ils devaient équiper leurs maisons pour recevoir le chauffage du quartier. Les gens se sont laissés convaincre facilement qu’installer de nouvelles fenêtres, isoler les toits et les murs étaient de bonnes idées.

La durée d’amortissement des rénovations pour l’efficacité énergétique est de 2 à 5 ans, il est donc incroyable que les gens ne l’aient pas fait avant, mais c’est seulement par manque d’information.

Actuellement, Bruxelles a placé l’efficacité énergétique dans les priorités de son programme de travail.

Nous devons réfléchir aux façons de convaincre les gens que c’est à eux de prendre ces mesures.

Il faut les encourager à acheter des parts dans l’éolien afin de dépasser la mentalité « pas dans mon jardin ».

Beaucoup de projets échouent car les gens ont peur des changements. Les bénéfices potentiels ne font pas le poids face à la peur du changement. J’ai fait face à ce problème tant de fois que j’ai su qu’il était temps de le prendre à bras-le-corps et de trouver un moyen de le résoudre. Les gens s’intéressent beaucoup plus à un projet s’ils y prennent part, s’ils y ont investi une partie de leurs économies.

Quel est le retour sur investissement ?

Il se situe entre 6 et 8 %.C’est donc mieux que de laisser son argent à la banque.

On dit souvent que le problème avec les renouvelables c’est que ce sont des sources d’énergie inconstantes. Est-ce un problème sur l’île ?

Il y a toujours du vent, beaucoup plus qu’ailleurs, et il y a également plus de soleil qu’ailleurs. Nous avons une brise marine constante et pendant l’été nous avons beaucoup plus de soleil que le reste du pays. Ce n’est pas que sur les cartes postales, c’est vrai !

Qui paye pour tout cela ?

Les citoyens, mais ils n’ont pas rassemblé assez de ressources, alors les banques ont largement contribué aussi. Mes amis ingénieurs ont réalisé les plans d’aménagement et mon rôle a été d’établir le plan structurel, en intégrant les permis de construire, les plans des ingénieurs et l’aspect financier du projet.

Étant donné que les banques ne prêtent plus autant qu’avant, y avait-il une garantie de fonds publics pour ce projet ?

Voilà pourquoi c’est bien d’être Danois ! Nous avons un tarif de rachat garanti pour l’énergie éolienne. Donc à partir du moment où vous signez un contrat, vous avez un prix minimal garanti par Kw/h pour les dix prochaines années.

Le nouveau projet d’Union de l’énergie s’oppose vivement aux tarifs de rachat nationaux.

Oui, à plusieurs reprises le Danemark s’est retrouvé en difficulté à cause de cela. Le souci c’est qu’ils envisagent le problème à l’envers. Si vous avez un objectif écologique, le marché ne vous aidera pas à l’atteindre. Et si le marché dit non, s’il y a déjà trop d’énergie sur le marché, alors l’UE s’est tirée une balle dans le pied en disant qu’elle n’était pas d’accord avec les tarifs de rachat. Je pense que c’est une approche ignorante.

Grâce aux interventions de l’État, le Danemark est désormais numéro 1 de l’énergie éolienne dans le monde.

C’est peut-être pour cela que certains États membres n’apprécient pas ce système mais je crois que nous devons nous accrocher à cela et nous demander où nous voulons arriver en 2020. Si nous voulons atteindre nos objectifs, nous devons trouver les instruments et les moyens pour y arriver. Et si un tarif de rachat minimal est un moyen suffisant pour susciter l’intérêt des banques dans ce domaine et donc pour que tous ceux qui ont un projet de développement qui intègre des éoliennes puissent aller à la banque et obtenir l’argent dont ils ont besoin, alors nous devrions utiliser cet outil.

À Bruxelles, les importations d’énergie sont devenues un sujet brûlant avec le conflit ukrainien. De quelles leçons pouvons-nous tenir compte ?

C’est la même chose mais à plus grande échelle. Ici, nous craignons aussi de dépendre de quelqu’un que nous ne pouvons pas contrôler. Comme de nombreuses zones rurales dans l’UE, Samsø est une commune à faible revenu, l’argent est donc à dépenser avec parcimonie. Si vous voulez développer des zones rurales, vous devez trouver de l’argent, et cet argent peut provenir des économies réalisées en évitant d’importer des combustibles couteux et en les produisant soi-même. Cela signifie que vous créez des emplois et donc des revenus imposables dans ces régions et que vous ne laissez plus le marché décider pour vous. 

Peut-on transposer les pratiques de Samsø à la politique de l’environnement urbain de l’UE ?

Bien sûr, mais si on ne les envisage pas dans les milieux ruraux, alors elles ne seront jamais appliquées en ville car les enjeux sont trop importants. Les grandes entreprises n’apprécient pas ce système car elles veulent contrôler le marché. Si nous sommes responsables de notre propre production et distribution d’énergie, alors nous ne voulons pas dépendre des aides d’État car si le marché est présent nous pouvons contrôler les coûts et l’administration et ainsi de suite.

Je suis en faveur de l’explosion des sièges sociaux ! Je ne suis pas un terroriste, mais je crois en la décentralisation. Il y a énormément d’argent dans les caisses, qui attend d’être investi, mais les entreprises ne s’intéressent pas aux projets individuels, tout ce qu’elles voient, ce sont votre consommation et vos factures.

Regardez le Royaume-Uni, l’efficacité énergétique y est très limitée. Si vous vous rendez dans de nombreux villages isolées, les logements sont dans de très mauvaises conditions, mal isolées et n’ont pas de chauffage urbain alors qu’il y a des bois juste derrière le village. Pourquoi n’ont-ils pas tout ça ? Parce que nous n’avons pas d’outils pour les aider à mettre en place des solutions plus efficaces.

Quelle aide est attendue de la part des décideurs politiques de l’UE à l’avenir ? Que diriez-vous aux responsables de la DG Environnement ou au commissaire en charge de l’action pour le climat ?

Je me suis adressé à eux à maintes reprises mais ils n’écoutent pas ! Je leur ai fait le même genre de discours et ils ont ri. Ils pensent que je suis un plaisantin.

Ils se confortent dans leur idée que les géants de l’industrie et les structures d’urbanisation sont les facteurs les plus importants, que tout est déterminé par le marché. Les conditions sociales et culturelles de l’UE influencent aussi beaucoup de secteurs. Il faut qu’ils remarquent à quel point les petites structures indépendantes ont soutenu de grandes perspectives pendant des années et des années.

Le local est la clé du succès et du développement. Nous devrions souligner le ridicule du marché. L’UE le contrôle déjà tellement que nous ne pouvons plus le qualifier de marché libre.

Pourquoi ne pas changer d’attitude et se dire, « ok, peut-être que les tarifs sont différents dans l’UE mais ce n’est pas grave » ? C’est plus cher au Danemark, ok, c’est moins cher dans le sud de la France, ainsi soit-il. Nous ne devons pas être si tatillon à propos du marché, mais peut-être l’ouvrir un peu et accepter l’idée d’une UE variée et avec des solutions multiples.

En résumé, tout l’opposé de l’Union de l’énergie

Je sais, tout le contraire ! Je déteste l’admettre ! Ce que nous craignons le plus, c’est que Poutine coupe les robinets de gaz. Pourquoi sommes-nous tant obnubilés par ça ? Pourquoi ne créons-nous pas notre propre réseau énergétique indépendant, et pourquoi ne l’avons-nous pas fait il y a des années déjà ?

Consulter le site de :  Samsø Energy Academy

Source : EurActiv. fr  (James Crisp, traduit de l’anglais)

En 2014, le PIB mondial a augmenté de 3%. Pas les émissions de CO2 du secteur énergétique (AIE)

Les données révélées par l’AIE le 13 mars 2015 indiquent que les émissions de CO2 ont stagné entre 2013 et 2014, ceci alors que le PIB mondial a progressé de +3%. Les émissions sont restées à 32,3 milliards de tonnes, soit le même niveau que l’année antérieure.

Les efforts effectués à l’échelle mondiale pour réduire le recours aux combustibles fossiles semblent donc commencer à porter leurs fruits. Selon l’AIE ces progrès résultent de changements de modèles énergétique en Chine et dans les pays de l’OCDE.

La Chine, un puissant moteur de la croissance des énergies renouvelables

En 2014 la production électrique Chinoise à partir de sources renouvelables a augmenté, principalement dans les domaines éolien, solaire et hydroélectrique. La Chine a installé 10,5 GW (10.500 MW) de solaire photovoltaïque en 2014, parvenant ainsi à une puissance cumulée de 28 GW. Ces 10,5 GW de PV permettent de produire autant d’électricité que deux réacteurs nucléaires. Installées en seulement un an ces nouvelles puissances correspondent au double de la puissance photovoltaïque totale installée en France en une décennie. Comme le souligne le chercheur Mark Jacobson(Stanford) installer 6 GW de solaire PV est bien plus rapide que construire 1 GW de nucléaire.

Par ailleurs la Chine, qui, visionnaire, a fortement investi dans de grandes usines de production de panneaux solaires, est parvenue à conquérir 90% du marché mondial. Sa puissance industrielle permettant de fournir des produits bon marché est ainsi mise au service du reste du monde. Des barrières douanières imposées par l’Union européenne, notamment à la demande de la France, ont cependant freiné cette progression au niveau du vieux continent.

Selon l’AIE « dans les pays de l’OCDE les efforts récents pour promouvoir une croissance soutenable – incluant une plus grande efficacité énergétique et davantage d’énergies renouvelables – sont en train de produire les effets espérés de découplage de la croissance économique des émissions de gaz à effet de serre ». Aux USA le solaire PV représente le tiers des nouvelles capacités électriques installées en 2014. 

Découplage

L’AIE souligne que durant les 40 dernières années il y a eu seulement à trois reprises une stagnation ou une baisse des émissions comparativement à l’année antérieure, et toutes étaient associées à une stagnation ou une baisse de l’activité économique. Au début des années 80, en 1992 et en 2009.

Mais en 2014 la croissance du PIB a été de +3%. Le dogme « croissance du PIB = obligatoirement croissance du CO2 » est aujourd’hui cassé. Ce qui constitue une excellente nouvelle : la décroissance n’est pas indispensable dans la perspective de réduire les émissions de CO2. La sobriété constitue néanmoins un levier permettant d’accélérer la transition énergétique, aux côtés de l’efficacité énergétique et des EnR. « L’énergie la plus facile à remplacer est celle que l’on ne consomme pas. »

Une intensification des efforts en matière d’efficacité et d’EnR, dont l’avion Solar Impulse constitue un symbole, permettra de poursuivre le découplage qui a commencé en 2014. L’AIE va publier en juin 2015 un rapport spécial sur cette thématique d’importance planétaire. L’organisme proposera aux décideurs des mesures politiques « pragmatiques. »

Pour Maria van der Hoeven, directrice de l’AIE, « Les dernières données en matière d’émissions sont encourageantes, mais ce ne est pas le temps de la complaisance, et certainement pas le temps d’utiliser ces nouvelles positives comme une excuse pour bloquer de nouvelles mesures ».

Selon les travaux de réanalyse du Centre européen pour les prévisions météorologiques à moyen terme (CEPMMT), rapportées par Le Journal de l’Energie, les deux années les plus chaudes du siècle qui commence ont été 2005 et 2010, 2014 se trouvant en troisième position.

Olivier Daniélo

Et aussi dans les
ressources documentaires :

USA : 35% d’électricité éolienne en 2050 (DoE)

Un rapport décoiffant ! Selon « Wind Vision: A New Era for Wind Power in the United States » (accessible ici), la part de l’éolien, qui pèse aujourd’hui 4,5% du mix électrique américain (contre 3,6% en France), pourrait doubler en 5 ans (2020), puis à nouveau doubler d’ici 2030 pour atteindre 20%. A horizon 2050 l’éolien pourrait peser entre 32 et 41% selon les scénarios. Une hypothèse intermédiaire de 35% a été retenue dans le rapport.

Il ne s’agit pas d’un document issu d’une association écologiste mais d’une équipe d’experts de l’énergie travaillant pour le gouvernement des Etats-Unis. L’équipe regroupe des scientifiques de haut niveau, des professeurs d’université, des ingénieurs et des experts de l’industrie éolienne. Les résultats de l’étude offrent une vision réjouissante du point de vue du développement durable.

3200 millions de dollars de revenus pour les collectivités locales

Le rapport souligne que l’énergie éolienne (libre comme le vent) est disponible dans chacun des 50 états de l’union, de l’Alaska à la Floride. Il s’agit donc d’une ressource vraiment compatible avec l’esprit fédéral des USA. Hawaï souhaite d’ailleurs parvenir à 100% d’EnR en 2050. L’éolien est très profitable aux économies locales. « Il permet d’augmenter les revenus des collectivités » rappellent les auteurs. « Les collectivités locales pourront collecter les taxes foncières, générant un revenu de 3,2 milliard de dollars d’ici 2050 ».

Mais les bénéfices économiques seront en réalité bien plus importants. « Etant donné que les contrats éoliens sont typiquement fixés à prix fixes pour 20 ans, le secteur de l’électricité sera (grâce à une forte pénétration de l’éolien ndlr) moins sensible aux variations du prix du gaz et du charbon. » soulignent les auteurs. « En réduisant la vulnérabilité nationale vis-à-vis des variations des prix et des ruptures d’approvisionnement grâce aux prix fixés à long-terme, l’éolien pourrait faire économiser aux consommateurs 280 milliards de dollars d’ici 2050 ».

Economiser massivement l’eau douce

Sur le plan sanitaire et environnemental l’éolien permettra d’éviter d’émettre des particules et des molécules qui polluent l’air, dont le dioxyde de soufre et les oxydes d’azote. Ainsi que 12,3 milliards de tonnes de gaz à effet de serre d’ici 2050. La réduction de la pollution de l’air permettra d’économiser 108 milliards de dollars (plus précisément entre 52 et 272) sur la facture santé. 21.700 morts prématurées seront évitées ainsi que 10.100 accueils de patients aux urgences pour crise d’asthme (particules) et 2,5 millions jours d’école de perdus (ozone).

L’éolien a un autre avantage majeur : il ne consomme pas une seule goutte d’eau douce. Contrairement aux centrales thermiques (fossiles et nucléaires) qui consomment massivement cette ressource fondamentale pour la vie, et qui de plus contribuent à réchauffer les fleuves (pollution thermique). Les experts du DoE ont calculé que d’ici 2050 « l’éolien pourrait sauver 260 milliards de gallons d’eau (un gallon = 3,78 litres ndlr), soit l’équivalent d’environ 400.000 piscines olympiques ».

Selon un rapport de la Deutsche Bank de janvier 2015, le solaire pourrait représenter 30% de la production électrique américaine (et mondiale) en 2050. Autrement dit les deux tiers de la production électrique américaine pourraient devenir éolico-solaire.

Olivier Daniélo

Et aussi dans les
ressources documentaires :

Insecticides et abeilles: l’Assemblée vote l’interdiction des néonicotinoïdes en 2016

A la suite de l’action menée par la France pour que l’Union européenne interdise le Cruiser OSR sur le colza, la Commission européenne a restreint l’utilisation de trois substances actives de la famille des néonicotinoïdes, rappelle l’exposé de l’amendement.

Malgré ces avancées, cinq molécules restent actuellement autorisées en France (imidaclopride, thiaclopride, clothianidine, thiaméthoxame et acétamipride) et présentent une toxicité aigüe, notamment pour les abeilles.

Pour protéger la santé humaine et la biodiversité, et particulièrement les abeilles, l’environnement et la santé, il est proposé de prolonger l’action de la France en interdisant ces substances.

L’interdiction vise toute la famille des néocotinoïdes pour éviter que l’industrie ne substitue des produits cousins après le retrait d’un produit précis, selon M. Bapt.

Appelant à « entendre le cri d’alarme des apiculteurs » vu la mortalité actuelle massive des abeilles, par exemple dans le département des Deux-Sèvres, l’ancienne ministre de l’Ecologie Mme Batho a souhaité que la France, qui a été pionnière avec le Cruiser, fasse avec tous les néonicotinoïdes « un moratoire » du même type qu’avec le maïs OGM.

L’élu socialiste de Haute-Garonne M. Bapt, médecin de profession, a longuement plaidé pour l’interdiction de produits au « succès commercial mondial » mais aux effets toxiques scientifiquement prouvés, selon lui, à la fois sur les insectes pollinisateurs mais aussi sur les sols, l’eau, et sur la santé humaine.

Ces néonicotinoïdes sont « neurotoxiques de 500 à 10.000 fois plus que le DDT, qui est interdit » et « il n’y a pas un seul repas où nous n’en consommons pas tous les jours », a-t-il lancé. « Au Moyen-Age, on aurait appelé ça un nouveau fléau de Dieu », a dit M. Bapt.

Défavorable à la mesure, au motif notamment que « le cadre européen ne permet pas une interdiction stricte », la ministre de l’Ecologie Ségolène Royal a souligné le travail engagé par le gouvernement en matière de pesticides, y compris le plan sur la sauvegarde des pollinisateurs sauvages et des abeilles, et les discussions au niveau européen.

Mais le pesticide Poncho n’était pas interdit dans tous les pays européens lorsque la France l’a interdit, idem lorsque la France a été « en avance sur l’interdiction des biberons contenant du bisphénol », a argumenté M. Bapt. « L’urgence de l’interdiction s’impose » devant « un fléau durant depuis trop d’années », a appuyé l’écologiste Laurence Abeille.

Sur ces néonicotinoïdes « dévastateurs pour un certain nombre d’espèces et faisant courir un risque de santé publique », la rapporteure Geneviève Gaillard (PS) s’était montrée défavorable à « une interdiction brute », par souci d' »efficacité » et de « ne pas gêner les avancées du gouvernement », disant craindre que ces produits ne restent utilisés dans le cadre de dérogations, en l’absence d' »alternative » chimique jusqu’alors.

Ironisant à propos de la « croisade » de M. Bapt, le député UMP du Bas-Rhin Antoine Herth a jugé que les problèmes des apiculteurs étaient « multifactoriels », et insisté sur l’effet négatif d’une telle interdiction pour les agriculteurs français.

Dans sa « feuille de route » écologiste, présentée le 4 février, le gouvernement a assuré que la France mènerait « au niveau européen une action volontariste » pour que les substances néonicotinoïdes des pesticides soient réévaluées « au plus vite, en prenant en compte toutes les études concernant les effets sur les colonies d’abeilles, les pollinisateurs sauvages, la faune ».

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »