Zéro plastique en décharge en Europe en 2025 ?

Selon PlasticsEurope, le représentant des producteurs européens de matières plastiques, près de 299 millions de tonnes de plastique ont été produites dans le monde et 57 millions en Europe en 2013. En 2012, l’Europe a généré 25,2 millions de tonnes de déchets plastiques, issues pour 40 % de produits à courte durée de vie (emballages) et pour 60 % de produits à longue durée de vie (automobile, construction et bâtiment, équipements électriques et électroniques, agriculture…). En France, 3,3 millions de tonnes de déchets plastique ont été collectées en 2012.

L’enfouissement des déchets de matières plastiques demeure l’option privilégiée dans la majorité des pays européens. En 2012, 38 % de ces déchets produits en Europe ont été enfouis, 36 % ont été incinérés et seulement 26 % ont été recyclés.

Douze pays européens enfouissent encore plus de 50 % de leurs déchets de matières plastiques. Mais 9 pays ont introduit des restrictions sévères à cette mise en décharge et ont développé conjointement le recyclage et la valorisation énergétique par incinération. Ces 9 pays parviennent ainsi à enfouir moins de 10 % de leurs déchets de matières plastiques. Il s’agit de la Suisse, l’Allemagne, l’Autriche, le Luxembourg, la Belgique, le Danemark, la Suède, les Pays-Bas  et la Norvège. La Suisse est championne avec moins de 0,2 % de plastiquesenfouis. La France est dans une situation intermédiaire, avec encore 38 % d’enfouissement.

Diminuer la mise en décharge au profit de la valorisation et du recyclage

Entre 2005 et 2012, les volumes de déchets de matières plastiques mis en décharge en Europe ont largement diminué. De 13 millions de tonnes enfouies chaque année en 2005, ils sont passés à 9,6 millions de tonnes en 2012. Toutefois, la dynamique doit s’amplifier pour atteindre « zéro plastique » en décharge en 2025.

La directive européenne sur l’économie circulaire préparée par la DG Environnement visait à interdire la mise en décharge des plastiques d’ici 2025. Mais la commission a estimé qu’il n’était pas raisonnable d’imposer des objectifs que l’ensemble des États membres ne pourraient pas atteindre. La DG Environnement va travailler avec la DG Entreprise pour une directive industriellement et financièrement faisable. Elle devrait donc plutôt prévoir des objectifs de recyclage ambitieux. « Nous pensons que si l’Europe se donne pour objectif d’amener l’ensemble de ses membres au niveau de performance du plus vertueux d’entre eux, à savoir l’Allemagne (42 % de taux de recyclage), nous aurons beaucoup progressé», évalue Véronique Fraigneau, responsable de la communication de Plastics Europe. « Si seulement les 10 pays qui enfouissent le plus de déchets se dotent d’un objectif ambitieux de réduction de la mise en décharge des plastiques, alors cela sera gagné. On ne peut pas, par exemple, imposer à la Roumanie, les mêmes objectifs qu’au Royaume-Uni ou à la France qui enterrent encore beaucoup trop de plastique », précise Michel Loubry, directeur général de PlasticsEurope pour l’Europe de l’Ouest.

Pour parvenir à baisser la mise en décharge des plastiques en France, le projet de loi relatif à la transition énergétique en cours de discussions prévoit de « réduire de 30 % les quantités de déchets non dangereux non inertes admis en installation de stockage en 2020 par rapport à 2010, et de 50 % en 2025 ». « Les déchets plastiques font de fait partie des déchets qui devraient être parmi les premiers à être déviés de la décharge, puisque non dangereux pour leur très grande majorité et non inertes », relève Véronique Fraigneau.Cette disposition est notamment accompagnée de l’extension des consignes de tri à l’ensemble des plastiques d’ici 2022, mais aussi de la généralisation du tri à la source des déchets organiques pour tous les producteurs de déchets d’ici à 2025, afin de diminuer leur mise en décharge.

Incinérer ou recycler les plastiques ?

Si les plastiques ne sont plus mis en décharge, il faut soit les recycler, soit les incinérer. La France, avec un taux moyen de recyclage des plastiques de 20 % et de valorisation énergétique de 42 % recycle moins que la moyenne européenne. Lorsqu’on ne considère que les emballages en plastique, les taux de recyclage sont plus élevés et la moyenne européenne s’élève à 34,7 %. La France est, encore là, bien en dessous de ce résultat, avec un taux de recyclage de ces emballages de 23,9 %.

L’éco-organisme Eco-Emballages mène une expérimentation sur l’extension des consignes de tri auprès de 3,7 millions d’habitants depuis 2011. L’extension des consignes de tri à l’ensemble de la population se poursuivra de 2016 à 2022.

Les résultats des expérimentations menées sont encourageants. Ils laissent envisager un doublement du gisement potententiel d’emballages à recycler. Alors qu’à ce jour,pour les plastiques, seulement 40 % des emballages (bouteilles et flacons) font l’objet d’une consigne de tri, environ 40 % supplémentaires de films en polyéthylène et de pots et barquettes pourraient entrer dans les consignes de tri.

PlasticsEurope estime que l’extension des consignes de tri à l’ensemble des emballages en plastique permettra d’augmenter de façon indirecte l’ensemble des emballages triés par les ménages. Ainsi, Plastics Europe évalue que cette disposition permettra de recycler 5 kg supplémentaires d’emballages par habitant et par an : 2 à 3 kg/hab/an de pots, barquettes et films, 0,5 kg/hab/an de bouteilles et flacons (pour atteindre 4,5 kg/hab/an) et 1,5 kg/hab/an d’autres emballages (carton, briques alimentaires, acier, aluminium). Cela permettrait d’atteindre un taux de recyclage des emballages en plastique d’environ 40 %.

Pour les emballages en plastique restants (plastiques complexes, films trop petits…) dont le recyclage des résines n’est pas économiquement viable, et pour les emballages non recyclés, il faut développer la valorisation énergétique par incinération. Cela se fera dans des incinérateurs municipaux avec récupération d’énergie, ou sous forme de combustibles solides de récupération. « Les emballages qui ne pourront pas être recyclés devront tous être valorisés énergétiquement. Le zéro plastique en décharge passe par un pourcentage de recyclage, complété par un pourcentage de valorisation énergétique qui ramène le taux de mise en décharge à presque zéro », prévient Véronique Fraigneau. La réussite de cette extension passe par la nécessaire adaptation des centres de tri. Selon l’ADEME, l’investissement nécessaire s’élève entre 1,2 et 1,8 milliards d’euros.

Par Matthieu Combe, journaliste scientifique

L’industrie s’engage contre la pollution plastique

Pour mettre fin à la pollution plastique dans les océans, le principal défi n’est pas de recycler les macrodéchets du 7e continent, comme l’imagine le néerlandais Boyan Slat, mais d’augmenter la prévention à terre. « Les images du 7e continent dans l’imaginaire collectif sont fausses. Ce n’est pas une île de déchets où l’on pourrait accoster ; les macrodéchets y sont minoritaires. En réalité, les images montrant des macro-déchets en plastique viennent de la décharge de Saïda au Liban, où les déchets se déversent par débordement directement dans la merMéditerranée. Dans le gyre de l’Atlantique Nord, les estimations sont à 5 kg de déchets plastiques par kilomètres carré, ce qui équivaut à environ une bouteille de plastique répartie en morceaux sur un terrain de football. On ne peut pas envoyer quelqu’un nettoyer cette pollution avec une pince à épiler: la seule solution est d’agir à terre », analyse Michel Loubry, directeur général de PlasticsEurope pour l’Europe de l’Ouest.

Sensibiliser à terre pour ne plus polluer la mer

Les scientifiques estiment que les déchets de matières plastiques retrouvés en mer proviennent à environ 80 % de terre. Il reste 20 % de déchets jetés par dessus bord à partir des bateaux de loisirs, de la marine marchande, des pêcheurs… La seule façon viable pour ne plus retrouver de plastiques en mer, c’est donc d’agir à terre auprès des citoyens, des professionnels et de la marine, « c’est d’arriver à 100 % de collecte et 100 % de valorisation », analyse Michel Loubry.

Pour mettre fin à ce fléau, PlasticsEurope travaille donc sur différents fronts. L’organisme s’attelle notamment à sensibiliser le grand public en soutenant l’opération « Vacances Propres » qui lutte contre les déchets sauvages, et l’opération « Je navigue, je trie ». De plus, la filière travaille à l’extension des consignes de tri pour 2022 et à la fin de la mise en décharge du plastique, conformément au projet de loi relatif à la transition énergétique pour la croissance verte.

Il faut être actif en Europe, mais aussi dans les zones qui polluent le plus. Pour cela, PlasticsEurope a monté un conseil mondial des producteurs de matières plastiques, le World Plastics Council (WPC). L’essentiel de la pollution plastique océanique proviendrait d’Asie. « Notre travail essentiel est de sensibiliser nos amis Chinois, Coréens, Philippins… sur le sujet et faire en sorte qu’ils s’occupent de cette problématique », assure Michel Loubry. « En Méditerranée, la pollution provient majoritairement du Maghreb, de l’Égypte et du Liban… Mais en Afrique, il n’y a pas d’organisme de producteurs, il faut les aider à monter les structures de traitements de déchets », estime-t-il.

« Clean Sweep », pour ne plus rejeter de granulés de plastique

Des granulés de plastique sont trop souvent retrouvés sur les côtes du monde. Pour mettre fin à cette pollution, depuis 3 ans, les producteurs de matières plastiques mettent en œuvre un programme visant à ne plus rejeter ces granulés dans l’environnement. Mais ce programme « zéro granulé perdu » n’est pas suffisant. « Il faut aller au-delà de nos usines, dans toute la chaîne de valeur, c’est-à-dire chez nos clients : les transformateurs, les transporteurs et les distributeurs », prévient Michel Loubry. « Il faut aller jusque dans les ports où est réalisée l’exportation des matières plastiques vers les pays étrangers », juge-t-il.

Les granulés de plastique sont vendus au détail dans des sacs de 25 kg, qui en contiennent environ 3 millions. Dans un entrepôt de logistique ou dans un port, si un sac se perce, il faut faire en sorte que l’ensemble des granulés soient ramassés et jetés à la poubelle. Car encore trop souvent en cas de déversement, les agents lavent au jet d’eau ou avec une souflette à air comprimée, ce qui entraîne le rejet de millions de granulés dans l’environnement. « L’opération Clean Sweep, c’est la mise en marche de l’explication dans toute la chaîne de valeur, de la nécessité de ne jamais laisser traîner des granulés de plastique sur le sol, de les ramasser de les jeter dans la poubelle adéquate », résume Michel Loubry. L’objectif est d’engager toute la chaîne en Europe dans ce travail d’ici 4 ans.

Par Matthieu Combe, journaliste scientifique

Patrick Deixonne explique l’expédition 7e continent

T.I. : Pouvez-vous nous présenter rapidement ce qu’est l’expédition 7e continent ?

Patrick Deixonne : Les expéditions 7e continent ont pour but de médiatiser la problématique de la pollution du plastique dans les océans. Pour cela, nous travaillons sur trois volets. Il y a le volet sensibilisation du grand public, la sensibilisation des scolaires et un volet scientifique. On essaie de toucher tout le monde, aussi bien la métropole que les DOM. À mes yeux, le volet pédagogique est tout aussi important que les aspects médiatiques et scientifiques. Nous sommes une association loi 1901 basée en Guyanne française. L’année dernière, nous avons été financés en grande partie par l’Agence de l’eau Seine-Normandie.

T.I. : Quels sont vos premiers constats suite à vos expéditions ?

P. Deixonne : Il était important de se rendre sur place pour vérifier que le plastique se regroupait bien dans les gyres. À chaque fois que l’on part, on se pose beaucoup de questions et on développe de plus en plus notre volet scientifique. Notre spécificité est d’essayer de répondre à des questions auxquelles personne n’a encore répondu. Pour cela, nos partenaires les plus importants sont le CNES et le CNRS, mais nos expéditions ont aussi permis de sensibiliser un peu le monde scientifique en France. De plus en plus de laboratoires demandent qu’on leur ramène des échantillons pour faire des tests.

Le dématage que l’on a subi l’an dernier nous a empêché de faire les tests que nous voulions sur la mesure de la micropollution par les satellites. Mais nous allons reprendre ce volet pour essayer de repérer les macro et microdéchets. Nous voulons aussi répondre à la question « où va le plastique après s’être morcelé ? ». Nous allons essayer de repérer les nanoparticules de plastique et les identifier.

Dans l’Atlantique Nord, on est tombé dans une zone où l’on ramassait les microparticules à la main. Il y en avait des millions autour du bateau. Lorsque l’on prenait une passeoire et que l’on faisait un petit coup dans l’eau à la main, on récupérait des microdéchets. Il faut donc que l’on y retourne, car on a été pris par le temps. Nous avons noté tous ces endroits pour y retourner et compléter l’information.

On étudie aussi les métaux lourds sur les plastiques et dans les poissons pour voir s’il y a un échange de pollution qui se fait. Je pense que ces résultats seront publiés l’année prochaine pour être complétés avec les travaux de la prochaine expédition.

T.I. : Une étude parue dans le journal PLOS ONE a estimé le plastique flottant dans l’océan mondial à 268 940 tonnes. Selon eux, les gyres sont plus des centres de transformation que d’accumulation, les quantités n’ayant pas évolué dans les gyres depuis plus de 20 ans. Cela est-il une bonne nouvelle?

P. Deixonne : Suite à l’étude parue dans PLOS ONE, nous nous demandons « où va le plastique ? », comme je vous le disais. Si le plastique n’est pas en augmentation, c’est qu’il part quelque part. Dans cette étude, les auteurs n’ont pas étudié les particules inférieures à 300 µm. De notre côté, nous pensons que le plastique se dégrade de plus en plus et se fragmente. Lorsque l’on travaille avec un filet Manta avec des pores de 300 µm, on ne récupère pas les plus petites particules. On met donc au point des filets Manta avec des pores de 20 µm pour voir si de plus petites particules flottantes existent.

T.I. : Pouvez-vous nous en dire plus sur la prochaine expédition?

P. Deixonne : La prochaine expédition aura lieu du 15 mai au 15 juin 2015. Nous repartirons dans le gyre de l’Atlantique Nord, à bord du Guyavoile, un maxi-catamaran. Comme nous sommes tombés sur des concentrations très importantes, au-delà de ce que l’on trouve dans les publications scientifiques, nous voulons vérifier cela. Nous pensons que les chiffres sont sous-estimés à certains endroits. Cela est compréhensif puisque la zone fait 2 à 3 fois la France. Lorsque l’on prélève des échantillons, la concentration mesurée est donc très aléatoire. Nous essaierons aussi de corréler les résultats avec la circulation océanique.

Nous resterons au moins 15 jours sur place, pour avoir le temps de faire les mesures. C’est tout ce que je peux vous dire pour le moment, pour être sûrs de nos résultats lorsque nous les annoncerons.

T.I. : Pouvez-vous nous en dire plus sur votre volet pédagogique ?

P. Deixonne : Pour le volet pédagogique, on passe par des structures telles que le CNES ou l’Agence de l’eau Seine-Normandie pour toucher un maximum d’écoles. On organise des opérations sur le terrain pendant la mission. Cette expédition terrestre réunit les écoles pour faire des ramassages de déchets le long des rivières. Ensuite, les scolaires entrent en contact avec nous par Skype en plein milieu de l’océan pour faire le lien entre ce qu’on trouve dans les fleuves et ce que l’on retrouve dans le gyre.

Nous avons aussi développé un volet pédagogique sur notre site Internet. Il s’agit de fiches qui intègrent le programme scolaire des premières. Les professeurs peuvent l’intégrer très facilement dans le programme. Cette année, avant de partir en mission, on consacrera une semaine en se déplaçant sur l’Arc Antillais. On va faire la Martinique, la Dominique, la Guadeloupe et Saint-Martin. On s’arrêtera sur chaque île et on sensibilisera les jeunes à cette problématique. On va aussi faire déplacer une troupe de théâtre spécialisée dans le message environnemental et coupler ces actions à des actes de ramassage.

En savoir plus sur l’expédition 7e continent : http://septiemecontinent.com

Dans le cadre de l’expédition 2014, l’équipe a réalisé un documentaire de 52 minutes. Libre de droit, il est diffusé gratuitement sur Internet. Il revient sur la préparation de l’expédition et suit l’équipe dans leur route vers le gyre. Il présente la réalité du 7e continent : une soupe de microplastiques plus qu’un réel continent de macrodéchets ! 

Propos recueillis par Matthieu Combe, journaliste scientifique

Algopack, des algues pour remplacer le plastique ?

« Une partie de l’innovation d’Algopack a été de trouver une molécule naturelle dans l’algue qui se comporte comme les molécules utilisées dans les matériaux pétro-sourcés habituels », affirme Rémy Lucas, fondateur et président d’Algopack. Voilà comment est né un matériau digne du plastique. En plus, « on ne rajoute aucun plastifiant ou aucun autre produit, le matériau est composé à 100 % de cette molécule d’algues », précise le fondateur de l’entreprise.

Les algues utilisées actuellement en France pour les premières applications sont des algues brunes. Cultivées actuellement sur une surface de 12 hectares, 145 nouveaux hectares de culture sont prévus en 2015, à 2,5 km au large de Saint-Malo. Fin 2015, la start-up mutera du format « start-up » à un format « industriel ». « Début 2016, il est sûr que l’on verra les applications sur le marché avec des grandes marques au niveau mondial », prévient R. Lucas.

Une solution mondiale pour remplacer le plastique ?

« On a sécurisé les ressources au niveau mondial : on n’utilise pas d’algues invasives, mais des algues déjà présentes sur les zones », nous précise R. Lucas. « On a testé la matière au Japon, aux États-Unis, en Irlande et les algues qui poussent là-bas sont tout à fait compatibles avec notre process », assure-t-il.

Le process est donc développable partout dans le monde, avec des algues locales non invasives. L’intérêt est aussi d’avoir des unités de production à proximité de la ressource. Beaucoup de pays seraient d’ores et déjà intéressés. « Dans de nombreux pays, la filière pêche souffre, il y a aussi des zones où le poisson commence à se raréfier. Des pays sont en train de réfléchir à la diversification des filières pêches pour faire travailler les pêcheurs qui restent à quai. Développer des filières d’algues permet d’apporter des solutions à l’emploi, tout en respectant la biodiversité des zones », analyse le fondateur d’Algopack. « Le potentiel est vraiment mondial », se réjouit-il.

R. Lucas rêve de voir un jour l’ensemble de l’industrie du plastique passer au plastique à base d’algues. Mais ce ne sera pas pour tout de suite. « Le plastique a mis 50 ans avant d’être vraiment compatible à tous les domaines », rappelle-t-il. Néanmoins, la chimie du végétal va avoir une part de plus en plus importante. « La chimie traditionnelle en Europe est en déclin ; à mon avis, le seul moyen de maintenir l’emploi tout en préservant la biodiversité, c’est d’agir en faveur de la chimie du végétal », analyse l’ancien cadre de l’industrie plastique.

Deux produits pour la transition plastique

L’entreprise propose pour le moment deux matériaux : l’Algoblend, matériau composé à 50 % d’algues et 50 % de plastique et l’Algopack, matériau composé à 100 % d’algues. La capacité de production de l’entreprise est actuellement de 2 400 tonnes par an pour l’Algoblend. Sur l’Algopack, la start-up passe tout juste à une production industrielle : elle devrait avoisiner les 500 tonnes en 2015 et les 2 000 tonnes en 2016.

Ces deux matériaux se présentent initialement sous la forme de granulés, similaires aux « larmes de sirène » des plastiques tradionnels. Transformer de la matière Algoblend, c’est aussi réduire la consommation d’énergie sur les presses. « Pour transformer une granule plastique traditionnelle, les presses chauffent autour de 220 °C ; avec l’Algoblend, nous sommes plus aux alentours de 170 °C », insiste R. Lucas. La matière s’utilise dans les moules et les extrudeuses du marché, sans nécessité d’investissements complémentaires. Elle est apte au contact alimentaire direct, aux normes du jouet, de la puériculture, de la téléphonie…

L’Algopack se développement actuellement sur de petits marchés : horticulture, pots à crayon, pots à bougies… car la matière est totalement opaque et la production est encore faible. L’Algopack ne possède pas encore l’aptitude au contact alimentaire, mais « on est en train de travailler dessus », assure R. Lucas. « Pour empêcher que le matériau se dégrade au contact de la nourriture, on met des laques végétales (coating), comme pour le carton, mais sans plastique », explique-t-il.

En fin de vie, l’Algopack est biodégradable et compostable : « La matière se dégrade en 12 semaines en terre. Cela permet de retrouver l’une des fonctions historiques de l’algue : c’est un fertilisant naturel », se réjouit R. Lucas. Ainsi, en fin de vie, l’objet fertilise la terre, plutôt que de la polluer ! Et s’il finit dans l’eau, il se dégradera en quelques heures, sans polluer.

Côté prix, l’Algoblend demeure plus cher que les matières plastiques habituelles. En revanche, l’Algopack est à un prix similaire. La tonne de granulés d’Algopack est vendue 1 200 €, lorsqu’une tonne de PVC ou PET est vendue 1 000 € et une tonne de polyéthylène ou polypropylène environ 1 300 €.

Comment sont cultivées ces algues ?

Les algues utilisées pour fabriquer ces produits sont des algues brunes. À croissance très rapide, l’algue brune capte du CO2 qu’elle transforme en sucres pour grandir, et ne rejette en mer que de l’oxygène. « On n’utilise ni pesticide, ni engrais, très peu d’eau, alors que beaucoup de « bio-matériaux » issus de ressources agricoles telles que le maïs ou la canne à sucre sont consommateurs d’engrais, de pesticides, d’eau et empiètent sur le foncier agricole », prévient R. Lucas.

En amont de la culture en mer, les algues grandissent en écloserie, en partenariat avec la société C-Weed Aquaculture. « Au bout de 3 semaines environ, les algues sont mises en mer sur de grandes cordres, comme des lignes de piscine et sont tenues par des bouées à la surface », explique R. Lucas. Les algues peuvent alors se développer par photosynthèse. Pour la récolte, il suffit de retirer les cordes de l’eau et de couper les algues. « Il n’y a aucune opération de nettoyage : les cordes sont mises à sécher dans des champs, les algues pourrissent et les cordes peuvent ensuite être réutilisées », annonce R. Lucas.

La nouvelle zone de culture de 145 hectares est située sur la zone Procoq, une zone dédiée à la protection de la ressource en coquillages. Les algues y seront cultivées en semi-surface et les pêcheurs placeront des naissains de coquilles Saint-Jacques sous la culture. « L’intérêt des pêcheurs est d’avoir une zone balisée grâce à la culture d’algues, car elle est interdite à la pêche et à la navigation », assure R. Lucas. « De plus, l’algue a un atout : elle capte le CO2 et renvoie de l’oxygène dans l’eau, ce qui favorise le plancton et donc le développement de nourriture pour les coquillages », prévient-il. Les cordes sont aussi maintenues au fond et accrochées à des récifs artificiels pour que la biodiversité puisse nicher ou se protéger.

Outre la culture de ces algues, il est également possible de valoriser en Algopack les déchets d’algues issus de l’industrie agroalimentaire, cosmétique ou d’ailleurs !

Découvrez Algopack en vidéo : https://www.youtube.com/embed/ucQgBIMIqyM

Par Matthieu Combe, journaliste scientifique

Plastique en Méditerranée : quelles solutions ?

Afin de lutter contre le rejet de macrodéchets plastiques dans sa principauté de bord de mer, le Prince Albert II a décidé d’interdire les sacs plastiques à usage unique dès 2016. De plus, au plus tard en 2019, les produits alimentaires tels que les fruits, les légumes et les confiseries devront être conditionnés dans « des sacs en papier recyclés ou issus de forêts gérées durablement ». Et en 2020, la distribution ou la vente de vaisselle jetable en matières plastiques sera interdite, sauf si elle contient « au moins 40% de matériaux d’origine végétale », car biodégradables, prévient le Prince Albert II. « Les alternatives ont certes un coût économique immédiat, mais leur coût écologique à long terme est sans commune mesure à celui du pétrole », insiste-t-il.

La «déclaration de Monaco» pour une approche intégrée et coordonnée

Les participants au colloque ont adopté la « déclaration de Monaco », portée par Bernard Fautrier, vice-président de la Fondation Prince Albert II de Monaco. Cette déclaration vise à agir contre la pollution en Méditerranée et appelle les différents acteurs concernés à rejoindre les travaux de cette task force Beyond Plastic Med « créée pour rechercher et promouvoir des solutions concrètes pour lutter efficacement contre l’afflux des pollutions plastiques en Méditerranée ». Cette task force permettra de réaliser une liste des bonnes pratiques et à les diffuser à tous ses partenaires.

Concernant les solutions concrètes à mettre en oeuvre, le « point de départ » sera assuré par les conclusions de ce colloque. Elles seront complétées par le livre bleu de Tara Océans, réalisé à la suite de l’expédition Tara Méditerranée qui s’est déroulée entre mai et décembre 2014. Ce livre bleu prévu pour mai 2015 reprendra les solutions locales découvertes concernant l’assainissement des eaux, la gestion des déchets, l’innovation pour un plastique biodégradable, la promotion du tourisme durable, l’éducation ou encore la création d’Aires Marines Protégées. Ces solutions ont notamment été discutées lors des escales en Albanie, en Grèce, au Liban, en Israël, à Malte, en Tunisie, en Algérie, en Espagne, au Maroc et au Portugal, et lors des 5 ateliers d’échanges menés avec des acteurs locaux, experts et décideurs, pour avancer vers des solutions communes.

Par ailleurs, un fonds fiduciaire avait été annoncé par le Prince Albert II de Monaco et François Hollande en 2013. Ce fonds vise à aider au développement de nouvelles aires marines protégées en Méditerranée et à l’amélioration des aires existantes. A l’occasion de ce colloque, la création officielle de cette association a été annoncée. Portée conjointement par la France, Monaco et la Fondation Prince Albert II de Monaco, elle a été renforcée par le soutien de la Tunisie, du Maroc, de la Croatie, de Chypre et de la Bosnie. D’autres acteurs sont invités à rejoindre le mouvement.

Selon une étude parue dans le journal Plos one, à elle seule, la mer Méditerranée contiendrait 247 milliards de particules de plastiques flottants, soit 23 150 tonnes. C’est quasiment deux fois plus que le nombre de plastiques flottants estimés dans l’Atlantique Sud (12 780 tonnes), mais moins que dans l’Atlantique Nord (56 470 tonnes). En tant que mer fermée, les eaux ne se renouvellent intégralement qu’en 90 ans, ce qui contribue à l’accumulation des déchets selon François Galgani, chercheur à l’Ifremer et co-auteur de cette étude. C’est l’une des mers les plus polluées au monde par le plastique, que cela soit des plastiques flottants, des plastiques retrouvés sur les plages ou dans les fonds marins.

Par Matthieu Combe, journaliste scientifique

Les bioplastiques pour lutter contre la pollution ?

En 2003, 15 milliards de sacs plastiques à usage unique étaient distribués en caisse en France et 2 milliards de sacs « fruits et légumes». La généralisation du paiement des sacs a permis de faire chuter le nombre de sacs plastiques distribués grauitement en caisse à 500 millions en 2013, auxquels il faut ajouter 1 milliard de sacs payants et de cabas.  Mais le nombre de sacs «fruits et légumes» est passé à 5 miliards.

Au total, le nombre de sacs distribués a néanmoins chuté de 24,4 milliards à 10,2 milliards.

Le projet de loi relatif à la transition énergétique prévoit l’interdiction de la distribution de sacs en matières plastiques à usage unique en caisse au 1er janvier 2016 et l’ensemble des autres sacs (fruits et légumes…) au 1er janvier 2017. Seuls seront autorisés « les sacs compostables en compostage domestique et constitués, pour tout ou partie, de matières biosourcées ». Le texte actuel prévoit aussi l’interdiction des emballages plastiques non biodégradables pour l’envoi de la presse et de la publicité à partir du 1er janvier 2017. Ces dispositions donnent un élan considérable à la filière bioplastique française.

A la sortie du vote à l’Assemblée Nationale, le projet de texte de loi prévoyait l’interdiction de la vaisselle platique jetable en 2018. Cette disposition a été modifiée au Sénat qui a préféré élargir les consignes de tri à ces plastiques. Ainsi, au plus tard le 1er janvier 2018, « les producteurs ou détenteurs de déchets d’ustensiles jetables de cuisine pour la table en matières plastiques, à l’exclusion des ménages, mettent en place un tri à la source de ces déchets et, lorsque ces déchets ne sont pas traités sur place, une collecte séparée de ces déchets », prévoit le projet de loi.

Des sacs bioplastique pour la collecte séparée des bio-déchets

Le loi de transition énergétique prévoit aussi la généralisation du tri à la source des déchets organiques pour tous les producteurs de déchets d’ici à 2025. Cela permettra de ne plus jeter les biodéchets dans les ordures ménagères résiduelles, mais de les valoriser par compostage.

La collecte de biodéchets nécessite des sacs en bioplastique biodégradables et compostables. Ces sacs répondent à la norme de biodégradabilité européenne EN13432:2000 de biodégradabilité et portent le label « OK compost ». Cette norme atteste de leur biodégradabilité de 90 % en 6 mois au maximum. Dans les plateformes de compostage industriel, les sacs en bioplastique disparaissent en 90 jours. C’est un délai compatible avec la fermentation des déchets, ce qui évite d’avoir à vider les sacs. La matière fertilisante qui en résulte est vendue aux agriculteurs. Certaines communes (comme Lorient, Châlons-en-Champagne ou Clermont-Ferrand…) et sociétés de collecte ont déjà choisi le compostage industriel comme solution de traitement des déchets organiques.

Par ailleurs, si quelques sacs biodégradables étaient mis au recyclage plutôt qu’au compost, ils ne devraient pas perturber les chaînes de recyclage. « Il est faux de dire que les bioplastiques perturbent les chaînes de recyclage dès qu’ils sont présents : il y a eu de nombreux tests qui montrent que jusqu’à près 10 % dans les flux de recyclage, cela ne pose pas de problèmes », assure Jean-Marc Nony, directeur Environnement de SPhere, fabricant de sacs en bioplastiques.

1 hectare de céréales permet de produire jusqu’à 10 tonnes de bioplastiques. Dans ces conditions, le Club Bio-plastiques estime le marché potentiel à environ 70 000 tonnes de résines bioplastiques. Cela nécessiterait la culture de de 7 000 hectares de céréales, soit environ 0,07 % des surfaces de céréales cultivées en France. Le développement de la filière pourrait créer 2 000 emplois directs.

Quels liens entre bioplastiques et lutte contre la pollution marine?

« Nous sommes intimement convaincus que l’avenir de la plasturgie passe par des réponses concrètes à notre niveau au problème de la pollution plastique, que cela soit la pollution terrestre ou la pollution marine », insiste Jean-Marc Nony. Les sacs actuels en bioplastiques se dégraderaient en 2 ans en mer, mais  « on travaille sur des nouvelles matières qui seront aussi bioassimilables en milieu marin, parce que le milieu marin signifie des températures et des types de microorganismes un peu différents », prévient-il. Le groupe espère obtenir des résultats d’ici 2 ans.

Plastics Europe craint que le développement des sacs biodégradables n’aggrave les rejets dans la nature. Les citoyens pourraient considérer qu’en raison de leur biodégradabilité, ces sacs peutvent être jetés un peu n’importe où. Mais, « on est tous d’accord que si l’on fait des sacs qui sont bioassimilables en milieu marin, il faudra quand même écrire dessus « Ne pas les jeter dans la mer ou la nature » », assure Jean-Marc Nony. Quoi qu’il advienne, malgré tous les efforts de sensibilisation qui pourraient être déployés, il n’est pas trop risqué de dire que les rejets dans la nature ne seront pas stoppés. Généraliser les sacs biodégradables ne peut donc être qu’une bonne nouvelle pour lutter contre la pollution !

Que contiennent les sacs en bioplastiques ?

Les bioplastiques sont fabriqués à partir d’amidon de céréales (maïs ou blé) ou de fécule de pomme de terre. Une fois les matières agricoles végétales récoltées, les amidonniers et féculiers extraient l’amidon des grains de céréales, ou la fécule dans le cas de la pomme de terre. Ensuite, les fabricants transforment l’amidon et la fécule en résines bioplastiques (Base amidon, PHA, PLA…) qui seront ensuite transformées par les industriels de la plasturgie en objets.

Les sacs en bioplastiques ne sont néanmoins pas totalement constitués de produits végétaux. La part végétale varie entre 20 et 70 %, le reste est constitué de polymères d’origine fossile. Ainsi, les sacs de caisse (épaisseur de 15-16 µm) présentent une part bioplastique comprise entre 30 et 35 %, les sacs de fruits et légumes (10 µm) une part comprise entre 20 et 25 %. Plus un produit est rigide, plus la part en bioplastiques peut augmenter (l’élasticité est conférée par la part «fossile»). Ainsi, les sacs poubelles (16-22 µm) peuvent présenter une part végétale de 40-50 % et les produits rigides, comme la vaisselle, de 60 à 70 %.

De nombreux travaux de recherche, conduits actuellement, visent à augmenter la part de ressources renouvelables dans la composition de ces objets. L’objectif porté par la filière bioplastique est d’atteindre une part moyenne d’au moins 70 % de matières végétales d’ici 2018. La filière cherche notamment à remplacer une part des polymères d’origine fossile (copolyesters) par de l’huile de tournesol ou de chardon.

Des sacs qui nécessitent moins d’énergie ?

Les analyses de cycle de vie permettent de comparer l’énergie et les émissions de gaz à effet de serre d’un sac en bioplastique à un sac traditionnel. Les différentes ACV portant sur les sacs en plastique base fossile et les sacs bioplastiques sont assez mitigées. Les sacs bioplastiques consomment a priori moins d’eau et présentent un intérêt en termes d’émissions de gaz à effet de serre et de consommation d’énergie non renouvelable, à condition que les masses des emballages correspondants soient suffisamment limitées, mais les process doivent être améliorés pour diminuer l’eutrophisation des eaux. « Ces différentes études ne sont pas toujours pertinentes pour les bioplastiques, car si les scénarios peuvent être très adaptés pour les plastiques traditionnels, ils ne le sont pas encore pour les nouveaux plastiques qui sont en développement et qui ne jouissent pas encore de toute l’optimisation en termes de process industriel et de structure », prévient Christophe Doukhi-de Boissoudy, Président du Club Bio-plastiques et directeur général de Novamont France.

« Les bioplastiques trouvent tout leur intérêt dans leur contribution au développement de la valorisation organique des biodéchets. Ces biodéchets ne sont encore que trop rarement valorisés et de plus limitent la production d’énergie lorsqu’ils sont incinérés de par leur forte concentration en eau. Un gros effort est encore à faire sur ce point et les bioplastiques ont un rôle indéniable à jouer dans le développement de ce secteur », assure Christophe Doukhi-de Boissoudy.

Si les sacs bioplastiques peuvent avoir certains avantages, ils coûtent pour le moment de 2 à 3 fois plus cher. Le consommateur sera-t-il prêt à payer cette différence de prix pour limiter la pollution ?

Par Matthieu Combe, journaliste scientifique

Abeilles et frelons asiatiques: qu’attend le ministère?

Stéphane Le Foll a classé le frelon asiatique en danger sanitaire de 2e catégorie en 2013. Mais aucune réelle coordination de lutte au niveau national n’a été mise en place, fautes de moyens. Pourtant, Stéphane Le Foll avait annoncé la classification du frelon asiatique en catégorie 1 en octobre 2012.

Puis, il a réitéré son intention de le faire en Décembre 2014 devant les apiculteurs de la Sarthe. Malgré cette intention affichée, l’UNAF dénonce un « double discours », puisqu’aucune décision n’a été prise malgré l’urgence. 

Selon le Muséum National d’Histoire Naturelle, le frelon asiatique est aujourd’hui présent dans 63 départements du sud, du centre et de l’ouest de la France, couvrant les trois quarts du territoire. Il a également gagné l’Espagne, l’Italie, le Portugal et la Belgique. « Le pire, c’est que nos collègues de pays étrangers ont demandé à leurs états d’attaquer la France pour n’avoir pas pris de mesures pour limiter l’invasion du frelon », assure Henri Clément, porte-parole de l’UNAF.

Se doter de moyens pour assurer la lutte

Le classement du frelon asiatique en danger sanitaire de catégorie 2 n’impose pas d’obligation de destructions de nids. En revanche, le classement en catégorie 1 imposerait un plan de lutte obligatoire, à la charge de l’état. Le Gouvernement ne semble donc pas pressé de débloquer des fonds.

Pour diminuer les prix de la lutte contre ce ravageur, l’UNAF demande le retour du SO2 pour la destruction des nids. Aujourd’hui la destruction des nids ne peut se faire que par des biodicides (ou par destruction mécanique pour les nids facilement accessibles), selon la note de service DGAL/SDSPA/N2013-8082 de mai 2013 définissant les « mesures de surveillance, de prévention et de luttes permettant de limiter l’impact du frelon asiatique ». 

Pour lutter contre l’attaque des ruchers par les frelons asiatiques, cette note met également en oeuvre le « piégeage de protection du rucher ». Celui-ci consiste en « l’installation au rucher, pendant les périodes estivales et automnales, de dispositifs de piégeages de masse d’ouvrières de V. Velutina », explique l’ITSAP, l’Institut de l’abeille. « Son objectif est la capture d’ouvrières afin de réduire la claustration des colonies d’abeilles et de maintenir l’activité de butinage, tout en minimisant les atteintes aux insectes non cibles », précise-t-il. Ces moyens de lutte sont généralement à la charge des apiculteurs, parfois avec le soutien de collectivités locales.

Mais pour l’UNAF, ce piégeage est insuffisant. « Si on ne piège qu’au niveau du rucher, on n’empêche pas le pillage des frelons sur les ruches l’été venu et on n’empêche en rien la prolifération des frelons », regrette Gilles Lanio, Président de l’UNAF . Car lorsqu’un nid se développe, les ouvrières ont un terrain de « chasse » beaucoup plus vaste. « Si les fondatrices ont un terrain de chasse d’environ 300 m autour du lieu de nidification, les ouvrières prospectent jusqu’à 3 km pour chercher de la nourriture», prévient Gilles Lanio. 

Plutôt que de piéger les milliers de frelons ouvriers des nids, il serait plus efficace de piéger les reines fécondées au printemps, avant qu’elles ne pondent ! L’union apicole demande donc un piégeage de printemps, au-delà des ruchers, pour intercepter les reines. « Un nid de frelon en fin de saison peut lâcher 400 à 500 reines qui vont passer l’hiver au chaud. A la fin de l’hiver, ces reines vont devoir chercher un endroit pour faire un nid », détaille Gilles Lanio. Ces reines doivent donc être interceptées avant qu’elles n’aient le temps de fonder leur nid. 

Le piégeage proposé par l’UNAF est sélectif. « Nous préconisons un piégeage de printemps qui va de février à début mai pour intercepter les reines qui à ce moment là doivent assumer toutes seules leur alimentation », expose-t-il. Un piégeage de grande envergure à ce moment sur le territoire permettrait de faire reculer la pression des frelons. Mais, faute de moyens , les apiculteurs ne peuvent pas assurer seuls les frais de piégeage. 

Un tel piège sélectif coûte environ 4 euros.  Certes, il tuera quelques insectes utiles, mais un nid de frelon qui n’a pas été détruit peut consommer de 3 500 à 15 000 équivalent abeilles par jour au mois de septembre ! Au moment où la filière apicole connait des surmortalités d’abeilles chroniques et multifactorielles, l’implication de l’état et le classement de ce frelon en danger sanitaire de catégorie 1 est capital pour l’avenir de l’apiculture française. Car, entre 1994 et 2014, la production nationale de miel est passée de 32 000 tonnes à 10 000 tonnes…

Bientôt le tour de Aethina tumida ? Les apiculteurs craignent désormais également l’arrivée d’un petit coléoptère des ruches, Aethina tumida, dont la progression est rapide en Italie, depuis son apparition à l’automne 2014. En France, ce coléoptère est déjà classé en danger sanitaire de catégorie 1.

Par Matthieu Combe, journaliste scientifique

Et aussi dans l’actualité :

Les LED remplaceront-elles les halogènes en 2016 ?

D’après une nouvelle analyse réalisée par CLASP, l’Agence énergétique danoise et Energy Piano et fournie à la Commission européenne, les ampoules LED sont beaucoup plus abordables et éco-énergétiques que prévu. « Les ampoules LED actuellement proposées sur le marché atteignent des niveaux de prix qui n’étaient initialement attendus qu’en 2020, 2022, 2024 et 2025 », fait savoir CLASP dans un communiqué. « Cette formidable accélération de 5 à 11 ans en termes d’accessibilité des ampoules LED issues des principaux fabricants européens indique que les consommateurs bénéficient de périodes de rentabilisation très attractives et inférieures à 1 an, dans le cas d’une utilisation sur une prise résidentielle à hauteur de 3 heures par jour», poursuit l’organisation de promotion des économies d’énergies. 

Pour montrer l’efficacité des LED, les auteurs de l’étude rappellent que de grandes sociétés majeures proposant des éclairages grand public et professionnels, telles qu’IKEA et Erco, parient sur cette technologie. Elles ont notamment annoncé leur intention de ne vendre plus que des LED d’ici 2016, abandonnant es ampoules fluocompactes. 

Un report qui coûterait cher en économies d’énergie

Grâce à ce rapport, les trois organisations espèrent montrer à la Commission européenne que les LED constituent déjà une technologie mâture. Elles estiment que le report de la réglementation de deux ans engendrerait une perte de 33 térawattheures (TWh) d’économies d’énergie sur 10 ans entre 2016 et 2026. « La décision prochaine que prendront les dirigeants politiques européens autour de la question de savoir s’il s’agit de reporter ou non la phase finale de la suppression progressive des ampoules électriques sera une décision critique, », note Michael Scholand de CLASP Europe. « En conservant l’échéance 2016, l’Europe pourra accélérer l’innovation en matière d’éclairage LED, nous permettant d’espérer des réductions plus rapides des prix, dont les consommateurs bénéficieront plus rapidement qu’en cas de report de cette suppression progressive », défend-il.

Les ampoules halogènes sont désormais les ampoules les plus vendues en Europe. Avec la disparition des ampoules à incandescence, les consommateurs se tournent davantage vers ces lampes qu’ils jugent plus efficaces que les ampoules fluocompactes (LFC) et bien moins chères que les LED. Mais les halogènes consomment plus d’électricité. Cette distanciation inattendue en faveur de l’halogène met à mal les économies électriques domestiques prévues par la Commission Européenne dans le cadre du retrait progressif des ampoules énergivores. Les halogènes représentant environ 70 % des ventes d’éclairage grand public, l’interdiction des halogènes en septembre 2016 ou 2018 devrait transformer totalement le marché de l’éclairage, au profit des LFC et LED. Le plus tôt sera le mieux. 

Par Matthieu Combe, journaliste scientifique

 

Les néonicotinoïdes bientôt interdits ?

L’amendement n°1077, présenté par les écologistes, va permettre de soutenir « prioritairement les projets de groupements d’intérêt écologique et économique ou les projets territoriaux visant la suppression des produits phytosanitaires de la famille des néonicotinoïdes » dans le cadre du plan Ecophyto 2. L’amendement n°754, présenté par les députés socialistes Gérard Bapt et Delphine Batho stipule que « l’usage des produits phytosanitaires de la famille des néonicotinoïdes est interdit à compter du 1er janvier 2016 » en France.

L’adoption s’est faite contre l’avis du Gouvernement, défavorable au motif notamment que « le cadre européen ne permet pas une interdiction stricte », selon la ministre de l’écologie, Ségolène Royal. Cela est confirmé par  Maître Bernard Fau, Avocat à la Cour de Paris et Avocat de l’Union Nationale de l’Apiculture Française (UNAF), pourtant favorable à l’interdiction des néonicotinoïdes. Selon lui, « du point de vue juridique, c’est une position qui est difficilement tenable, parce que les décisions d’interdiction ne peuvent pas se prendre de cette manière, sur un amendement présenté au Parlement Français ».

Si cet amendement venait à être voté tel quel au Sénat, les apiculteurs craignent la mise en place de dérogations qui, encore une fois, videraient la loi d’une application efficace sur le terrain. Mais l’avenir de l’amendement n°754 est déjà sérieuresement menacé au Sénat. Le 4 février 2015, le Sénat rejetait une proposition de résolution demandant au Gouvernement d’ « agir auprès de l’Union européenne pour une interdiction de toutes les utilisations des pesticides néonicotinoïdes en Europe tant que les risques graves pour la santé humaine, animale et l’environnement ne seront pas écartés ». Cette proposition avait été rejetée par 248 sénateurs sur 312 suffrages exprimés.

Lors de l’examen de cette proposition au Sénat, le ministre Stéphane Le Foll a défendu son opposition à cette résolution. Il a notamment rappelé qu’une restriction d’utilisation existait déjà au niveau européen pour 3 substances néonicotinoïdes pour toutes les cultures attractives pour les abeilles. « Elles ne peuvent plus être utilisées en période de floraison. Pour les cultures restantes et pour les céréales à paille, les semis ne peuvent pas se faire à la période de forte activité des abeilles», a rappelé Stéphane Le Foll. L’interdiction de semer ces semences enrobées a lieu de Janvier à Juin.

Une interdiction partielle au niveau européen sur 3 néonicotinoïdes

Le règlement européen 485/2013 interdit partiellement l’utilisation de 3 néonicotinoïdes – imidaclopride, clothianidine et thiaméthoxame – en Europe depuis décembre 2013. Il restreint l’utilisation de ces néonicotinoïdes à l’enrobage de semences des céréales d’hiver uniquement et à la pulvérisation après la floraison des cultures attractives pour les abeilles. Cinq autres néonicotinoïdes restent néanmoins actuellement autorisés en France.

Ce réglement prévoit la réévaluation des données disponibles d’ici décembre 2015. L’EFSA doit lancer prochainement un « appel à données scientifiques ». « Les chercheurs indépendants, les ONG, les associations d’apiculteurs et les industriels vont pouvoir envoyer les données sur la toxicité des néonicotinoïdes sur les abeilles, les abeilles solitaires et les pollinisateurs », détailleMartin Dermine, Coordinateur abeille pour l’association PAN EUROPE (Pesticides Action Network – Europe). Le nouvel avis de l’EFSA devrait être publié début 2016. Sur la base de cet avis, la Commission européenne décidera ou non de revoir l’’interdiction des 3 néonicotinoïdes.

Suite à une multiplication des facteurs portant atteinte aux abeilles (apparition des insecticides néonicotinoïdes et du fipronil, de parasites, de prédateurs, développement de la monoculture, réchauffement climatique, etc.), les mortalités observées dans les ruchers sont passées de 5 % dans les années 1990 à plus de 30 % aujourd’hui. Les rendements de miel par ruche sont significativement réduits, faisant passer la production nationale de 32 000 tonnes en 1995 à 10 000 tonnes en 2014. Plusieurs études scientifiques indépendantes montrent pourtant que les néonicotinoïdes n’augmentent pas notablement les rendements.

Par Matthieu Combe, journaliste scientifique

La Chine va installer 45 MW PAR JOUR de solaire PV entre 2015 et 2019 (IHS)

La Chine prend de plus en plus l’allure d’un énorme dragon solaire.

Ce ne sont pas moins de 45 MW par jour en moyenne qui seront installés par ce dernier sur la période 2015-2019. Soit l’équivalent d’environ 4 mètres carrés de panneaux PV par seconde en non-stop, jour et nuit.

Il faut réunir les deux suivants sur le podium, le Japon (45 GW) et les USA (42 GW), pour parvenir à rivaliser avec le champion chinois dans sa course effrénée.

L’Inde va aussi connaître une croissance fulgurante. Mais néanmoins en deçà de l’objectif de 100 GW fixé par le gouvernement Modi à horizon 2022. La plupart des experts dont ceux d’IHS mais aussi ceux de Mercom Capital Group estiment que cet objectif n’est pas réaliste. L’Inde cherche à afficher sa puissance face à son grand voisin chinois, ce qui pousse les responsables politiques à afficher des chiffres très ambitieux. L’Inde, qui a mis en place 3 GW ces 5 dernières années, va installer 13 GW entre 2015 et 2019 selon IHS. Selon Mercom Capital Group 1,8 GW seront installés durant l’année 2015.

Le Royaume-Uni, pays solaire

Situation pour le moins paradoxale, c’est le Royaume-Uni (22 GW) qui va prendre le leadership de l’installation de capacités solaires en Europe. Ce qui ne peut que mettre la France, pays baigné de soleil comparativement à notre voisin d’Outre-Manche, dans une situation embarassante. Seuls 6 GW seront installés dans l’hexagone. 2 GW de moins que l’Italie et 2 GW de plus que les Pays-Bas, pays 13 fois plus petit que la France.

Même l’Allemagne, pays pourtant leader ces dernières années et qui compte aujourd’hui une puissance PV installée de 38 GW, sera devancée par la Grande-Bretagne. Le pays de Goethe installera néanmoins 14 GW supplémentaires, soit 2,3 fois plus que la France. Les autres pays européens installeront une puissance cumulée évaluée par IHS à une vingtaine de GW. Au total l’Europe parviendra à frôler les 60 GW, soit environ un tiers de moins que la Chine.

D’autres marchés seront en émergence comme le Canada, l’Afrique du sud et l’Australie qui pourrait chacun installer 7 à 8 GW durant la période considérée, le Chili (4 GW) et la Thaïlande (2 GW). Le reste du monde cumulera une trentaine de GW, principalement en Asie.

L’Egypte, qui vient de signer le 15 mars 2015 des pré-accords (MoU) pour l’installation d’un total de 6,5 GW de solaire PV, semble avoir été oubliée du rapport IHS.

La planète a franchit les 185 GW (estimation) fin 2014. Elle comptera 498 GW en 2019, soit une croissance d’un facteur 2,7. Avec le facteur de capacité mondial moyen retenu par l’institut Fraunhofer (14,8%), cette puissance installée permettra de délivrer environ 645 TWh par an. Soit 25% de plus que la demande électrique française annuelle.

Les prix des modules PV standards c-Si chuteront de 27% entre 2015 et 2019 atteignant $0.45$/W.

La révolution solaire est bel et bien en marche. Tirée par la formidable force motrice chinoise.

Par Olivier Daniélo

La très rapide chute du coût des batteries (Méta-étude, Nature Climate Change)

La méta-étude « Rapidly falling costs of battery packs for electric vehicles », dont les auteurs sont les Suèdois Björn Nykvist et Måns Nilsson, est basée sur des estimations de coûts provenant de 80 études peer-reviewed, des estimations d’agences, des rapports d’industries et de cabinets de consultants, des rapports intégrant les analyses de représentants de l’industrie et d’experts, et enfin de manufacturiers leaders du domaine.

Alors que le coût des batteries était de 1300$ par kWh en 2006 (régression logarithmique sur la base de l’ensemble des estimations) il est tombé à 410$ en 2014, ce qui correspond à une réduction des coûts de 14% par an. Pour les entreprises leaders (le Californien Tesla Motors et le Japonais Nissan), le coût est même descendu à 300$ en 2014.

Le taux d’apprentissage (Learning rate) obtenu, c’est à dire la réduction du coût suite à un doublement du volume de production, est de 6 à 9%, ce qui est « en accord avec les études antérieures sur les technologies de batteries pour voitures » indiquent les co-auteurs. La stratégie du multimilliardaire Elon Musk, construire une usine géante (« GigaFactoty ») dans le Nevada, consiste précisément à pousser les volumes de production pour faire baisser les coûts et ainsi s’imposer sur le marché. Le chinois Byd, acronyme de « Build Your Dreams », a annoncé vouloir produire un volume identique à celui de Tesla Motors. La compétition s’annonce musclée. L’Europe n’a toujours pas réagit à ces offensives américaines et chinoises dans ce secteur hyper-stratégique.

Ci-dessus : Evolution du coût des batteries de 2005 à 2014 et projections pour la décennie et demi à venir (d’après Nykvist et al 2015)

 

Une très bonne nouvelle pour mettre le soleil en bouteille

Les batteries de voitures électriques peuvent aussi être utilisées pour le stockage stationnaire, par exemple pour stocker l’énergie solaire. Arrivées en fin de leur première vie dans les véhicules au bout d’environ 8 ans, les batteries conservent environ 80% de leur capacité de stockage initiale. Elles peuvent alors être réutilisées pour les applications stationnaires. Le slogan de Nissan en la matière est « Reuse, Resell, Refabricate and Recycle ».

SolarCity, le numéro 1 du solaire résidentiel aux USA fondé par Elon Musk, vient précisément de lancer son nouveau produit « GridLogic » qui consiste à fournir un micro-réseau (MicroGrid) complet : panneaux solaires, batteries pour la gestion intra-journalière, micro-lignes électriques et micro-générateur thermique de secours pour les longues (et peu fréquentes) périodes sans soleil. Cela tombe bien, Tesla Motors produit précisément des batteries avec son allié Panasonic ! GridLogic est un produit que le PDG SolarCity, Peter Rive, a décrit dans le New-York Times comme “un modèle (template) qui peut être répliqué jusqu’à obtenir la nouvelle génération du réseau électrique. » Un nouveau modèle énergétique basé sur une production très décentralisée et ainsi à haute résilience en cas de catastrophe naturelle ou de conflit armé. Ce qui séduit fortement outre-Atlantique où les passages de tornades et d’ouragans provoquent chaque année des coupures de courant. Dans les régions du Japon qui ont été dévastées par le méga-tsunami en 2011, seules les maisons équipées de panneaux solaires étaient éclairées le soir.

La Deutsche Bank a publié début le 2 mars 2015 un rapport qui annonce un coût incrémental du stockage batterie de seulement 2 c€ par kWh solaire en 2020, contre 14 c€ aujourd’hui. Certains observateurs, comme par exemple Ken Munson, le fondateur de la start-up americano-australienne Sunverge spécialisée en systèmes énergétiques intelligents, estiment que la chute des coûts pourrait être encore plus rapide.

L’Australie, pays baigné de soleil et aux très longues (et donc coûteuses) lignes électriques, est l’un des marchés les plus prometteurs au monde pour le solaire + stockage. Sunpower, filiale solaire du groupe Français Total, est dès aujourd’hui présent sur ce marché. »

Même si le charbon était gratuit, les centrales à charbon ne peuvent plus concurrencer le solaire » en Australie soulignait dès juillet 2014 l’expert Gil Parkinson dans The Guardian, propos rapportés par l’entreprise française Comwatt. Ceci à cause du coût du transport de l’électricité. « Dans une démocratie d’énergie, même le charbon gratuit n’a pas de valeur. »

Par Olivier Daniélo

Les premiers satellites propulsés électriquement ont été lancés

Cap Canaveral, 3h50, heure locale. 2 mars 2015. Le seizième lanceur Falcon 9 décolle avec à son bord deux satellites, Eutelsat 115 West B et ABS-3A, les premiers d’une nouvelle famille. Car ces satellites mis au point par Boeing possèdent une particularité qui pourrait bien révolutionner une partie du secteur spatial : leur système de propulsion est 100 % électrique ! Sur le même principe que la propulsion chimique, des produits sont éjectés pour obtenir la poussée. Les satellites Eutelsat utilisent chacun quatre propulseurs ioniques à grille Xips 25 grâce auxquels ils pourront passer de l’orbite d’injection à leur orbite opérationnelle. Cette nouvelle génération « tout électrique » présente l’avantage d’abaisser les coûts. En effet,  la nouvelle plateforme de Boeing à propulsion entièrement électrique a permis de réduire de près de 2 tonnes la masse des satellites. Or, chaque kilo en moins, c’est potentiellement 20 000 € d’économiser. Mais c’est aussi la possibilité de lancer les satellites deux par deux, soit une diminution des coûts de lancement d’environ 20 %.

Le gain de poids peut donc être directement converti en gain financier, mais il peut aussi permettre d’augmenter la charge utile. Deux avantages qui ont poussé Boeing à se lancer dans l’aventure du 100 % électrique. Un choix loin d’être évident car malgré les économies réalisées, la propulsion électrique présente l’inconvénient d’une faible poussée, et donc des manœuvres de mise à poste bien plus longues qu’avec une propulsion chimique. Ainsi, les deux satellites Eutelsat et ABS mettront  entre 6 et 8 mois à se positionner sur leur orbite géostationnaire, une étape qui n’aurait duré qu’une semaine en utilisant du carburant. De plus, leurs propulseurs ne seront pas mis sous tension immédiatement, il faudra attendre quelques jours que les satellites aient totalement dégazés. Une étape là encore plus longue puisqu’elle survient en quelques heures pour les satellites classiques. Mais ces délais rallongés n’effraient ni ABS ni Eutelsat qui prévoient d’envoyer d’autres satellites à propulsion électrique dont l’un, construit par Airbus, aura une durée de mise à poste déjà divisée de moitié puisqu’il atteindra son orbite en seulement 4 mois.

Par Audrey Loubens

 

De l’azote détecté à la surface de Mars, autre indication d’une vie passée (Nasa)

Les nitrates sont une catégorie de molécules qui contiennent de l’azote sous une forme pouvant être utilisée par des organismes vivants, a expliqué l’Agence spatiale américaine.

Cette découverte apporte ainsi une preuve de plus que la planète rouge a réuni dans le passé des conditions propices à l’existence de la vie.

L’azote est indispensable pour toutes les formes de vie connue, puisqu’il constitue un élément clé des plus grandes molécules comme l’ADN, qui code les instructions génétiques de la vie.

Sur la Terre comme sur Mars, l’azote se trouve à l’état gazeux dans l’atmosphère sous forme de deux atomes attachés ensemble qui, ainsi, ne peuvent pas se combiner aisément avec d’autres molécules.

Or les atomes d’azote doivent être soit seuls, soit fixés à des molécules d’oxygène pour pouvoir créer des réactions chimiques indispensables à la vie.

Une molécule de nitrate, formée d’un atome d’azote et de trois atomes d’oxygène, est la source d’azote fixée qui peut ainsi se combiner à une variété d’autres atomes et de molécules.

Toutefois les scientifiques soulignent qu’il n’y aucune indication suggérant que ces molécules de nitrate découvertes par un instrument de Curiosity proviennent d’un organisme vivant.

La surface de Mars est aujourd’hui inhospitalière à toute forme de vie connue.

Selon ces chercheurs, ces nitrates sont anciens et ont résulté de processus non-biologiques comme par exemple l’impact d’astéroïde ou la foudre sur Mars dans un lointain passé.

L’équipe scientifique de Curiosity a déjà découvert des indices prouvant que la vie a pu exister sur Mars il y a plusieurs milliards d’années, telle la présence d’eau liquide abondante, comme en témoigne des lits d’anciennes rivières et la présence de matériaux organiques dans le cratère de Gale, où le robot s’est posé en août 2012.

Curiosity se trouve actuellement au pied du mont Sharp, une montagne de 5.500 mètres de hauteur formée de couches sédimentaires, dans l’une desquelles il a capté les molécules de nitrate.

Le robot avait aussi détecté en décembre, près de la surface de Mars, des émanations régulières de méthane sans avoir pu déterminer l’origine de ce gaz qui, sur Terre, provient à 95% de micro-organismes.

Curiosity ne dispose pas d’instrument permettant d’établir l’existence de la vie sur la planète rouge.

L’objectif de sa mission était d’établir si Mars, dans le passé, était habitable en réunissant les conditions nécessaires à l’existence de la vie microbienne.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Le futur pont de Londres suscite l’enthousiasme des architectes

Le futur pont de Londres

Ce futur pont fera la jonction entre les quartiers de Nine Elms sur la rive Sud et ceux de Pimlico sur la rive Nord et s’ajoutera à la trentaine de ponts déjà présents à Londres. Il incorporera une piste cyclable en plus d’un passage piéton.

Parfois improbables, futuristes, ces 74 projets ne manquent pas d’audace quant à leur design. Comme le déclare Ravi Govindia, dirigeant du Conseil de Wandsworth, « cette compétition de design a su capter l’imagination des gens ».

Un seul projet sera retenu et annoncé l’été prochain − le 24 juillet normalement. Mais en attendant de connaître l’heureux élu de ce concours international, voici en images les quelques propositions architecturales surprenantes à nous avoir « tapé dans l’œil » :

Pour en voir plus, c’est par ici.

Ce n’est pas le seul nouveau pont que la capitale anglaise va accueillir. D’autres projets sont en gestation, comme celui d’un pont-jardin ou encore celui, toutefois moins probable, d’un pont habitable.

Le pont-jardin

Vous l’imaginez, ce pont où la végétation est luxuriante, cet entre-deux mondes où les feuilles d’un arbre viendraient vous caresser sous l’effet d’une brise et où vous entendriez le chant mélodieux des oiseaux ?

Et bien ce pont-jardin devrait voir le jour, pile entre le pont de Waterloo et celui de Blackfriars. Il reliera South Bank à Temple. Le comité d’urbanisme et la mairie de Londres ont tous deux donnés leur aval à la conception de l’architecte Thomas Heatherwick; le permis de construire a été délivré vendredi 19 décembre.

Selon les pronostics, le « garden bridge » devrait s’ouvrir au public en 2018, à condition que les financements soient trouvés. Pour l’instant seuls les deux tiers des 225 millions d’euros nécessaires à l’ouvrage ont été recueillis. Mais si ce dernier tiers est récolté, la construction pourrait commencer fin 2015.

Et les badauds du monde entier pourront, dès 2018, traverser gratuitement ce havre de paix d’une superficie comparable à celle d’un terrain de football et rempli de fleurs et de plantes grasses.

Le pont habitable

Il n’en reste plus beaucoup dans le monde. Certes au VIe siècle, ils n’étaient pas rares, mais la révolution industrielle et les maladies inhérentes aux problèmes de pollution auront progressivement eu raison des ponts habités au milieu du XIXe siècle.

Aujourd’hui, le Ponte Vecchio de la ville de Florence en Italie est probablement le plus célèbre de ces survivants. Mais peut-être plus pour longtemps. L’architecte anglais Laurie Chetwood souhaite en effet réhabiliter le London Bridge en une « place publique » où l’on retrouverait des échoppes et des habitations futuristes.

Le but de l’opération est de créer de la surface car, on le sait, l’espace est une problématique courante pour les villes qui en manquent de plus en plus.

Le cabinet de l’architecte a présenté dans ce sens une structure faite de granit et de métal sur laquelle seraient érigées deux tours. Toutefois, il semblerait que la Chine soit davantage intéressée par ce concept de pont que Londres.

Par Sébastien Tribot

  • Pour en savoir plus :

The Huffington Post, « Un futur pont sur la Tamise inspire les projets architecturaux les plus fous », 27 février 2015.

Les Echos, « Le pont de Londres viendra du futur », 6 mars 2015

Konbini, « En images : à Londres, le prochain pont de la Tamise vient du futur », mars 2015

Le Monde, « Londres veut construire un « pont-jardin » au-dessus de la Tamise », 22 décembre 2014

Le Parisien, « Futur : vivre sur les ponts », 27 février 2014

The Creators Project, « Le nouveau pont de Londres viendra du futur », 26 février 2015

The Huffington Post, « Londres: un pont-jardin sur la Tamise, peut-être en 2018 », 2 décembre 2014

CyberArchi, « Un pont-jardin sur la Tamise à Londres, à l’horizon 2018 ? », 4 décembre 2014

6 savants fous qui se sont sacrifiés pour la science

Prenez Isaac Newton. Considéré par beaucoup comme le plus grand scientifique de tous les temps, il n’est pas que le génial découvreur de la gravitation universelle. Entre autres choses, Newton a aussi révolutionné nos connaissances en optique. Il était si dévoué à sa cause que pour tester une de ses théories sur la perception des couleurs, il s’enfonça une aiguille à tricoter sous le globe oculaire, jusqu’à ce qu’elle touche l’arrière de l’orbite. Il nota ensuite de façon très factuelle qu’il voyait des cercles colorés lorsqu’il se triturait l’œil avec l’aiguille. Si vous pensiez que l’histoire de la science était faite de sagesse et de précautions, vous allez découvrir qu’elle n’a rien à envier à Jackass.

Stubbins Ffirth

En 1793, une terrible épidémie de fièvre jaune tua plus de 5 000 personnes à Philadelphie. Quelques années plus tard, un jeune médecin nommé Stubbins Ffirth émit l’hypothèse que la fièvre jaune n’était pas une maladie contagieuse, mais qu’elle était plutôt causée par le climat estival. Pour prouver sa théorie, il entreprit une série d’expériences sur lui-même tellement ignobles qu’elles le rendirent célèbre : Ffirth commença par se faire des incisions sur les bras pour y verser du vomi de patient infecté, puis il s’en versa également dans les yeux.

Il fit ensuite chauffer du vomi pour en inhaler les vapeurs, et comme il n’était toujours pas malade, il finit par en boire. À l’issue de ces expériences, il était toujours en pleine santé, ce qui lui sembla être une preuve éclatante de son hypothèse. Il fallut attendre 60 ans après la mort de Stubbins Ffirth pour découvrir qu’en réalité, la fièvre jaune était transmise par les moustiques.

Johann Wilhelm Ritter

Quand Alessandro Volta inventa la première pile électrique en 1800, il révolutionna le monde de l’énergie. Ce qu’il n’imaginait sans doute pas, c’est l’utilisation qu’allait en faire Johann Wilhelm Ritter, un physicien allemand à qui l’on doit la découverte des ultra-violets, et qui fut pris d’une passion bizarre pour l’invention de son collègue italien. Ritter décida d’étudier les effets de l’électricité sur l’organisme en connectant la pile à différentes parties de son corps. Quand il électrifia sa langue, il ressentit une saveur acide, et quand il posa les fils sur ses yeux, il perçut d’étranges couleurs flotter devant lui.

Par amour de la science, Ritter appliqua aussi le courant électrique sur ses parties génitales. L’expérience fut si « concluante », que le physicien déclara autour de lui qu’il allait épouser sa pile. La curiosité de Ritter pour l’auto-stimulation électrique aurait pu s’arrêter là, mais il s’exposa à des courants de plus en plus élevés, sur des durées toujours plus longues, allant jusqu’à prendre de l’opium pour supporter la douleur.

Sa santé finit fatalement par en pâtir : ses yeux s’infectèrent, il eut des spasmes et des migraines, sa langue perdit temporairement sa sensibilité, et le courant paralysa un de ses bras pendant toute une semaine… Cela ne l’empêcha pas de continuer ses recherches, à la stupéfaction de ses collègues. Ritter mourut finalement de la tuberculose à 33 ans, mais ses expériences sur lui-même ont sans doute précipité son destin.

Nicolae Minovici

Au début du XXe siècle, alors qu’il enseignait la médecine légale à l’Université de Bucarest, le professeur Nicolae Minovici se posa une question bien légitime : qu’est ce que ça fait de mourir pendu? Pour y répondre, il commença par s’auto-asphixier. Il s’allongea sur un lit de camp, passa la tête dans un nœud coulant relié à une poulie, puis il tira sur l’autre extrémité de la corde. Très vite, son visage vira au rouge, sa vision se brouilla, et comme il sentait qu’il allait s’évanouir, il relâcha la corde au bout de quelques secondes. Mais ce n’était qu’un début.

Pour la deuxième phase de ses recherches, Minovici plaça son cou dans un nœud desserré, puis il demanda à des assistants de tirer sur la corde jusqu’à ce qu’il soit suspendu au-dessus du sol. La première fois, le professeur ne put tenir que quelques instants avant d’arrêter l’expérience, mais avec de la pratique il finit par résister 25 secondes à l’étranglement. L’ultime étape consistait à être pendu pour de bon.

Cette fois-ci, Minovici serra le nœud coulant autour de sa gorge, mais quand ses assistants tirèrent, la douleur fut si intense qu’il leur fit signe de relâcher presque aussitôt, avant même que ses pieds ne quittent le sol. Au bout du compte, ces expériences se soldèrent par des ecchymoses, des difficultés pour avaler, ainsi que par l’étude la plus complète jamais menée sur les effets de la pendaison.

John Paul Stapp

Après la Seconde Guerre mondiale, l’armée américaine avait besoin de mieux comprendre les effets de l’accélération et de la décélération sur le corps humain, notamment pour protéger les pilotes d’avion plus efficacement en cas de crash. À l’époque, les experts estimaient que la force maximale qu’une personne pouvait supporter était de 18 G, soit une pression 18 fois plus importante que la gravité terrestre. C’était avant que le colonel John Paul Stapp n’intervienne. Stapp était un docteur en biophysique déterminé à améliorer la sécurité aéronautique, même si cela impliquait de concevoir des machines mortelles, puis de les essayer lui-même.

Son invention la plus célèbre est une sorte de traîneau propulsé par des fusées, surnommé le Gee Whiz. Cet appareil était capable d’atteindre les 1 200 km/h, quasiment la vitesse du son, puis de stopper instantanément au bout d’une voie ferrée d’environ 600 m. En véritable crash dummy humain, Stapp essaya le traîneau 29 fois en 7 ans. La violence des tests lui valut plusieurs fractures et pertes de conscience, mais cela n’empêcha pas le colonel de battre son record de vitesse lors d’une ultime tentative, le 10 décembre 1954. Stapp fut propulsé à une vitesse de 1 017 km/h, ce qui est plus rapide qu’une balle de calibre 45.

C’est la plus grande vitesse jamais atteinte sur rails, et ça reste la plus grande vitesse atteinte au sol dans un véhicule sans cockpit. Mais le plus spectaculaire fut le moment où l’engin passa de 1 000 km/h à 0 en 1 seconde et demie. Lors de cette décélération, Stapp subit 46,2 G, ce qui reste un record absolu, et qui équivaut à percuter un mur à 200 km/h avec une voiture. Le choc fut si violent que Stapp resta aveugle jusqu’au lendemain, les yeux remplis de sang. Il garda des problèmes de vue toute sa vie, mais malgré tous les dangers auxquels il s’exposa, il mourut dans son sommeil à l’âge de 89 ans.

Henry Head

Le Dr Henry Head était un neurologue anglais, pionnier dans l’étude du système nerveux. Au début du XXe siècle, il se lança dans des recherches sur la physiologie de la douleur, et comme on n’est jamais mieux servi que par soi-même, il utilisa son propre corps comme un laboratoire. Le 25 avril 1903, il persuada un chirurgien de lui ouvrir le bras, puis de lui sectionner deux nerfs avant de recoudre le tout. Le but de la manœuvre était d’étudier la façon dont les sensations reviennent après une telle blessure. Pour l’aider dans sa démarche, son collègue William Rivers le soumit à une batterie de tests, tous plus douloureux les uns que les autres.

Pendant 4 ans, Rivers tortura le bras de Head pendant que ce dernier lui disait s’il sentait quelque chose, ou non. Le sacrifice du neurologue permit aux deux hommes de faire une découverte fondamentale : comme les sensations de chaleur et de douleur revenaient plus rapidement que certaines sensations plus subtiles, ils en déduisirent qu’il y avait deux voies de sensibilité distinctes. Une voie de sensations vagues, qu’ils baptisèrent protopathique, et une voie de sensations plus précises, qu’ils nommèrent épicritique. Pour savoir si tout le corps était capable de percevoir les deux types de stimuli, Rivers examina son collègue des pieds à la tête, et il finit par trouver chez lui une zone purement protopathique : son pénis.

Dans une pure abnégation scientifique, Henry Head accepta de se faire piquer sa virilité avec des aiguilles et de la tremper dans de l’eau brûlante pour déterminer la sensibilité de l’organe. Grâce à ces expériences, nous savons aujourd’hui pourquoi on ne peut pas lire en braille avec son pénis. Merci, M. Head !

Evan O’Neil Kane

Le 15 février 1921, alors qu’il est allongé sur une table d’opération pour se faire enlever l’appendice, le chirurgien américain Evan O’Neil Kane annonce qu’il va s’opérer lui-même. Comme il est chirurgien chef de l’hôpital, l’équipe médicale ne peut que lui obéir et le regarder mener sa petite expérience. Kane s’injecte de la cocaïne et de l’adrénaline pour s’anesthésier, puis il s’ouvre le ventre, et sectionne son appendice gonflé. Un bref moment de panique s’empare de l’assistance quand les tripes du chirurgien s’échappent, mais celui-ci les replace calmement à l’intérieur, puis termine l’opération.

14 jours plus tard, il était sur pieds, et prêt à reprendre le travail. L’affaire fit les gros titres de la presse internationale, mais Kane n’en avait pas terminé avec les plaisirs de l’auto-chirurgie. En 1932, à l’âge de 71 ans, il a besoin de se faire opérer d’une hernie inguinale. Cette opération est plus délicate qu’une simple appendicectomie, parce qu’il y a un risque de couper l’artère fémorale. Mais en bon aventurier du scalpel, Kane décide d’opérer lui-même à nouveau. Pendant l’intervention qui dura 1h45, il plaisanta avec les infirmières, et il demanda un deuxième shot d’anesthésique quand la douleur commença à se faire sentir.

Il sembla se remettre rapidement de l’opération, mais en réalité, il ne retrouva jamais toutes ses forces et il mourut trois mois plus tard d’une pneumonie. Evan O’Neil Kane reste la seule personne de l’histoire à s’être opérée d’une appendicite et d’une hernie lui-même.

Source : Axolot

Les robots, vers des applications à gogo ?

Au Japon, le robot Pepper fait l’accueil dans les magasins SoftBank Mobile et aide les vendeurs à vendre les machines à café de Nestlé. Il est également vendu à des développeurs depuis février, afin qu’ils créent le maximum d’applications avant sa commercialisation grand public. Le robot sera proposé dès le mois de Juin au Japon autour de 198 000 yens (environ 1467 euros). Pepper va ainsi permettre de démocratiser les robots beaucoup plus que Nao ne l’a déjà fait. Il faudra néanmoins attendre encore quelques mois avant de voir le robot débarquer sur le marché français.

Pepper est programmé pour reconnaître les émotions de ses interlocuteurs et adapter son comportement en fonction. « Ce robot est capable de capter à peu près correctement dans quel état émotionnel est son interlocuteur, en faisant de la reconnaissance faciale, mais aussi en faisant du traitement du signal sur la voix », précise Jean-Claude Heudin, Directeur de l’Institut de l’Internet du Multimédia, expert des robots et des avatars. Il adapte ainsi son registre pour communiquer au mieux avec vous ou vous remonter le moral.

Des catalogues d’applications, comme sur smartphones

Sur le site d’Aldebarran, il est indiqué que « Capable de s’adapter et de s’améliorer, il sera bientôt capable d’aller chercher de nouvelles applications pour vous surprendre et vous divertir!». Cela préfigure le marché de la robotique de demain.

« Si les robots se développent, il y aura des Appstore pour robots » prévient Jean-Claude Heudin . Pepper est déjà une machine universelle : le robot ne coûte pas cher, mais il faudra télécharger des applications pour ajouter de nouvelles fonctionnalités. « A terme, le marché visé est de l’ordre du smartphone. Vous pourrez acheter votre propre robot humanoïde à un prix défiant toute concurrence, un peu comme les smartphones, qui sont sponsorisés par certains opérateurs. Le modèle économique sera plutôt dans le développement d’applications et de téléchargement pour des applications particulières : baby-sitter, gardien de malade, assistance d’accueil, etc. », prévient Jean-Claude Heudin. Cela bien évidemment, à condition que les robots soient acceptés dans l’ensemble des foyers, comme cela a été le cas avec les smartphones.

Google, futur leader des applications pour robots?

Google a toujours un coup d’avance. Leader avec son système d’exploitation Android et son moteur de recherche incontournable, Google a racheté les principaux laboratoires de robotique aux Etats-Unis et  investit largement dans le domaine. 

« C’est un investissement dans la prochaine révolution pour se positionner sur des marchés futurs importants », assure Jean-Claude Heudin. Après la révolution des objets connectés,« Google a très envie de rester leader dans les systèmes d’exploitation et, les robots, c’est un peu l’ultime machine connectée», prévient-il. « Son ambition est de faire en sorte qu’Android devienne l’iOS des objets connectés et des robots, lorsqu’il y en aura partout », juge-t-il.

Par Matthieu Combe, journaliste scientifique

La lumière fait blanchir la couleur rouge des tableaux de Van Gogh

Les amateurs de Van Gogh doivent se dépêcher d’aller admirer ses tableaux, car ceux-ci se dégradent petit à petit. Plus particulièrement, la couleur rouge est victime d’une sorte de blanchiment. De quoi affadir les œuvres du maître. Des scientifiques belges s’en sont inquiétés et ont décidé de découvrir quel mal se cachait derrière cette dégradation. Ils n’ont pas hésité à prélever un minuscule échantillon du tableau « Meules de foin sous un ciel pluvieux », caractéristique du phénomène avec des feuilles mortes censées arborer une teinte rouge éclatante mais désormais à l’apparence blanchâtre.

En y regardant de plus près, les chercheurs de l’Université d’Anvers ont découvert que le grain de peinture était composé de différentes couches : une coque grise recouvre intégralement le cœur du pigment au rouge intact. Les scientifiques ont analysé ces dixièmes de millimètres de matière à l’aide du rayonnement synchrotron. Les mesures publiées dans Angewandte Chemie indiquent que le pigment utilisé par Van Gogh est du minium (Pb3O4), un oxyde de plomb couramment utilisé. Celui-ci se dégrade sous l’effet de la lumière, prenant une teinte noirâtre, blanchâtre ou verdâtre. Mais quel mécanisme se cache derrière l’évolution vers une teinte plus blanche ? Sous l’effet de la lumière, le minium capte le dioxyde de carbone présent dans son environnement, dans l’air ou issu de la décomposition d’acides gras au sein même de la peinture. Ce faisant, le minium se transforme en plombonacrite, un carbonate de plomb. Ce dernier continue à réagir avec le CO2 pour devenir du céruse, un pigment… blanc ! Le grain de pigment rouge se retrouve ainsi isolé à l’intérieur d’une gangue de couleur blanche.

Ci-dessus : Vincent Van Gogh – La vigne rouge

 

Si les chercheurs on levé le voile sur la façon dont les rouges blanchissent sous l’effet de la lumière, ils n’ont toutefois pas indiqué comment préserver la couleur. De plus, il apparaît délicat d’exposer une toile dans la pénombre. La dégradation des peintures utilisant du minium comme pigment rouge semble inéluctable.

Par Audrey Loubens

Revue du web #78 : les vidéos les plus étonnantes de mars 2015 (2/2)

Cette semaine dans la revue du Web :

  • Atelier fonderie, acte II : la forge à induction ;

  • « Inspiration » : les ferrofluides au service des lampes à lave ;

  • Les ferrofluides, comme à la maison ;

  • Le gadget (inutile?) de la semaine : le « bulletproof » à toutes les sauces ;

  • Et en bonus : une météorite au dessus de l’Alsace et de la Lorraine.

Atelier fonderie, acte II : la forge à induction

La semaine dernière, la Revue du Web s’ouvrait sur le surprenant atelier fonderie artisanal de Grant Thompson, un amateur éclairé qui se prend – avec un certain succès – pour un apprenti-forgeron du fond du jardin. Débutons la Revue de cette semaine dans le même esprit, avec une forge que l’on ne pourra pas trouver dans toutes les chaumières, à savoir une forge à induction. Le principe de cette forge repose sur l’induction électromagnétique, permettant de chauffer tous types de matériaux sans qu’ils n’aient besoin d’entrer en contact avec la source d’énergie.

Le matériau (ici, une lame de couteau), placé au cœur des spirales de l’électroaimant, baigne alors littéralement dans un champ électromagnétique. La perte des courants de Foucault dans le matériau – obligatoirement conducteur – produit de la chaleur dans celui-ci, par effet Joule, principe même du chauffage par induction. Il est impressionnant de voir avec quelle rapidité la lame se met à rougir, prête à être travaillée.

« Inspiration » : les ferrofluides au service des lampes à lave

Vous vous souvenez sans aucun doute des lampes à lave : ces lampes de décoration passées de mode, formées d’un globe de verre allongé contenant un liquide transparent et de la cire. Le principe de ces lampes était élémentaire : une fois chauffée par l’ampoule à incandescence, la cire fond et perd en densité (et donc se met à monter), puis une fois éloignée de la source de chaleur, regagne en densité (et donc se met à redescendre). Bien que s’inspirant quelque peu de ce format, « Inspiration » n’a pas grand chose à voir avec ces illustres – et franchement has-been – aînées, mais nous rappelle à leur bon souvenir.

« Inspiration » se base sur les incroyables propriétés ferromagnétiques de ce que l’on appelle les ferrofluides, un colloïde (au même titre que le lait) de nanoparticules ferromagnétiques d’une dizaine de nanomètres, dans une solution aqueuse. Lorsque les nanoparticules du ferrofluide entrent dans un champ magnétique suffisamment grand, la magie opère : le ferrofluide s’anime, palpite, se hérisse de pointes dont l’équilibre instable est un ravissement.

Le projet, lancé sur Kickstarter, est déjà largement financé.

Les ferrofluides, comme à la maison

Pas encore rassasié en ferrofluides ? L’engouement pour ce liquide colloïdal de nanoparticules ferromagnétiques fait qu’il est désormais facile de se procurer dans le commerce de petites quantités de ferrofluides, afin d’inviter la magie chez soi ou d’alimenter en vidéos les plates-formes en ligne, comme cette superbe séquence dont nous vous parlions ici.

Dans la vidéo qui suit, un internaute nous prouve qu’il est aisé de s’amuser avec bien peu de choses, à savoir un flacon contenant 20ml de ferrofluide, une boite de Pétri et un classique aimant néodyme fer bore. Après avoir versé le précieux liquide dans la boite de Pétri (qui sert ici seulement à s’intercaler entre le ferrofluide et l’aimant), le ballet peut commencer, le fluide révélant sous l’influence du champ magnétique ses qualités polymorphes si particulières, s’anime et se hérisse de pointes désormais familières.

Alors, lorsque l’expérience ne se déroule pas vraiment comme prévu, et que le contenu de la boite de Pétri se renverse, notre internaute ne semble pas se démonter, et profite de la situation pour continuer sa petite expérimentation, pour notre plus grand plaisir.

Le gadget (inutile?) de la semaine : le « bulletproof » à toutes les sauces

Notre gadget (inutile?) de la semaine vient nous rappeler que lorsqu’il est question de sécurité, tout est permis… Surfant sur la psychose ambiante liée à la multiplication des attentats terroristes un peu partout dans le monde, certains petits malins ont créé des produits dont l’intérêt limité vient seulement nourrir la paranoïa de l’homme en situation de danger permanent. Cet homme a absolument besoin de se sentir protégé, mais désire également ne pas éveiller le moindre soupçon quant à cette surenchère défensive. En effet, un gilet pare-balle perd un peu de son efficacité… en devenant apparent.

Fort de ce constat, Tom Nardone a conçu une casquette pare-balle, alternative à la fois discrète et élégante au sempiternel casque balistique qui, bien qu’assurant une protection jugée optimale, pèche par son manque de discrétion pour une utilisation au quotidien. Le projet, lancé sur Kickstarter, a connu un grand succès et a reçu près de 12 000 dollars, soit plus de trois fois la somme espérée. La casquette viendra donc couvrir le chef de quelques quidams en danger, pour 99 dollars :

Une boutique d’Eindhoven (dans le sud des Pays-Bas) va jusqu’à proposer des costumes à l’épreuve des balles, mais pas seulement. On peut retenir le bon goût de la série des marcels blancs, ou encore… le chic de la cravate pare-balle. Eh oui, chaque petit bout compte, surtout lorsque le moindre article coûte au minimum la coquette somme de 2400 euros.

Bonus : une météorite au dessus de l’Alsace et de la Lorraine

Terminons notre Revue du Web avec quelques images de la météorite qui a survolé l’Autriche, la Suisse, l’Allemagne, mais également l’Alsace et la Lorraine, dimanche dernier, un peu avant 21 heures. Une énorme boule de feu auraient traversé le ciel, certains témoins évoquant même une détonation sourde voire un grondement accompagnant l’apparition céleste.

On se souvient que la désintégration d’une météorite dans le ciel russe, au-dessus de l’Oural, il y a plus de deux ans, avait fait beaucoup parlé d’elle… D’une part pour le calibre exceptionnel de l’engin (un diamètre compris entre 15 et 17 mètres, pour une masse comprise entre 7000 et 10000 tonnes), mais aussi en raison du très grand nombre de vidéos disponibles, la faute aux « dash-cams », ces caméras embarquées permettant de filmer ce qu’il se passe sur la route et de se prémunir contre les fraudes à l’assurance, pratique endémique en Russie.

Peu de dash-cams de ce côté-ci du Caucase, mais un automobiliste autrichien a tout de même immortalisé ce moment dans la région du Tyrol, ainsi qu’un automobiliste allemand dans les environs de Fribourg-en-Brisgau.

Par Rahman Moonzur

L’histoire de Jupiter expliquerait la singularité de notre système solaire

Jupiter aurait détruit sur son passage une première génération de ces grandes planètes rocheuses similaires à la nôtre, avant de voir son orbite se stabiliser, selon un article paru lundi dans les Comptes-rendus de l’Académie américaine des sciences (PNAS).

Cette théorie pourrait expliquer pourquoi notre système solaire est très différent des centaines d’autres systèmes planétaires découverts ces dernières années.

« Nous pouvons désormais regarder notre système solaire dans le contexte de tous ces autres systèmes stellaires et constater que l’une des caractéristiques les plus intéressantes est l’absence de planète à l’intérieur de l’orbite de Mercure », la plus proche du soleil, relève Gregory Laughlin, professeur d’astrophysique à l’Université de Californie à Santa Cruz, co-auteur de cette étude.

« Le système planétaire standard de la Voie Lactée est apparemment formé d’un groupe de ‘super-Terres' » dont l’orbite est très proche de leur étoile », poursuit l’astrophysicien pour qui « notre système solaire paraît être de plus en plus une bizarrerie ».

Au moment de la formation de Jupiter et de Saturne, il est possible que des planètes rocheuses dotées d’une atmosphère très épaisse se soient formées près du soleil à partir d’un disque de gaz et de poussière pour devenir des « super-Terres » typiques. C’est le cas d’un très grand nombre d’exoplanètes découvertes en orbite autour d’étoiles ces dix dernières années.

Alors que Jupiter avançait à l’intérieur du système solaire, les perturbations gravitationnelles de la planète géante auraient provoqué une série de collisions entre les autres planètes et des astéroïdes, les réduisant en morceaux.

Les débris se seraient alors fondus dans le disque dense autour du soleil détruisant dans ce processus toutes les super-Terres qui venaient de se former.

Ces débris auraient ensuite servi à former une seconde génération de planètes: Mercure, Vénus, la Terre et Mars.

Ces nouvelles planètes sont d’ailleurs plus jeunes que celles se trouvant sur des orbites plus éloignées comme Uranus, Neptune et pluton, soulignent ces scientifiques.

De plus, ces planètes plus jeunes sont également moins massives que les super-Terres et ont des atmosphères beaucoup moins épaisses, relève Gregory Laughlin.

« Une des prédictions de notre théorie c’est que des planètes rocheuses semblables à la Terre avec une pression atmosphérique relativement faible, sont rares », note-t-il.

Selon cet astrophysicien, la formation de Mercure, Vénus, de Mars et de la Terre a été rendue possible par la présence de Saturne, qui a permis de maintenir Jupiter sur une orbite plus éloignée du soleil que ce n’est en général le cas pour ces géantes gazeuses.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Des épreuves sportives pour « Superhumains » en marge des JO 2020 ?

Les technologies d’assistance et la robotique pourraient donc permettre à n’importe qui de posséder des « aptitudes de superhumain » et de rivaliser avec des athlètes entraînés et des adultes en bonne condition. Cependant, l’idée n’est pas que la technologie seule détermine le résultat, comme le confirme Masahiko Inami, professeur en valorisation du potentiel humain à l’Université de Keio. Ainsi, les règles devront être étudiées afin de laisser de l’importance aux capacités des individus et à leur effort.

Le professeur Inami travaille notamment sur des lunettes qui donneraient au sportif, via deux caméras portées sur la tête, la vision de ce qui se trouve devant et derrière lui simultanément, soit de manière superposée, soit en parallèle, ce qui pourrait démultiplier les capacités de perception du joueur. Un autre exemple de jeu est développé par Takuya Nojima, professeur associé à l’Université d’Électro-Communications, combinant le dodgeball américain et un jeu de rôle, où les scores attribués varient selon les personnes et où les contacts sont détectés par des capteurs.

Le comité est à la recherche de partenaires afin de développer ses activités et des avis du public afin d’améliorer ses projets. Mis en place en 2014 suite à l’anniversaire des 50 ans des derniers Jeux Olympiques organisés à Tokyo, en 1964, ce comité est constitué d’une quarantaine de membres d’horizons divers (chercheurs, prothésistes, anciens athlètes et réalisateurs de jeux, etc).

Pour en savoir plus :

[email protected] ;

– le site du comité des sports pour les « superhumains » (en japonais), Superhuman Sports Society ;

– sur le site du Asahi Shimbun, 14 février 2014 (en anglais) : « Superhuman sports of the future for anyone could be on the horizon for 2020« .

Source : bulletins-electroniques.com

Le caméléon utilise des nano-cristaux pour changer de couleur

Le caméléon est un animal incroyablement surprenant. Avec ses yeux aux mouvements indépendants, sa langue projetable à plus de 20 km/h et ses changements de couleurs, ce lézard possède des propriétés rares dans le monde animal. Parmi elles, sa capacité à modifier la couleur de sa peau a longtemps intrigué les scientifiques. Alors que beaucoup de croyances entourent le caméléon, une équipe de scientifiques suisses a mis à jour un mécanisme jusque-là mal connu. Le caméléon possède dans sa peau des cellules iridophores, c’est-à-dire des cellules contenant des pigments mais dont la taille peut être modifiée par le système nerveux. En jouant sur la taille de ces nano-cristaux, le caméléon modifie les longueurs d’onde absorbées et peut s’afficher dans des couleurs différentes.

Les chercheurs de la faculté des sciences de l’Université de Genève se sont tout particulièrement intéressés au caméléon panthère mâle. Originaire de Madagascar, celui-ci est capable de passer de couleurs douces à très vives rapidement. Le caméléon utilise sa couleur principalement pour communiquer avec ses congénères et afficher clairement son humeur. À tendance séductrice, le caméléon montre des couleurs vives et claires ; d’humeur guerrière, il présente plutôt des teintes sombres. Désormais, on sait que ces variations reposent sur deux critères : les pigments et la taille des cellules iridophores.

Dans le cas du caméléon panthère, une deuxième couche de cellules existe en profondeur sous la peau. Cette couche est composée de cellules plus grosses que celles présentes en surface, dont le rôle est de réfléchir la lumière infra-rouge et ainsi de se protéger du soleil. Entre la première couche de nano-cristaux, plus dense et dédiée à la sélection de la couleur, et la deuxième agissant comme filtre solaire, le caméléon dispose d’une peau multi-fonctions très efficace.

Par Audrey Loubens

Le 3Doodler est le premier stylo pour dessiner dans l’espace

Il coute moins de 100€ et est en train de révolutionner l’art graphique ! Le 3Doodler est un stylo 3D permettant de dessiner en 3 dimensions. Fini le bon vieux dessin sur sa feuille, place à la sculpture dessinée. Ce stylo nouvelle génération mesure 18 cm sur 24 cm et pèse 200g. Une tige de plastique remplace la cartouche d’encre d’un stylo classique. Une fois le stylo branché, il ne reste plus qu’à appuyer un bouton situé sur le dessus du 3Doodler afin de faire chauffer le plastique qui, une fois fondu, s’écoule de la pointe. La résistance utilisée chauffe à 270°.

Le plastique utilisé, qu’il s’agisse de PLA ou d’ABS, se solidifie quasi-instantanément grâce à un petit ventilateur intégré. L’œuvre d’art réalisée est donc figée rapidement, de quoi envisager des dessins complexes comme une tour Eiffel, une Statue de la liberté, un chien, un dragon ou une tortue Ninja.

 Le 3Doodler n’a aucune limite si ce n’est celle de votre imagination et votre temps libre. Toutefois si le stylo est affiché à un tarif abordable, comptez environ 9€ pour 25 tiges de couleur (bleu, rouge, blanc, jaune, vert, violet, marron…) ce qui n’est pas tant que ça pour dessiner. WobbleWorks, la société  qui a quand même raflé 1.7 millions lors de sa campagne de financement participatif,  propose sur son site des patrons pour s’initier à l’utilisation du 3Doodler. 

Mais à quoi peut bien servir un stylo 3D ? A s’amuser, et c’est déjà pas mal. Certains redoublent d’ingéniosité pour imaginer les objets les plus fous ou surréalistes à dessiner en volume. Par exemple, le studio de mode SHIGO, à Honk-Kong, n’a pas hésité à se lancer dans la fabrication d’une « robe coquillage », un projet qui a duré 3 mois. De leur côté, les inventeurs du 3Doodler ont réalisé un drone en moins de 3h !

  • Créez votre propre drone avec le 3Doodler :

Par Audrey Loubens

5G, internet des objets, mouvement maker : les tendances 2015

L’observatoire des tendances 2015 publié par NI revient sur 4 tendances déjà bien marquées :

  • 5G : L’Internet pour tous et pour tout ;
  • L’Internet des Objets va faire rouiller les équipements de test automatique de grande envergure ;
  • L’Internet des Objets Industriels ;
  • L’influence du mouvement Maker.

Richard Keromen, ingénieur test et RF chez National Instrument, nous présente ces tendances :

Production et montage : Bruno Decottignies

Bill Gates se méfie de l’intelligence artificielle

En matière d’intelligence artificielle, Mr Gates n’est pas le seul à penser que la situation pourrait nos échapper. D’autres pointures telles que Elon Musk, l’emblématique patron de Tesla Motors et de Space X, ainsi que Stephen Hawking, professeur de mathématiques et physicien théoricien britannique dont la « vie extraordinaire » a été traduit récemment sur grand écran, ont le même point de vue… qui est que nous ne devons pas concevoir des machines au pouvoir de réflexion supérieur à celui de l’être humain.

La super­intelligence artificielle est une menace pour l’humanité. Celui qui a co­fondé Microsoft en 1975 a d’ailleurs exprimé son inquiétude lors d’une discussion sur le site web communautaire Reddit. Il précise « qu’au début les machines accompliront de nombreuses tâches pour nous, que cela devrait être positif si nous le gérons bien » mais qu’à un moment donné, probablement « dans quelques décennies, l’intelligence des machines sera assez forte pour devenir un sujet de préoccupation ».

Ce n’est donc pas une menace immédiate, rassurons­nous, l’intelligence artificielle est encore balbutiante. Non, il s’agit avant tout d’une mise en garde encourageant à la méfiance. Pour Bill Gates, le développement de l’intelligence artificielle doit être assuré avec une grande précaution.

Car si l’IA est encore limitée, il redoute le jour où les robots seront dotés d’une conscience. Il rejoint ainsi la position d’Elon Musk, qui dans ce souci d’encadrement de la recherche, s’est délesté de dix millions de dollars au profit de l’association Future of Life Institute.

Il semble évident et nécessaire qu’une réflexion plus poussée sur le sujet devrait être menée au niveau national et international. Scientifiques et entrepreneurs de pointe sont de plus en plus nombreux à penser qu’il faudrait instaurer un cadre éthique dans ce domaine, ajuster les lois, pour s’assurer simplement comme le dit le dirigeant de Tesla « que nous ne faisons rien de stupide ».

D’un point de vue extérieur cependant, il peut paraître assez étrange que ce soient ceux-là même qui conçoivent actuellement l’intelligence artificielle qui en ait le plus peur. Mais c’est aussi rassurant, d’une certaine manière, de voir que son développement n’est pas pris à la légère. Et que des arrangements sont mis en place afin d’éviter, comme le prédit funestement Stephen Hawking, que les humains ne soient dépassés par le développement de l’intelligence artificielle, « limités par leur lente évolution biologique », et ne soient en fin de compte devenus inutiles et remplacés comme nous remplaçons nos outils électroménagers devenus obsolescents.

Reste à savoir si cela représente une technique de communication, en amont, pour étouffer les craintes du public quant aux machines intelligentes à venir, étayées à la fois par ces sommités et par de nombreux films de science­fictions (Matrix, I. Robot, Blade Runner…). Car en affichant ainsi leurs préoccupations, ils démontrent aussi leur sérieux.

Alors faut­il vraiment avoir peur des machines autonomes comme le pensent Bill Gates, Elon Musk et Stephen Hawking ? À priori non, pas dans l’immédiat. La complexité de l’intelligence humaine est telle que nous ne sommes pas en mesure de faire émerger une conscience artificielle. L’architecture informatique est encore très basique et l’idée même qu’une intelligence artificielle se développe elle­même à un rythme exponentiel demeure pour le moment dans le domaine de la science­fiction.

En revanche, définir les effets de la robotisation sur l’emploi reste difficile. Sur ce point, les avis divergent. Les partisans estiment que sans une plus forte robotisation, l’industrialisation française coure à sa perte, menacée par les délocalisations des entreprises. La robotisation serait de fait un outil pour baisser les coûts de production qui nous permettrait d’atteindre une compétitivité égale à celle de la Chine. C’est en tout cas ce que pense le syndicat des machines et technologies de production (Symop.) Alors que les opposants craignent que la robotisation entraîne un plus haut taux de chômage, que les tâches à l’origine destinées aux humains soient effectuées par les machines ou les ordinateurs.

Seul l’avenir nous dira si notre confiance dans les machines n’était pas erronée et que cette crainte étayée par les sommités de l’innovation n’était pas exagérée.

Par Sébastien Tribot

Imprimante 3D: « Il faut se préparer à l’usine du futur »

Le CESE préconise à l’adresse des pouvoirs publics de « créer un écosystème favorable en France », en misant sur le développement des formations et des qualifications et notamment « l’apprentissage de l’informatique et l’utilisation d’imprimantes 3D dès l’âge de 5 ans ».

Le CESE demande également dans son projet d’avis « une clarification rapide des intentions des pouvoirs publics quant à l’avenir des 34 plans industriels et plus particulièrement celui dédié à +l’usine du futur+ ».

« Cette technologie n’a attiré que depuis 3 ou 4 ans l’attention des médias grands public, en raison de l’accroissement considérable de ses applications, réelles ou potentielles », relève le CESE dans son projet d’avis intitulé « Innovations technologiques et performance industrielle globale: l’exemple de l’impression 3D ».

L’impression 3D recouvre en réalité toute une série de procédés qui ont en commun de fabriquer des objets, permettant d’adopter directement des formes précises et complexes.

L’impression 3D est désormais considérée – avec l’internet mobile, l’internet des objets, le Cloud computing (informatique en nuage), le Big data (mégadonnées), l’automatisation des métiers du savoir, la robotique de pointe ou encore les matériaux avancés – comme « l’une des technologies liées au numérique susceptibles de transformer profondément les modes de production et les modèles économiques actuels ».

Cette technologie de l’ère numérique touche des secteurs comme celui de la santé (prothèses et implants sur mesures), de l’aéronautique, la bijouterie, l’horlogerie ou encore l’industrie du jouet.

Elle permet encore « la personnalisation des objets », souligne le CESE qui reconnaît néanmoins que son « impact sur le volume de l’emploi demeure encore incertain ».

Le Conseil insiste sur le fait que l’impression 3D a été inventée au même moment (1984) en France et aux États-Unis mais que ces derniers représentent 38% du nombre d’imprimantes 3D, alors que la France n’occupe que le 7e rang mondial, avec un peu plus de 3%.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

De la glace carbonique comme source d’énergie

En déposant de la glace carbonique sur une surface suffisamment chaude, c’est-à-dire dont la température est supérieure à son point d’ébullition, de la vapeur se forme. Celle-ci peut alors être utilisée pour entraîner une turbine. C’est le principe mis en œuvre par une équipe de l’Université de Northumbria en Grande-Bretagne. Les chercheurs exploitent l’effet Leidenfrost qui explique comment une fine couche de vapeur se forme autour d’une goutte de liquide déposée sur une surface plus chaude que la température d’ébullition du liquide concerné.

La goutte ne s’évapore plus, ainsi protégée par la couche de vapeur, mais lévite au-dessus de la surface. Les chercheurs ont appliqué ce principe à la glace carbonique, avec succès. La vapeur dégagée a pu faire fonctionner une turbine en aluminium préchauffée à une température comprise entre 300 et 500 °C, elle-même couplée à une bobine électromagnétique. Ce système permet donc de générer de l’électricité avec comme matière première de la glace carbonique.

Le concept est particulièrement adapté à la conquête de la planète Mars, dont les sols contiennent une grande quantité de glace carbonique. En installant un système similaire, des colons pourraient produire de l’électricité de façon autonome et infinie. Toutefois, cette application se veut à long terme et d’autres utilisations plus « terre à terre » pourraient intéresser les industriels comme le forage en haute profondeur et la micro-mécanique.

Par Audrey Loubens

Le CIRC classe le glyphosate « cancérigène probable »

Les associations tirent la sonnette d’alarme depuis longtemps pour dénoncer la toxicité des insecticides à base de glyphosate sur le terrain. Le glyphosate est la matière active la plus utilisée au monde dans les herbicides en agriculture et pour les jardiniers amateurs. Générations Futures, notamment, « se félicite de cette classification qui reconnait la dangerosité avérée du glyphosate », dans un communiqué du 20 mars.

Mais la classification par le CIRC n’oblige pas les Etats à prendre des mesures de protection pour les professionnels et les citoyens. Selon le réglement européen 1107/2009 (Annexe II point 3.6.3), « une substance active, un phytoprotecteur ou un synergiste n’est approuvé(e) que si, sur la base de l’évaluation de tests de carcinogénicité effectués […] il/elle n’est pas – ou ne doit pas être – classé(e) cancérogène de catégorie 1A ou 1B », c’est-à-dire si il/elle n’est pas cancérogène avéré. Le glyphosate, en tant que cancérogène probable (groupe 2A), n’entre donc pas dans le cadre d’application de ce réglement. 

Néanmoins, les experts du CIRC rappellent qu’ « il revient aux gouvernements et aux autres organisations internationales de recommander des réglementations, des législations ou des interventions de santé publiques ». En réaction, Générations Futures demande « une réévaluation immédiate par l’EFSA du glyphosate ». Parallèlement, l’association demande le retrait du marché, et notamment des jardineries, des pesticides à base de glyphosate. 

A l’occasion de cette nouvelle classification, deux autres insecticides – malathion et diazinon – deviennent également des cancérigènes « probables ». Les insecticides tetrachlorvinphos et parathion, qui font déjà l’objet d’interdictions ou de restrictions dans de nombreux pays, font quant à eux leur entrée dans la catégorie des cancérigènes possibles pour l’homme.

Les formulations commerciales sont encore plus toxiques !

Si cette nouvelle classification met en lumière la toxicité du glyphosate, il ne faut pas oublier qu’il est additionné d’adjuvants également toxiques dans les formulations commerciales. Selon une étude du Professeur Gilles-Eric Séralini parue en 2014, les adjuvants ajoutés au glyphosate dans les formulations d’herbicides comme le Roundup augmentent considérablement la toxicité de la seule matière active glyphosate pour des cellules humaines. Il rappelait alors que la toxicité à long-terme de ces formulations n’était pas évaluée. 

« L’Anses elle-même a relevé le manque des tests sur les effets chroniques des pesticides tels qu’ils sont vendus et utilisés comme une faille majeure dans le dispositif d’évaluation », rapelle François Veillerette, porte parole de Générations Futures.

Une interdiction récente du Roundup au Sri Lanka

Début mars, avant la parution cette nouvelle classification, l’utilisation du glyphosate était interdite au Sri Lanka sur directive du président Mahinda Rajapaksa. Cette interdiction a été prise en raison du rôle suspecté de l’herbicide dans une maladie chronique grave des reins d’origine inconnue touchant actuellement des dizaines de milliers d’agriculteurs du pays.

« Nous demandons au gouvernement de saisir l’Anses d’une demande d’expertise sur ce sujet en urgence afin de réévaluer les risques posés par la molécule », insiste encore Générations Futures. 

Par Matthieu Combe, journaliste scientifique

Eclipse solaire: l’Allemagne passe avec succès le stress-test de sa transition énergétique

Tennet, l’un des quatre opérateurs chargés de la gestion du système électrique du pays, a communiqué via Twitter sur la fréquence du réseau électrique tout au long de l’éclipse. La fréquence du réseau doit être maintenue à 50 Hertz. L’amplitude de fluctuation considérée comme acceptable est de ± 0,50 Hz autour de 50 Hz. ​« En fonctionnement normal la fréquence doit être comprise entre 49,8 et 50,2 Hz. En dessous de 48,8 Hz (au dessus de 52 Hz) il y a un début de perte de contrôle de la charge. » explique le site EnergiePourDemain.fr réalisé notamment avec la collaboration du CNRS et de l’ADEME. « Si la fréquence descend au dessous de 47 Hz il y a perte complète de la charge et le réseau s’effondre. Pour le remettre en marche cela peut demander plusieurs jours. »

La déviation maximale observée par l’opérateur Tennet durant l’éclipse a été de +0.05 Hz à 11H08, ceci consécutivement à la remontée de la production solaire PV. 0,05 Hz c’est 10 fois moins que le niveau maxi acceptable. La régulation de fréquence s’est donc déroulée sans embûches.

A 9H45, juste avant l’éclipse, la puissance solaire PV délivrée était de 13,3 GW (animation disponible ici). Une heure plus tard elle avait sombré à 5,1 GW, le niveau minimum car l’éclipse n’était pas totale. A 12H00 elle était déjà remontée à 19,4 GW puis à 20,3 GW à 13H. Ceci sur un maximum théorique de 28 GW en cette période de l’année (veille de l’équinoxe de printemps) à cette latitude de l’hémisphère nord (48 à 54° nord). La puissance PV installée dans le pays est de 38 GWc. Le facteur de capacité du PV était ainsi de 53% à 13H, ce qui témoigne d’une belle journée bien ensoleillée. Seul le nord-ouest du pays était nuageux (voir carte ci-dessous). Le niveau d’insolation était d’environ du 3/4 du niveau maximal théorique possible à cette période de l’année en Allemagne. Un niveau idéal pour tester la capacité d’adaptation du réseau.

Entre 75 minutes (10H45 – 12H), la puissance PV a monté de 14,3 GW, ce qui est équivalent à la puissance délivrée par 14 réacteurs nucléaires tournant à plein régime. Ce qui fait une cadence de ramp-up du 190 MW par minute. L’Allemagne a démontré sa capacité à faire face à cette variation rapide en mobilisant ses STEP (stockage hydraulique gravitaire) et son back-up thermique. Démentissant ainsi les oiseaux de mauvais augure et hostiles au développement des énergies renouvelables.

En France le soleil avait rendez-vous avec Fessenheim

En France, que le temps soit ensoleillé ou nuageux, le problème ne se posait pas: la puissance solaire installée est bien trop faible pour causer un quelconque problème au réseau électrique. Et le pays dispose de 5 GW de Stations de Transfert d’Energie par Pompage (STEP, stockage hydraulique gravitaire).

A 9H30 la puissance solaire PV délivrée en France était de 1,2 GW selon RTE (sur un total d’environ 5,5 GW). Elle est tombée à 0,4 GW à 10H30. Puis est remontée à 2 GW à midi. Aucun problème n’a été constaté sur le réseau pour cette variation d’1,6 GW. C’est à dire d’amplitude inférieure à la chute de puissance obtenue lors d’une panne de la centrale nucléaire de Fessenheim (1,8 GW). Cette centrale née en 1977 soufflera ses 40 bougies en 2017.

Seul un problème en Allemagne aurait pu par effet de domino se transmettre aux réseaux des pays voisins via les interconnexions trans-nationales. L’Allemagne a démontré sa robustesse. La croissance du solaire et de l’éolien peut se poursuivre.

Une éclipse partielle aura lieu en Chine en mars 2016, pays qui compte aujourd’hui une puissance solaire installée de 28 GW et bien davantage dans un an. Et les USA connaîtront une éclipse totale en avril 2017. Cela sera l’occasion pour ces deux grands pays d’effectuer leur propre stress-test.

Par Olivier Daniélo

En savoir plus :

US 708 est l’étoile la plus rapide de la galaxie

L’étoile US708 appartient à la catégorie des astres hyper-rapides. Avec une vitesse de 1 200 km/s, il ne lui faudra que 25 millions d’années pour parvenir aux frontières de notre galaxie et se retrouver de l’autre côté. Une prouesse dont bien peu d’étoiles sont capables. Pour s’extraire de l’attraction exercée par notre galaxie, les étoiles doivent se déplacer à vitesse grand V. Mais peu d’entre elles peuvent acquérir la vitesse nécessaire de quelques centaines de kilomètres par seconde. D’ailleurs, les scénarios aboutissant à l’accélération d’une étoile restent de l’ordre de l’hypothèse.

Parmi elles, le passage de l’étoile près d’un trou noir expliquerait son accélération, ou encore des étoiles originaires de systèmes binaires dont l’une a évolué en supernova, expulsant avec force son ex-consœur. C’est probablement ce qui est arrivé à US 708. Alors qu’elle gravitait autour d’une naine blanche massive, cette dernière a explosé. US 708 s’est retrouvée éjectée avec la vitesse exceptionnelle que l‘on sait.

Les mesures concernant US 708 et réalisées sur plusieurs années ont été publiées sur Sciencesmag.org. D’après elles, l’étoile est un poids plume avec une masse deux fois inférieure à celle du Soleil. Toutefois, les astronomes supposent qu’US 708 était à l’origine une géante rouge jusqu’à trois fois plus lourde que le Soleil.

Par Audrey Loubens

Un trottoir anti-smog nettoyant l’air

Le principe de fonctionnement est connu depuis longtemps et utilisé dans d’autres domaines : le dioxyde de titane (TiO2), qui rentre dans la composition des dalles, permet, avec l’aide des rayonnements ultraviolets du soleil, de transformer les oxydes d’azote contenus dans l’air (NOx) en ions nitrates (NO3-), avant qu’ils n’aient pu se convertir en ozone (O3), responsable du smog. Le dioxyde de titane ne joue qu’un rôle de catalyseur (de photo-catalyseur ici en l’occurrence) et n’est donc pas consommé pendant la réaction de « nettoyage » de l’air. Les ions nitrates s’accumulent au sol et sont lavés par la pluie qui les achemine vers les égouts. Les concentrations sont faibles et ne peuvent constituer un danger pour la qualité de l’eau et la santé.

Dans le cas de Bottrop, 750 m2 de béton ont été installés à un croisement routier qui devrait être capable d’éliminer 1,82 mg de NOx par heure (2,4 micro-g/m2 par heure en moyenne, d’après les informations du site de Photoment). La ville de Laupheim (Bade-Wurtemberg) avait déjà introduit Photoment en 2014 sur une surface de 500 m2. L’utilisation de ce béton, qui a pour le reste les mêmes caractéristiques qu’un béton traditionnel, conduit à un coût supplémentaire de 3 à 5 euros par m2. Son emploi doit donc être comparé avec d’autres mesures possibles pour réduire les émissions d’oxydes d’azote.

Ce produit a été conçu par l’entreprise Steag Power Minerals, en collaboration avec le producteur de dioxyde de titane Kronos Titan et avec la validation technique de l’Université de Technologie de Berlin (TU Berlin).

Source : bulletins-electroniques.com

Et aussi dans les
ressources documentaires :