La première étoile avec une étoile à neutron à la place du cœur vient d’être détectée

Les astronomes savaient que cela existait, mais personne n’en avait encore jamais vu. La théorie prédisant des supergéantes rouges hébergeant en plein cœur une étoile à neutron date de 1975, dans un article co-écrit par Kip Thorne et Anna Zytkow. Ces étoiles agonisantes sont tout naturellement appelées les objets de Thorne-Zytkow, mais jusqu’à ce jour, aucune mesure ni observation n’avaient validé la réalité de telles étoiles.

Une équipe d’astronomes américains vient probablement d’en dénicher une. L’équipe d’Emily Levesque a scruté le ciel et plus précisément la zone du Petit Nuage de Magellan. Ils y ont découvert une supergéante rouge, mais avec des propriétés particulières. L’étoile baptisée HV 2112 présente des quantités de lithium très importantes, ainsi que des taux de rubidium et de molybdène eux aussi très élevés. La présence de ces éléments en de telles proportions serait la preuve de la présence d’une étoile à neutron. Cette dernière se serait nichée dans la supergéante rouge suite à l’explosion d’une étoile appartenant à un système d’étoiles binaires, soit un ensemble de deux étoiles gravitant autour du même centre de gravité. Quand l’une des deux étoiles explose, elle donne naissance à une étoile à neutron plus petite, qui est alors littéralement avalée par la supergéante rouge.

Les observations des scientifiques américaines sont publiées dans Monthly Notices of the Royal Astronomical Society Letters.

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

Deux exoplanètes « semblables à la Terre » n’étaient que des illusions (étude)

Gliese d et g, qui, selon les calculs des astronomes, se seraient trouvées à 22 années-lumière (une année lumière équivaut à 9.460 milliards de km) de la Terre dans la « zone Goldilocks » (Boucles d’or), c’est-à-dire dans une zone assez proche et assez éloignée de l’étoile pour que de l’eau puisse y exister. Par ailleurs, la température et l’atmosphère sont propices à l’apparition de la vie et à son évolution.

Au moment de l’annonce de sa « découverte » en 2010, Gliese g, avait été décrite comme l’exoplanète la « plus comparable » à la Terre qui ait été détectée jusqu’alors.

Trop éloignées de notre planète pour être observées à l’oeil nu ou au télescope, les deux exoplanètes avaient été repérées dans les environs de l’étoile Gliese 581 grâce à l’examen du spectre de cette dernière.

Or, des astronomes de l’Université de Pennsylvania State, pensent que Gliese d et g n’étaient non pas des planètes, mais des signaux envoyés par l’étoile.

« Selon nos recherches, les deux planètes dont tout le monde parle n’existent malheureusement pas », a expliqué Suvrath Mahadevan, co-auteur de l’étude parue dans la revue Science.

« Ce qui avait d’abord été perçu comme des signaux envoyés par les planètes était en fait causé par l’activité stellaire », a-t-il déclaré à l’AFP.

En d’autres termes, les champs magnétiques ou des taches solaires pourraient avoir perturbé la lecture des signaux faite par les astronomes.

Les scientifiques avaient « découvert » six exoplanètes autour de Gliese 581. Mais en écartant l’existence de Gliese g et d –et celle d’une troisième, Gliese f–, il n’en resterait plus que trois, dont aucune n’est habitable.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Royal mise sur la biomasse pour la transition énergétique

Le projet de loi de programmation pour un nouveau modèle énergétique a été présenté par Ségolène Royal le 18 juin 2014. En ouverture du Colloque National Biomasse, elle a détaillé plusieurs annonces concernant la biomasse. Ainsi, « la biomasse contribue largement à la stratégie pour les énergies renouvelables ; le bois énergie est la première source d’énergie renouvelable en France, il représente aujourd’hui 80% de la chaleur renouvelable », note-t-elle.

Les bioénergies dans leur ensemble, c’est-à-dire le bois énergie, le biogaz et les biocarburants, pour la production de chaleur, de carburants, de gaz et d’électricité sont appelés à se développer rapidement. Le projet de loi prévoit en effet un objectif de 32 % d’énergies renouvelables dans la production d’énergie finale en 2030. Dans le détail, nous devrions atteindre en 2030, 40 % d’électricité d’origine renouvelable, 38% de chaleur d’origine renouvelable, 15 % de biocarburants, « un objectif de biogaz injecté dans le réseau étant évalué autour de 10  % », précise Ségolène Royal. Néanmoins, les détails plus précis, à savoir quelle sera la part de la biomasse dans le mix électrique et quelle sera la proportion de biomasse dans la production de chaleur ne sont pas encore connus. Simplement, plusieurs mécanismes sont mis en place pour lancer des dynamiques de développement.

Développer la méthanisation

Ségolène Royal attache « beaucoup d’importance » à la méthanisation. Pour accélérer son développement, elle lance un appel à projet pour 1 500 projets de méthanisation sur l’ensemble du territoire en 3 ans. La ministre veut créer une dynamique et ne pas freiner les ardeurs. « Si ça se fait en un an,  nous reconduirons l’appel à projet l’année prochaine », insiste-t-elle. Elle lance un objectif parallèle : simplifier les formalités administratives pour que les projets puissent être achevés en 2 ans, au lieu des 4 ans nécessaires actuellement.

Fin 2013, 271 installations de production d’électricité à partir de biogaz étaient raccordés au réseau électrique. « La filière biogaz est en bonne voie d’atteindre l’objectif de 625 MW installés en 2020 », prévoit-elle. Rappelons que la CSPE contribue au développement du biogaz à hauteur de 56 millions d’euros par an et le Fonds déchets de l’ADEME à hauteur de 33 millions d’euros en 2013.

Développer la chaleur renouvelable

On retrouve la même volonté de développement du côté de la production de chaleur à partir d’énergies renouvelables. Le mécanisme principal pour y parvenir est le renforcement du Fonds Chaleur de l’ADEME. Celui-ci attribue des aides financières pour le développement des réseaux de chaleur, le solaire termique, la géothermie, les chaudières biomasse et les énergies de récupération, notamment issues d’incinérateurs.

« Le Fonds chaleur de l’ADEME sera renforcé et son montant sera doublé sur trois ans », annonce Ségolène Royal, passant à 400 millions d’euros pour la période 2015-2017, « mais si les crédits sont consommés sur un an, on recommencera l’année suivante », insiste là encore la ministre. « Il n’y a pas de limites », juge-t-elle. On peut tout de même se demander où est-ce qu’elle trouvera les fonds si une telle situation devait se produire.

Pour accélérer le développement de chaufferies collectives biomasse, la ministre incite également les professionnels et les collectivités à se tourner vers les nouveaux prêts à 2 % de la Caisse des dépôts et consignations (CDC) issus du fonds dédié à la transition énergétique doté de 5 milliards d’euros. Environ 500 millions d’euros devraient être réservés aux énergies renouvelables et ces prêts sont accordés sur 20 à 40 ans, sans apport initial.

Le projet de loi projette également de développer le recours au chauffage au bois dans les rénovations et constructions. L’objectif est ainsi d’atteindre 9 millions de foyers français équipés d’un dispositif de chauffage au bois à l’horizon 2020 , contre 7,4 millions actuellement. Pour encourager les ménages à agir, un allègement d’impôts pour les particuliers à hauteur de 30% est mis en place.

Enfin, dès 2015, le Gouvernement lancera chaque année un appel à projet pour des installations en cogénération biomasse de plus d’un mégawatt.

Par Matthieu Combe, journaliste scientifique

Et aussi dans les
ressources documentaires :

La consommation énergétique des sites internet très inégale (étude)

La moyenne de l’énergie consommée par les 600 sites, dont les 100 les plus consultés, est de 60 watt-heures (Wh) pour 1.000 pages consultées, ont indiqué lors d’une présentation à la presse Olivier Philippot et Thierry Leboucq, membres de Green Code Lab.

Mais la différence entre les sites est énorme: « les meilleurs consomment 10 watt-heure et les plus mauvais 259 watt-heure », ont précisé les artisans de ce projet de mesure inédit, baptisé « Web energy archive » et développé avec le soutien de l’Agence de la maîtrise de l’énergie (Ademe).

« Nous nous sommes intéressés uniquement à la consommation des utilisateurs des sites, car jusqu’ici l’attention s’est plutôt focalisée sur les serveurs des data-centers », ont souligné les spécialistes de l’écoconception, qui prend en compte l’impact environnemental des produits.

Or, si la consommation des utilisateurs est plus diffuse, elle est aussi la face cachée de l’iceberg: selon les calculs de Green Code Lab, la consultation des 100 sites français les plus visités équivaut à une consommation de 8 gigawatt-heure par an côté utilisateurs, l’équivalent de la consommation annuelle de 3.000 foyers. Les serveurs utilisés, eux, consomment 0,58 GWh, estime-t-on.

« Les développeurs aujourd’hui ne se soucient pas du tout de l’énergie qui sera consommée et du matériel qu’il faudra pour utiliser leurs produits », a expliqué Thierry Leboucq. « Il est urgent de mettre en place de bonnes pratiques », estime-t-il, alors que les économies d’énergie sont une préoccupation grandissante.

En agissant sur différents facteurs (type de langage informatique utilisé, taille des éléments image et vidéo, nombre de requêtes lancées vers des serveurs à chaque connexion, etc.), « la consommation peut être fortement réduite », assure le spécialiste, ce qui aura aussi comme effet d’accélérer la vitesse de chargement du site.

Alain Anglade, ingénieur à l’Ademe, souligne également que « mieux vaut surfer sur une tablette ou un smartphone, que sur un ordinateur », qui multiplie au moins par cinq la consommation d’énergie pour aller sur un site.

Le projet « Web energy archive » a aussi montré que « la consommation varie d’un navigateur à un autre », note Olivier Philippot, Chrome étant plus énergivore que Firefox et Internet explorer.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Bruxelles veut jeter les déchets dans les poubelles de l’histoire

Dans un projet de directive visant à remettre à plat la législation en matière de gestion des déchets, l’exécutif bruxellois prône l’abolition en 2025 de la mise en décharge des déchets recyclables.

La Commission demande aux Etats de redoubler d’efforts, en portant d’ici 2030 à 70% la part des déchets dits « municipaux » recyclés.

Pour les emballages en particulier, le pourcentage devra être de 80%, avec toutefois plus d’indulgence pour le plastique, où l’objectif est de 60%, que pour le papier ou le fer, qui devront être recyclés à hauteur de 90%.

La Commission préconise aussi, mais sans l’imposer aux Etats membres, de réduire d’ici 2025 d’un tiers le gaspillage alimentaire et les déchets marins. Elle conseille aussi de réserver l’incinération aux seules ordures non recyclables.

Selon la Commission, un tel effort générerait des économies de l’ordre de 600 milliards d’euros, et permettrait de créer 180.000 emplois directs.

Il permettrait à l’UE de maîtriser sa production de déchets, de l’ordre de 2,5 milliards de tonnes en 2011. Seuls 42% d’entre eux ont été recyclés en 2012, le reste étant mis en décharge ou incinérés, avec d’importants écarts entre Etats.

Six pays arrivent en tête, avec moins de 3% des déchets recyclables mis en décharge (Allemagne, Autriche, Belgique, Danemark, Pays-Bas et Suède), mais quatre stagnent (Roumanie, Malte, Lettonie et Grèce), avec plus de 80% des ordures jetées. Entre ces deux pôles, le pourcentage de recyclage est de l’ordre de 50%.

En domestiquant ses poubelles, l’UE peut accélérer sa mutation vers « l’économie circulaire, où le réemploi, la réparation et le recyclage deviennent la norme, et les déchets font partie du passé », a souligné la Commission.

Pour le commissaire européen à l’Environnement, Janez Potocnik, la transition s’impose si l’UE veut rester compétitive « dans le monde du 21e siècle, des économies émergentes et des millions de nouveaux consommateurs ».

« Il y aura des résistances » tant nationales qu’industrielles, a-t-il admis. Mais il a appelé les réfractaires à prendre conscience qu’à l’avenir, « il y aura de la croissance verte ou il n’y aura pas de croissance ».

Les ONG environnementales ont salué dans ces propositions un pas en avant, mais l’ont jugé insuffisant, réclamant notamment des mesures strictes pour limiter l’incinération, afin d’éviter que les Etats n’y recourent comme solution de rechange aux décharges.

L’une d’entre elles, le Bureau européen de l’Environnement, a aussi souligné la nécessité que gouvernements et députés européens imposent l’harmonisation du calcul des taux de recyclage proposée par la Commission, pour que les Etats ne comptabilisent que ce qui est envoyé au recyclage final et ne gonflent pas les taux de recyclage en incluant les matériaux mal triés.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Le Sénat corrige la loi sur les ondes

« Nous sommes furieux ». Laurence Abeille, la députée EELV à l’origine de la proposition de loi, ne décolère pas. Les Sénateurs  ont procédé à des modifications majeures de son texte, contrant ainsi sa volonté de mieux encadrer les rayonnements et d’influer sur les opérateurs téléphoniques. 

Pourtant adoptée en janvier par l’Assemblée Nationale, la « proposition de loi relative à la sobriété, à la transparence et à la concertation en matière d’exposition aux ondes électromagnétiques » a succombé avant même la tenue des débats. En effet, le rapporteur du texte, le sénateur PS Daniel Raoult, a imposé de sérieuses coupes. Ainsi, exit l’interdiction de la publicité pour les terminaux mobiles, plus de coupure du wifi dans les écoles hors utilisation pédagogique, pas de mesure fréquence par fréquence, pas besoin de simulation de l’exposition avant la pose d’une antenne relai ni de concertation des riverains.  Voilà qui a rassuré les parlementaires UMP qui s’étaient opposés à cette loi, la jugeant anxiogène et contraire à l’amélioration de la couverture réseau.  Idem du côté des opérateurs de téléphonie qui ne cachaient pas leur soulagement.

Alors que restait-t-il ? Et bien pas grand-chose, à part le maintien de l’interdiction du wifi dans les établissements accueillant des enfants de moins de 3 ans.

Suite à sa deuxième lecture le 26 juin, le texte de loi a finalement été adopté dans une version allégée intermédiaire. Ainsi, le texte a réintégré des mesures de concertation lors de l’installation d’antennes relai, impose le kit « mains libres » et interdit le wifi dans les écoles (sauf usage pédagogique). 

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

Royal veut faire une énergie d’avenir du bois de chauffage de son enfance

Fait méconnu, le « bois énergie » (l’utilisation du bois comme combustible) est la « première source d’énergie renouvelable utilisée en France », représentant « 80% de la chaleur renouvelable », a déclaré la ministre qui s’exprimait à l’ouverture d’un colloque sur la biomasse organisé par le syndicat des énergies renouvelables (SER) et France Biomasse énergie.

L’ancienne présidente de la région Poitou-Charentes a affirmé qu’elle avait été la « première présidente de région à équiper les lycées de chauffages à bois », malgré les oppositions, y compris au sein de sa propre majorité.

« Toute mon enfance, dans les Vosges, j’ai été chauffée au bois », a également dit Mme Royal, ajoutant qu’elle avait continué à se chauffer de cette manière « dans sa région » et invitant les industriels présents dans la salle à « améliorer la technologie des poêles à granulés à bois ».

Elle a rappelé que les nouveaux prêts de la Caisse des dépôts (jusqu’à 5 millions d’euros sur 20 à 40 ans, sans apport initial) devraient permettre d’accélérer le déploiement de chaufferies collectives biomasse. L’objectif d’équiper 9 millions de foyers (contre 7,4 actuellement) de chauffage à bois devrait être atteint grâce à « la simplification du crédit d’impôts développement durable », a-t-elle déclaré.

La ministre a cependant souligné que si « la ressource forestière est abondante en France » – elle couvre près d’un tiers du territoire – « elle est fortement sollicitée: il convient donc de l’utiliser au mieux et de ne pas la gaspiller ».

Il n’y a pas de risque en la matière, a répondu la directrice générale déléguée de l’Ademe, Virigine Schwartz, rappelant que la coupe du bois en France est très inférieure à l’accroissement naturel de la forêt.

Toutes essences confondues, la forêt française produit 85 millions de mètres cube de bois par an. Seule la moitié est récoltée.

Or ce « taux de prélèvement » pourrait être porté sans dommage à 75% afin de permettre à la France de respecter les objectifs qu’elle s’est fixés, a ajouté Mme Schwartz.

La loi de transition énergétique, dévoilée à la mi-juin, prévoit que la part des énergies renouvelables dans la consommation atteigne 23% en 2020 et 32% en 2030.

Autre sujet: si le bilan carbone de la filière est positif (émissions de CO2 dues à la combustion largement compensées par la fonction de puits carbone de la forêt) selon l’Ademe, la pollution aux particules fines générée par le chauffage au bois en « foyer ouvert » nécessite que les fabricants améliorent les performances des appareils, a souligné la ministre.

Enfin, Mme Royal recommande de sensibiliser les propriétaires d’hectares de forêt, « qui ne perçoivent pas toujours la valeur économique de leur bien ».

La France compte 3,5 millions de propriétaires de forêts, dont 70% détiennent moins d’un hectare. C’est le cas de la ministre qui, dans sa déclaration de patrimoine publiée jeudi dernier, mentionne avoir acquis en 1989 une « parcelle bois » de « 16 ares 80 ca » centiares pour 300 euros, évaluée à 500 euros à la date de la déclaration.

L’industrie du bois pèse environ 50 milliards d’euros de chiffre d’affaires en France, et emploie au total environ 450.000 personnes. La filière bois énergie pourrait représenter 85.000 emplois en France en 2015, selon la ministre.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Le monde comptera 3,2 TW de solaire photovoltaïque et d’éolien en 2030

Les deux principaux moteurs de ce changement global seront le solaire PV et l’éolien terrestre. La puissance photovoltaïque cumulée en 2030 sera de 1,9 TW (0,14 TW en 2013), soit davantage que celle de l’éolien qui atteindra 1,3 TW. La puissance installée des autres EnR (dont l’hydroélectricité) sera de 2 TW.

La part combinée du solaire photovoltaïque et de l’éolien terrestre dans le mix électrique mondial passera de 3% en 2013 à 17% en 2030 (entre 16 et 18% selon les hypothèses retenues). Le troisième élément majeur sera l’hydroélectricité. En revanche, les contributions de la bioélectricité et de l’éolien offshore seront relativement modestes, tandis que celles du solaire thermodynamique (CSP) et de la géothermie seront faibles.

Le monde se dirige ainsi progressivement vers un mix électrique « Wind Water Sun », formule de Mark Jacobson, spécialiste des questions énergie-atmosphère de l’université Stanford.

800 GW de nouvelles capacités photovoltaïques en Asie

Entre aujourd’hui et 2030 la région Asie-Pacifique va installer 1.7 TW de renouvelables dont 800 GW de solaire PV, moitié au sol et moitié sur toitures, et 500 GW d’éolien. En 2030, le tiers de l’électricité de cette région très peuplée où vivent dès aujourd’hui 2 êtres humains sur 3, proviendra des EnR.

Milo Sjardin, directeur de la région Asie-Pacifique au sein de BNEF a déclaré que « la croissance du solaire va être spectaculaire dans cette région ». Une puissance de 800 GW de solaire PV, qui sera installée principalement en Chine, en Inde et au Japon, équivaut à 13 parcs électro-nucléaires français et à 500 réacteurs EPR, soit 31 réacteurs par an pendant 16 ans ! La capacité de déploiement du solaire PV, une technologie sans aucun risque pour les populations vivant à proximité des panneaux, facile à installer, ne produisant pas de déchets toxiques à longue durée de vie, qui ne consomme pas d’eau douce et est très bien acceptée par les populations, est effectivement impressionnante.

En Europe, selon BNEF, la part des énergies renouvelables (y compris hydroélectricité) dans le mix électrique passera à 50%. Et non à 60% comme indiqué par l’AFP probablement du fait d’une confusion entre puissance et énergie, erreur répétée par de nombreux médias francophones. C’est la puissance installée renouvelable qui passera de 40% aujourd’hui à 60% en 2030. La part de la production éolienne terrestre grimpera de 6% en 2013 à 20% en 2030.

La demande électrique européenne ne va augmenter que de 9% durant les 16 années à venir selon les experts de BNEF. Ce faible niveau de croissance, du fait d’une démographie périclitante et des progrès en matière d’efficacité énergétique, aura en France des conséquences au niveau de la production électro-nucléaire dont la part dans le mix électrique doit être réduite de 75% à 50% d’ici 2025.

Les émissions de CO2 ne commenceront à baisser qu’à la fin de la prochaine décennie

La puissance installée des centrales thermiques non durables sera de 5,3 TW en 2030. Le parc de centrales fossiles va passer de 3,5 TW en 2012 à 4,7 TW en 2030, soit une augmentation d’environ un tiers.

La proportion des centrales à gaz, deux fois moins émettrices en CO2 que les centrales à charbon, va augmenter au détriment de ces dernières, en particulier aux USA où 109 GW seront fermées en conséquence de la révolution des gaz de schistes. King Coal, particulièrement polluant, n’a plus la cote outre-Atlantique. Les centrales à gaz sont davantage flexibles que les centrales à charbon et nucléaires et peuvent ainsi être combinées avec les énergies renouvelables fluctuantes.

En Asie, dépendante de gaz naturel liquéfié importé et coûteux, 434 GW de centrales au charbon vont être en revanche installées, l’équivalent de 2 nouvelles centrales par mois.

En Europe, la part du charbon dans le mix électrique va chuter de 19% en 2013 à 8% en 2030. Celle du gaz de 25% à 17%. Grâce à la croissance du solaire photovoltaïque et de l’éolien les émissions de CO2 du secteur électrique seront divisées par deux. « La baisse annuelle de 5% des émissions de CO2 sera principalement le résultat de la hausse des capacités renouvelables et de la hausse du prix du carbone qui provoquera une substitution du charbon et du lignite par le gaz » estiment les experts de BNEF.

A l’échelle mondiale « les émissions globales en CO2 devraient cesser d’augmenter à la fin de la prochaine décennie, ceci du fait de l’addition, par les pays en développement et à croissance rapide, de nouvelles capacités fossiles en parallèle aux nouvelles capacités renouvelables » soulignent les auteurs du rapport.

Les habitants des pays en développement aspirent en effet à vivre selon les standards d’Europe de l’ouest et auront besoin des énergies fossiles en transition, tout comme les européens et les nord-américains en ont bénéficié depuis le XIXème siècle. La grande majorité du CO2 anthropique présent aujourd’hui dans l’atmosphère a été émis par les occidentaux. Les représentants des pays dits « du sud » ne manquent pas de le rappeler à l’occasion de chaque grand sommet climatique.

Les énergies renouvelables, un marché de 5000 milliards de dollars, contre 2700 milliards pour les énergies non durables

En 2030 la puissance photovoltaïque installée dans le monde sera quatre fois supérieure à celle du nucléaire. Compte-tenu du fait que le facteur de charge moyen du nucléaire est environ 5 fois supérieur à celui du solaire PV, la production solaire correspondra à environ 80% de celle du nucléaire. La production photovoltaïque dépassera probablement celle du nucléaire durant la décennie 2030.

La région Asie-Pacifique va attirer 2,5 trillions de dollars d’investissements dans les énergies renouvelables, dont 1,4 trillion en Chine. En Europe 94% des investissements dans le solaire concerneront le segment du petit PV. Une situation très différente de celle de la région Asie-Pacifique où la moitié des capacités PV installées concerneront de grandes centrales.

Dans les Amériques 231 milliards de dollars vont être investis dans le petit solaire PV en toiture, soit 18% de la totalité des investissements dans le secteur électrique de ce continent. Seul le gaz naturel, avec 24% du volume des investissements en Amérique, dépassera le solaire.

Cap vers une « Solar Electric Economy »

Selon plusieurs rapports, dont un du groupe pétrolier Shell, le solaire va devenir la source principale d’énergie de l’humanité durant la seconde moitié du XXIème siècle. Le groupe Total, géant pétrolier français, a investi 1,4 milliard de dollars pour acquérir 60 % du capital de l’entreprise SunPower, anticipant la révolution solaire qui ne fait que commencer.

Mais la compétition sera rude. Président de SolarCity qui domine le tiers du marché solaire résidentiel aux USA, Elon Musk vient d’annoncer la construction d’une « giga-factory » ayant une capacité de production d’1 GW/an de panneaux solaires. Il ne s’agit, selon Elon Musk, que d’une « unité pilote » qui n’est que le début d’une série d’usines géantes capables chacune de produire 10 GW/an.

Ce visionnaire a dans cet objectif acquis pour 350 millions de dollars l’entreprise Silevo qui produit des panneaux à base de silicium et sans argent, ce qui permettra une croissance sans contrainte sur le plan des matières premières. Le silicium est le second élément le plus abondant sur Terre après l’oxygène. Cette non dépendance envers l’élément argent deviendra dans les années à venir un sérieux atout en terme de compétitivité vis à vis des groupes concurrents. Elon Musk a également décidé de construire une gigantesque usine de production de batteries, qui sera en réalité la plus grande usine jamais construite dans le monde. Ces batteries alimenteront à la fois le marché du stockage stationnaire pour assister le solaire, et le marché de la voiture électrique.

C’est ainsi un écosystème complet qu’est en train de construire ce californien, son approche est holistique. ​Il a vraiment la tête tournée vers l’avenir avec son entreprise Space X qui fait trembler l’Agence Spaciale Européenne et avec Tesla, la star de l’électro-mobilité haute qualité dont les ventes battent des records.

« Le soleil est un réacteur nucléaire libre et très pratique » a déclaré le 17 juin 2014 Elon Musk, non sans son ironie habituelle, dont la fondation a d’ailleurs donné 500.000 dollars pour la construction d’une centrale solaire au Japon suite à la catastrophe nucléaire de Fukushima et dont la fortune personnelle dépasse le bénéfice net du groupe Total en 2013. Pour Elon Musk, nous sommes en train de vivre « le mouvement d’une économie hydrocarbonée d’extraction et de combustion vers une économie électro-solaire ».

Les Chinois n’ont pas dit leur dernier mot. Ils pourraient construire des usines de panneaux solaires au Mexique, pays membre de l’ALENA, afin de contourner les taxes douanières imposées par le gouvernement fédéral américain. Et, par ricochet, celles des gouvernements européens via le traité de libre-échange transatlantique. Ou alors en Malaisie où les entreprises First Solar et SunPower ont installé une bonne partie de leur capacité de production d’où l’impossibilité pour les autorités américaines de surtaxer les panneaux solaires provenant de ce pays.

Le « 2030 Market Outlook » de BNEF, rapport majeur qui parait une fois par an, est basé sur une modélisation de l’offre et de la demande du marché de l’électricité et sur l’évolution du coût des différentes technologies.

Par Olivier Daniélo

Dans les ressources documentaires :

Electricité : les énergies renouvelables vont représenter 60% de la production européenne en 2030

L’Europe devrait développer 557 gigawatts de capacités renouvelables supplémentaires d’ici à 2030, selon cette étude réalisée par Bloomberg News Energy Finance et basée sur les tendances du marché de l’électricité, les politiques menées et le coût des différentes technologies.

La production électrique à partir de ressources fossiles comme le charbon et le gaz devrait elle passer de 48% à 27% – l’électricité tirée du charbon diminuant de plus d’un tiers (de 195 à 125 gigawatts), et le gaz augmentant légèrement de 275 à 280 gigawatts.

« Notre étude montre que les améliorations à venir sur les marchés du solaire et de l’éolien permettront d’installer de plus en plus d’équipements non subventionnés dans les années qui viennent », a commenté Seb Henbest, directeur pour l’Europe, le Moyen-Orient et l’Afrique chez Bloomberg News Energy Finance.

« Nous nous attendons à ce que l’Europe investisse près d’un trillion de dollars pour développer ses capacités de production renouvelables d’ici 2030, dont 339 milliards de dollars dans les panneaux solaires sur les toits et 250 milliards pour l’éolien en mer ».

L’amélioration de l’efficacité énergétique permettra de modérer l’évolution de la demande d’électricité à +9% entre 2014 et 2030, et l’étude prévoit une baisse de 60% des émissions de CO2 du secteur énergétique (1,3 milliard de tonnes à 564 millions).

L’Allemagne et la Grande-Bretagne seront à la pointe de cette transition énergétique, selon Bloomberg, ces deux pays représentant près d’un tiers des nouvelles capacités de production. L’Italie devrait apporter 84 gigawatts d’électricité verte avec l’éolien, quand la France développerait 75 gigawatts et l’Espagne 43 gigawatts, surtout à travers le solaire.

Au niveau mondial, Bloomberg anticipe des investissement de 7.700 milliards de dollars dans la production d’électricité, dont deux tiers pour les énergies renouvelables. La région Asie-Pacifique dépenserait 2.500 milliards, les Amériques 816 milliards, et la région Moyen-Orient / Afrique 818 milliards pour cette production durable.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

L’Europe accepte qu’un pays interdise les OGM s’il le souhaite

On ne pourra plus dire que c’est Bruxelles qui impose ses décisions. Sur le sujet des OGM en tout cas. Car depuis le 12 juin, chaque membre de l’Union Européenne est libre d’interdire la culture d’organismes génétiquement modifiés sur leur sol. Les vingt-huit ministres de l’environnement se sont donc mis d’accord pour permettre à chaque nation de choisir si elle autorise ou interdit les OGM sur son propre territoire. Une première puisque jusqu’ici, seule la Commission européenne était habilitée à en décider.

Une fois cet accord validé par le Parlement, la Commission garde le rôle d’autoriser la culture de tel ou tel OGM, mais un pays pourra demander à ne pas être concerné par cette décision afin qu’elle ne soit pas appliquée sur son territoire. De plus, chaque pays qui le souhaite pourra mandater la Commission européenne pour qu’elle demande aux fabricants de telles semences de les exclure des demandes d’autorisations.

A ce jour, seul le maïs MON810 est autorisé en Europe. Sa culture suscite de nombreuses controverses en France ainsi que des affrontements récurrents entre anti et pro-OGM. Désormais libre de décider, le gouvernement français pourrait bien choisir de l’interdire purement et simplement.

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

Quelles sont les entreprises qui ont su optimiser leur outil de production ?

Travailler sur la baisse du coût de la main d’œuvre n’est pas suffisant. Le Syndicat français des machines et technologies de production (SYMOP) en est convaincu, doper l’industrie française passe par une mise à niveau de l’outil de production. Pour aider les industriels français à aller dans ce sens, le SYMOP a décidé de créer un label. Chaque entreprise qui le souhaite peut donc remplir un dossier et demander à bénéficier. Celui-ci est attribué par un comité de labellisation selon le respect de critères objectifs. Tout d’abord, la technologie de production doit être intégrée en France par une entreprise implantée en France. Deuxièmement, les gains de productivités doivent être significatifs. Enfin, il ne doit pas y avoir de conséquences négatives sur l’emploi.

Lancée en 2012, cette initiative a labellisé 56 entreprises dès 2013 au cours de deux sessions. Cette année, une seule session a eu lieu pendant laquelle dix-sept entreprises se sont vues remettre le label Productivez ! 2014. C’est le cas de AZ METALS, un sous-traitant en métallurgie qui a divisé par deux son temps de production tout en profitant d’une baisse des coûts de 13%. Une réussite liée à la mise en place du dispositif ROBOT Start PME et au développement d’un robot dédié à la production à distance de nouvelles pièces. Les opérateurs peuvent dès lors se consacrer à la fabrication de pièces unitaires. De son côté, BEIRENS, spécialiste des cheminées industrielles mécano-soudées pour le chauffage a modernisé sa fabrication en créant une cellule de fabrication cheminée de façon à rassembler les équipements autour d’une même machine. Là encore, les salariés peuvent accroître leurs compétences en ne se consacrant plus qu’à des tâches à forte valeur ajoutée. Au final BEIRENS a vu sa capacité de production tripler et estime ses gains de productivité à 30%. Pour les FORGES DE NIAUX, expert en pièces d’usure destinées au marché agricole,  le choix de l’automatisation a aussi été bénéfique. C’est désormais un robot doté d’une visualisation industrielle intégrée qui assure la manutention et la supervision. Un système qui diminue le temps de chargement des pièces de 80%, la capacité de production sur les installations grande série a bondi de 10%.

Ainsi, en récompensant ceux qui ont fait évoluer leur process, le SYMOP veut mettre en lumière l’importance capitale des outils de production dans la compétitivité des industries françaises. En complément de la création du label Productivez !, le syndicat a décidé de décerner un prix éponyme. Pour la première fois, le prix Productivez ! a donc été décerné à trois lauréats, parmi les treize labellisés 2013 les plus représentatifs du label : Aldes, Ets. Callewaert, Société Alsacienne de Meubles, SAS Forêts et Sciages Autun, Cauquil SAS, Meca-Innov’, Simeto, Usines Desautel, Meda-Manufacturing, SD Services, Les ateliers du Vallon, Magafor et TSA Inox, réparties en trois catégories : Productivité, Innovation Process et Mention spéciale du jury. Le jury était composé de 9 experts de l’industrie mais aussi de l’économie. Autour du président Jean-Paul Papin, directeur de l’agence de programme du CETIM et vice-président des Instituts Carnot , Vincent Charlet, directeur de La Fabrique de l’Industrie, Jean-Philippe Vanot, président de ParisTech, Nicolas Baverez, économiste et éditorialiste au Point, Robin Rivaton, économiste et consultant en stratégie à la Fondapol, Patrice Desmedt, journaliste à L’Usine nouvelle, Roland Dutertre, Compagnon Chaudronnier du Devoir, Eric Fresnel, vice-président du Symop et P-DG de la société

Sleever International, et Jean-Camille Uring, président du Symop, ont remis le Prix Productivité à la Société Alsacienne de Meubles pour sa stratégie de forte automatisation. La SALM a en effet embauché 200 salariés pour la création d’une nouvelle usine dotée d’un îlot robotisé et d’une machine de découpe au jet d’eau, le tout permettant un gain de productivité de 30%. Le Prix Innovation process à échu à Cauquil SAS pour son investissement dans des équipements innovants visant à simplifier et sécuriser la production. Enfin, la Mention spéciale du jury à été décernée à Magafor. Cette entreprise investit régulièrement dans son outil de production et a créé avec un fabricant de machines un transfert rotatif autonome et autocontrôlé assisté d’un robot. Des efforts qui ont divisé par 3 les temps de production.

Une deuxième session de labellisation devrait être organisée au deuxième semestre 2014.

Pour obtenir le label : [email protected] / www.symop.com/productivez/label

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

Reach/CLP : toute l’actualité de juin 2014 2/2

Mise à jour de la liste des substances extrêmement préoccupantes (SVHC)

16/06/2014

L’ECHA a mis à jour la liste des substances extrêmement préoccupantes (SVHC) avec l’ajout de quatre nouvelles substances, classées comme CMR – cancérogènes, mutagènes et toxiques pour la reproduction (chlorure de cadmium, l’acide benzènedicarboxylique-1,2, ester de dihexyle (ramifié et droit), perborate de sodium et sel de sodium de l’acide perborique ainsi que le peroxométaborate de sodium). La liste des substances extrêmement préoccupantes (SVHC) candidates à l’interdiction dans le cadre de Reach comporte désormais 155 substances :

Les producteurs et les importateurs d’articles contenant l’une de ces quatre substances au 16 juin 2014 ont six mois pour notifier à l’Echa si la substance est présente dans des articles dans des quantités supérieures à une tonne par an et dans une concentration supérieure à 0,1%.

Plus d’information sur : echa.europa.eu/view-article/

Guide technique relatif à l’adaptation de la classification des substances et mélanges dangereux (ICPE)

16/06/2014

Le ministère de l’Ecologie et l’Institut national de l’environnement industriel et des risques (INERIS) publient une nouvelle version du guide technique relatif à l’application de la classification des substances et mélanges dangereux à la nomenclature des installations classées (ICPE).
Il intègre les évolutions de la réglementation liées à l’entrée en vigueur du règlement CLP et à la transposition de la directive Seveso 3, applicables à compter du 1er juin 2015. Jusqu’à cette date, la version antérieure du guide datant d’octobre 2010 reste la référence.

Directive SEVESO : developpement-durable.gouv.fr
Guide technique juin 2014 : ineris.fr/aida/sites/default/files

Proposition de restriction et demande d’autorisation approuvées par le RAC et le SEAC

17/06/2014

Le comité d’évaluation des risques (RAC) a adopté des avis sur les deux propositions de restriction concernant le nonylphénol et les éthoxylates de nonylphénol, et le 1-méthyl-2-pyrrolidone. Le comité d’analyse socio-économique (SEAC) a, quant à lui, trouvé un accord sur la proposition de restriction sur le nonylphénol. Les comités RAC et SEAC ont également trouvé un accord sur les projets d’avis pour les demandes d’autorisation relative aux phtalates, aux pigments de chromate de plomb et au trioxyde de diarsenic.

Plus d’information sur : echa.europa.eu/view-article

L’ECHA publie une nouvelle version de R4BP 3

17/06/2014

L’ECHA publie une nouvelle version de R4BP 3. Cette dernière version améliore l’interface utilisateur et intègre de nouvelles fonctionnalités de recherche.

Plus d’information sur : echa.europa.eu/view-article

Consultation publique pour de potentielles substances candidates à la substitution

17/06/2014

L’ECHA a lancé une consultation publique pour deux substances dont la substitution est envisageable. Les substances concernées sont : Medetomidine et triclosan . Les commentaires sont à soumettre pour le 15 août 2014.

Plus d’information sur : echa.europa.eu/addressing-chemicals-of-concern

Nouvelle consultation pour éviter les tests sur les animaux

17/06/2014

L’ECHA a lancé un appel visant à collecter des informations sur des substances pour éviter les tests inutiles sur les animaux. 18 propositions sont concernées. Les informations relatives à ces substances sont à soumettre pour le 1er août 2014.

Plus d’information sur : echa.europa.eu/information-on-chemicals

Nouvelles propositions de restrictions

18/06/2014

Deux nouvelles propositions de restriction sont en consultation publique jusqu’au 18 décembre 2014 : le bisphénol A dans le papier thermique et les sels d’ammonium dans les matériaux d’isolation en ouate de cellulose.

Plus d’information sur : echa.europa.eu/restrictions-under-consideration

Avis sur 9 substances actives

24/06/2014

Le comité des produits biocides a adopté un avis sur neuf substances actives. Les domaines d’applications des substances actives comprennent des conservateurs, un avicide et deux micro-organismes utilisés pour contrôler les moustiques et les larves de mouches noires.

Plus d’information sur : echa.europa.eu/view-article

Nouvelle proposition de classification et d’étiquetage harmonisé

24/06/2014

L’ECHA a lancé une consultation pour l’harmonisation et l’étiquetage harmonisé d’une nouvelle substance (Linalool; (S,R)-3,7-dimethyl-1,6-octadien-3-ol; dl-linalool [1], Coriandrol; (S)-3,7-dimethyl-1,6-octadien-3-ol; d-linalool [2], Licareol; (R)-3,7-dimethyl-1,6-octadien-3-ol; l-linalool [3]). Les parties intéressées sont invitées à soumettre leur commentaire sur le site de l’ECHA, et ce avant le 8 août 2014.

Plus d’informations sur : echa.europa.eu/harmonised-classification-and-labelling-consultation

Nouveau guide pratique sur les intermédiaires

25/06/2014

L’ECHA a publié un nouveau guide pratique sur « Comment déterminer si une substance est utilisée comme intermédiaire dans des conditions strictement contrôlées et de la façon de signaler les informations d’enregistrement intermédiaire dans IUCLID ». Ce nouveau guide aide les déclarants et les utilisateurs en aval à se conformer aux exigences pour les intermédiaires au titre de REACH et d’identifier les informations à signaler dans le dossier d’enregistrement. Le document donne un certain nombre d’exemples pratiques illustrant le type d’informations à fournir.

Plus d’information sur : echa.europa.eu/view-article/

Par Céline GABORIAUD, Ingénieur Environnement aux Ateliers d’Orval

Et aussi dans les
ressources documentaires :

Le télescope chilien ALMA est fin prêt

Il aura fallu attendre un moment avant que l’installation ne soit complète. Mais un peu plus d’un an après son inauguration en mars 2013 et quelques mois après sa mise en service, l’Atacama Large Millimeter Array (ALMA) peut désormais compter sur ses soixante-six antennes et prétendre au titre de plus grand observatoire astronomique du monde.

La dernière antenne, d’un diamètre de douze mètres, a donc retrouvée ses pairs récemment après avoir été tractée par des transporteurs géants jusqu’au site sur le haut plateau de Chajnantor. Elle rejoint ainsi les vingt-quatre antennes européennes, vingt-cinq américaines et seize japonaises déjà présentes. Toutefois, bien que l’installation soit terminée, le directeur de l’ALMA et ancien astronome Pierre Cox estime que le radiotélescope devrait être pleinement opérationnel en octobre 2015.

Un oeil de seize kilomètres de diamètre

Parmi ses particularités, l’ALMA est capable de percevoir les ondes millimétriques et sub-millimétriques émises par les corps célestes. Sa puissance permettra aux astronomes de sonder l’espace à la recherche des premières galaxies, celles dont l’éloignement atteint jusqu’à 10 000 millions d’années-lumière. Il pourra également traverser les épais nuages de poussières cosmiques. Après tout, lorsque les soixante-six antennes fonctionnent de concert, le radiotélescope se transforme en oeil immense au diamètre de seize kilomètres. Les données recueillies par les antennes sont ensuite transmises et traitées par un superordinateur appelé Corrélateur, capable de réaliser dix-sept quadrillons d’opérations à la seconde.

Les objectifs de ce projet mondial sont principalement d’étendre les connaissances actuelles sur la formation des planètes et des étoiles par l’observation de « l’Univers jeune ». Mais l’étude des systèmes solaires comporte une autre facette puisque les scientifiques s’intéresseront aussi à l’atmosphère d’autres planètes.

Les performances du radiotélescope emballent clairement les astronomes, qui se sont empressés de faire leur réservation. Sur les 1 380 demandes qu’à reçu l’observatoire – « le nombre le plus élevé jamais reçu par un observatoire » a précisé Pierre Cox, enchanté – « seule une demande sur cinq a été acceptée ». C’est donc une affaire qui roule. Dès sa mise en route, l’Alma a permis d’observer la collision de deux galaxies à soixante millions d’années-lumière. Et en juillet, c’est l’embryon d’une étoile géante, distante quant à elle de 11 000 années-lumière, que le radiotélescope a surveillé.

Par Sébastien Tribot

La Nasa débute un test de technologies qui pourraient poser des hommes sur Mars

L’énorme ballon gonflé à l’hélium a été lâché à 18H40 GMT depuis la base militaire de l’île hawaïenne de Kauai, 25 minutes après l’ouverture d’une fenêtre de lancement, selon les images de la télévision retransmises en direct.

Le ballon qui, une fois totalement gonflé en s’élevant dans l’atmosphère sera de la taille d’un terrain de football, transporte un vaisseau de la forme d’un disque appelé « Low-Density Supersonic Decelerator », ou LDSD, qui est attaché à un parachute géant.

Il faudra entre deux et trois heures au ballon pour atteindre 36.600 mètres, où il flottera. Peu après, le vaisseau LDSD sera largué et son moteur de fusée s’allumera pour l’amener à 54.900 mètres d’altitude, à 3,8 fois la vitesse du son, ou 4.651 kmh.

C’est alors que sera testée la première nouvelle technologie objet de ce test.

Il s’agit du ralentisseur supersonique aérodynamique gonflable en forme de beignet rond avec un trou au milieu, appelé SIAD (Supersonic Inflatable Aerodynamic Decelerator).

Le SIAD freinera le vaisseau jusqu’à une vitesse d’environ 2,5 fois la vitesse du son (3.060 kmh) avant que ne se déploie le gigantesque parachute supersonique qui freinera la descente du vaisseau pour un amerrissage en douceur, 40 minutes après son largage.

Ces nouvelles technologies sont testées à très haute altitude, car les conditions y sont similaires à celles de la haute atmosphère de Mars.

La Nasa prévoit deux autre vols du LDSD pour tester plus spécifiquement les deux technologies de freinage et d’atterrissage, le ralentisseur gonflable et le ballon.

« Si notre soucoupe volante atteint la vitesse et l’altitude prévues, ce sera un grand jour pour nous », avait dit récemment Mark Adler, le responsable du projet LDSD.

Depuis les années 1970, la Nasa utilise le même système de parachute pour freiner ses atterrisseurs et robots qu’elle pose sur la planète rouge, alors qu’ils descendent à travers la fine atmosphère martienne.

Mais, avec les projets d’exploration de Mars plus ambitieux, la Nasa aura besoin de vaisseaux spatiaux beaucoup plus lourds. Cela complique un amarsissage et requiert un système de parachute beaucoup plus puissant et élaboré.

Des vents trop forts à Kauai avaient contraint la Nasa à repousser cette expérience initialement prévue durant une fenêtre de lancement de deux semaines, début juin.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Interdiction des feux de cheminées à Paris en Janvier 2015

La question des émissions des particules fines générées par les appareils de chauffage au bois fait polémique. Dans les foyers ouverts, avec des rendements situés entre 10 et 15 %, la combustion est incomplète, pollue et brûle beaucoup de bois pour pas grand-chose. Dans un foyer fermé, un insert ou un poêle, le rendement peut néanmoins atteindre 85 % et jusqu’à 94 % pour une chaudière.

Selon l’ADEME, une cheminée à foyer ouvert émet beaucoup plus de particules fines qu’un appareil à bois performant. « Selon des estimations récentes, un foyer ouvert et un foyer fermé antérieur à 2002 émettent respectivement 97 et 91 kg de particules primaires par an, alors qu’un foyer fermé mis sur le marché après 2007 en émet 8 kg/an et un foyer fermé labellisé Flamme Verte 5 étoiles, 3 kg/an », note l’ADEME dans son avis « Bois énergie et qualité de l’air ».

Pour cette raison, la ville de Paris et des centaines de communes d’Ile-de-France ont préparé un arrêté (arrêté inter-préfectoral du 25 mars 2013) pour interdire les foyers ouverts et les appareils peu performants pour le chauffage principal. Ainsi, seront interdits l’utilisation de tous modes de chauffage au bois en Ile-de-France au 1er janvier 2015. Seuls les appareils très faiblement émetteurs de particules pourront encore être utilisés à condition d’avoir obtenu pour cela une dérogation du préfet de police. « Cette mesure n’est pas populaire », reconnaît Roland Gérard, Chef adjoint du service bioressources de l’ADEME, « mais au niveau de la qualité de l’air, cela se justifie, il n’y a pas de doutes là-dessus », poursuit-il.

Des dispositions différentes en zones sensibles et hors zones sensibles

Dans les zones sensibles pour la qualité de l’air en Ile-de-France, soit dans 435 communes, l’utilisation des foyers ouverts deviendra interdite, même en cas de chauffage d’appoint ou de flambée d’agrément. Seuls les appareils individuels de combustion de bois (les inserts, les foyers fermés, les poêles, les cuisinières et les chaudières) performants seront autorisés. Le décret définit comme performant, « un équipement qui répond à au moins une des conditions suivantes : rendement supérieur ou égal à 70 % et taux de CO inférieur ou égal à 0,12 % (à 13 % d’O2) ; dispose du Label Flamme Verte 5 étoiles ».

Hors zone sensible, les cheminées à foyer ouvert seront autorisées uniquement si elles servent de chauffage d’appoint ou d’agrément. Les autres systèmes de chauffage seront autorisés.

Les particules fines vont-elles diminuer sensiblement ?

En Ile-de-France, selon les mesures d’Airparif, le chauffage au bois résidentiel représente 23% des émissions totales de PM10 (particules inférieures à 10 micromètres) et 32 % des émissions totales de PM2,5 (particules inférieures à 2,5 micromètres).

Mais en faisant des mesures de concentration dans l’air, l’association s’est rendue compte qu’en centre-ville, seulement 32 % des particules sont dues aux émissions de l’agglomération. La grande majorité (68 %) est en réalité importée d’autres régions françaises et européennes ! Ainsi, parmi les 32 % de particules locales, la contribution du trafic et du chauffage au bois résidentiel est similaire, représentant respectivement 8 % et 7 % des particules respirées.

Dans la capitale, le long du trafic, 44 % des particules présentes sont dues au diesel et aux deux roues. 17 % proviennent des émissions de la ville et 39 % des importations d’autres régions. Au final, le chauffage au bois ne représenterait que 4 % des particules totales présentes le long des axes routiers.

Cet arrêté devrait donc entraîner une faible diminution de la concentration en particules dans la ville. Si les autres régions ne prennent pas des mesures similaires et si la part du diesel ne diminue pas dans la propulsion des véhicules, les particules fines continueront bien de nous contaminer ! Pour lutter efficacement contre les particules fines, il faudrait également prendre des mesures complémentaires pour diminuer les émissions liées au diesel, au fioul, au kérosène, au charbon, aux incinérateurs, à la combustion de biomasse à l’air libre, etc.

Par Matthieu Combe

Photovoltaïque. L’île d’Ukujima accueille le plus grand projet « solar sharing » du monde

L’approche éco-intelligente du solar sharing (« to share », partager) consiste à utiliser une même surface pour les productions végétale et photovoltaïque. La surface agricole est ainsi doublement valorisée. La ferme solaire est perchée à environ 2 mètres 50 au dessus du sol et l’on peut cultiver en dessous.

Le principe de la Milpa, version écotechnologique

De nombreuses espèces végétales se développent en effet très bien dans des conditions de semi-ombre car leur point de saturation de la photosynthèse est bas. C’est le cas des choux, laitues, épinards, pommes de terre, betteraves, fraises, pois, haricots, radis, betteraves, navets, rutabagas et autres topinambours.

Les panneaux peuvent être espacés de manière intelligente afin de laisser passer la quantité de lumière optimale pour les espèces végétales cultivées. Les Mayas, dans l’actuel Mexique, cultivaient le haricot et la courge sous le maïs, une pratique appelée « Milpa » ou « technique des trois sœurs ». Elle permet de réduire les volumes d’arrosage et d’augmenter la production des trois espèces. Dans le cas du solar sharing, les structures porteuses des panneaux solaires peuvent servir de tuteurs pour les plantes grimpantes, comme le pois et le haricot.

Les projets de solar sharing se sont répandus de manière virale au pays du soleil levant suite à la catastrophe nucléaire de Fukushima en 2011.

Nagasaki mon amour

Ukujima, tout au nord de l’archipel de Goto, préfecture de Nagasaki, est une île de 24 kilomètres-carrés dont la densité démographique est de 83 habitants par kilomètre-carré (contre 112 en France).

Le projet prévoit l’installation d’1,7 million de panneaux solaires Kyocera à base de silicium totalisant une puissance crête de 430 MW sur une surface agricole de 6,3 kilomètres-carrés. Soit le quart de la surface de l’île.

La production prévue est de 0,5 TWh par an ce qui permettra de répondre à la demande électrique de 140.000 foyers japonais standards. Elle sera exportée par 60 kilomètres de câble sous-marin vers la ville de Sasebo qui compte 261.000 habitants, soit l’équivalent de la population de la ville de Nantes.

Ce grand projet, en plus du groupe Kyocera, implique d’autres entreprises : Photovolt Development Partners Gmbh, Kyudenko Corporation, ORIX Corporation et Mizuho Bank Ltd.

C’est sur une autre île japonaise, Okinawa, qu’a été construite la première STEP à eau de mer du monde, un système de stockage de l’énergie utilisé aussi par l’île Canarienne d’El Hierro dans le cadre de son projet d’autonomie énergétique.

Des moutons à l’abri des caprices de la météo

Le grand projet solaire d’Ukujima va permettre de vitaliser l’activité agricole de l’île. Selon le site spécialisé SolarSharing, cette approche permet au Japon de multiplier par 10 les revenus des maraîchers.

En Allemagne plusieurs fermes solaires sont couplées à l’élevage de moutons. Les éleveurs ont remarqué que la présence des panneaux améliore la santé de leur cheptel car ils leur servent d’abri contre la pluie, le vent et le soleil.

Une autre façon d’économiser les surfaces consiste à réaliser des fermes flottantes sur des plans d’eau douce. « Notre système peut être installé sur des anciens lacs de carrières, des bassins écrêteurs de crues et d’irrigation, des réservoirs d’eau potable ou encore des bassins industriels pollués et des terrains inondables » explique Alexis Gaveau, directeur de la PME Ciel et Terre, spécialiste français de cette technologie.

En France le pré-projet de loi sur la transition énergétique envisage de soutenir « le déploiement de nouvelles centrales au sol (sans préjudice sur les terres agricoles).» Le modèle japonais du solar sharing et l’innovante technologie du solaire flottant permettent précisément d’éviter tout préjudice.

La production de 500 millions de kWh par an prévus au niveau de la ferme solaire d’Ukujima correspond à 2,5% de la demande électrique de la Bretagne, première région agricole française où 225 kilomètres-carrés sont utilisés pour la culture du choux-fleur, 89 pour le petit pois, 35 pour le haricot, 23 pour les épinards et 20 pour les pommes de terre, plantes adaptées au solar sharing.

A Ukujima, une partie de la surface de la ferme solaire sur pilotis sera utilisée pour cultiver des plantes destinées à l’alimentation du bétail, comme par exemple l’avoine et d’autres graminées.

Un marché en forte croissance à l’échelle globale

Le Japon a installé 7 GW de solaire PV durant la seule année 2013. Contre 0,6 GW en France. Afin de réduire la pollution de l’air néfaste à la santé humaine la Chine a comme objectif de parvenir à une puissance PV cumulée de 70 GW dès 2020.

Les USA, sous l’impulsion du milliardaire Elon Musk, vont de leur côté construire une grande usine capable de produire 1 GW de panneaux solaires de haute qualité par an, puis une série de giga-usines d’une capacité de 10 GW/an.

A l’échelle mondiale 38 GW ont été installés en 2013 selon l’EPIA, l’Association Européenne de l’Industrie Photovoltaïque, ce qui a permis d’atteindre une puissance cumulée de 140 GW. 57 GW de nouvelles capacités seront installées durant l’année 2014 selon le cabinet spécialisé IHS. A ce rythme le seuil des 300 GW pourrait être franchit dès 2016, délivrant alors une quantité d’électricité équivalente aux 63 GW électro-nucléaires français, le second parc nucléaire le plus important du monde après celui des USA (104 GW).

Séduit par une idée d’Eicke Weber, président de l’institut Fraunhofer à Freiburg, le président de la République François Hollande envisageait en 2013 la construction d’un « airbus du solaire » franco-allemand. Ni l’Asie ni l’Amérique n’attendront l’Europe sur cet énorme marché d’avenir.

En savoir plus :

Olivier Daniélo

Ressources pétrolières : quelques pièges à éviter pour en parler

Il vaut 42 US gallons ou 159 litres. Ce baril, traditionnellement peint en bleu, a supplanté celui de whisky qui ne représentait que 40 US gallons, grâce a ses 5 % de volume en plus,  gracieusement octroyés dit-on par Rockefeller, lassé des complaintes de ses clients qui trouvaient les barils de pétrole  insuffisamment remplis. Geste commercial, vrai ou faux,  mais à la hauteur de la réputation du  personnage.

  • Figure 1 : densité des produits pétroliers (données EIA)

Ce comptage en volumes du pétrole et de ses dérivés présente toutefois une source d’ambiguïté  majeure, en raison de la variation de densité des produits pétroliers  tout au long du processus de raffinage (FIG.I). Un baril de pétrole brut, de degré API =35 et de masse volumique autour des 0,85 g/cm3,  conduit par les opérations de raffinage à des produits volatils comme les gaz liquides (propane, butane) de densités 0,55 et d’essence de densité 0,737 ou de white spirit de densité 0,74.

Pour des motifs économiques et de demande du marché en carburants, les pétroliers par de complexes  opérations de conversion profonde, produisent de moins en moins de produits lourds (fonds de baril) et de plus en plus de carburants légers ce qui entraîne la première règle de base des productions pétrolières actuelles: il faut en volume de moins en moins de pétrole pour produire un gallon ou un litre de carburant en sortie des raffineries.

Cette règle simple est de plus exacerbée par l’utilisation croissante de biocarburants qui sont utilisés comme additifs aux carburants pétroliers. Selon l’EIA,  85% de l’essence vendue aux Etats-Unis  dès 2010 contenait de l’éthanol, de nos jours ce sont près de 100% de l’essence vendue sur ce continent qui sont alcoolisés.

En Europe, d’après EurObserv’ER les consommations de biocarburants en 2012 ont atteint les 14,4 MTEP dont 11,4 pour le biodiesel. Ces quantités représentent en volume autour des 310 mille barils/jour pour une consommation moyenne de produits pétroliers en Europe de 13,5 millions de barils/jour. On le voit, il reste d’énormes progrès à faire dans cette vieille Europe minée par son addiction au pétrole largement importé.

Ces affirmations nécessitent d’être étayées globalement par quelques chiffres issus des publications de Stuart Staniford qui compilent depuis des années les données de l’EIA américaine, de l’IEA parisienne (OCDE) et de l’OPEP.

  • Tableau 1 : Extractions en millions de barils par jour de pétrole brut (« crude ») et d’une fraction des condensats de gaz assimilables au pétrole (« C&C ») comparées aux livraisons de produits pétroliers et autres biocarburants en sortie de raffineries (« liquid ») représentés par Stuart Staniford
  C&C Liquid Delta Gain (%)
2013 76 91 15 20 %
2002 67 77 10 15 %

En 2002 le monde extrayait  67 millions de barils par jour de pétrole brut et de condensats  (C&C, TAB.I) pour une livraison en sorties de raffineries de 77 millions de barils par jour de produits raffinés (liquid). Ceci représentait un gain en volume de 15%. En 2013 ces volumes représentaient respectivement 76 et 91 millions de barils par jour et affichaient un gain en volume de 20%.

Entre-temps les volumes de biocarburants consommés dans le monde sont passés de rien du tout en 2002 à 2,5 millions de barils par jour en 2013 (selon la FAO et de nombreuses raffineries obsolètes ont été fermées (surtout en Europe) ou modernisées et équipées de conversion profonde qui fait quasiment disparaître les fonds de barils de fortes densités. Il faut en moyenne de moins en moins de pétrole ou de condensats  en volume pour produire un litre de carburant.

En d’autres termes la progression en volume des consommations de produits pétroliers, comptée en sortie de raffineries, est supérieure à celles des extractions de pétrole et de condensats. Les progrès continus dans le raffinage et l’utilisation croissante des biocarburants en sont la cause.

C’est la raison pour laquelle il vaudrait mieux éviter de publier certains chiffres erronés qui alimentent la littérature, surtout française qui traduit gaillardement : « Global oil supply » par « productions mondiales de pétrole brut » (sic) alors qu’il faudrait intituler le graphique  par « fournitures mondiales en  produits pétroliers raffinés et autres biocarburants » qui sont aux variations de stocks près des consommations.

La notion de « supply » place la mesure en volume à la sortie des raffineries, biocarburants compris. Les publications américaines parlent aussi de « liquid » issus des raffineries qui vont des gaz liquéfiés comprimés (propane, butane) aux fuels lourds ou pétrole brut brûlés dans les chaudières industrielles fixes ou celles embarquées de  certains navires.

Il faut reconnaître que les publications d’agences telles que l’IEA ou les publications de l’OPEP ne font que bien peu d’efforts pédagogiques pour que le lecteur non averti s’y retrouve.

Par Raymond Bonnaterre

Les productions d’hydrocarbures deviennent de plus en plus complexes

De  nombreuses théories basées sur les équations d’épuisement de certains champs de pétrole sur le modèle californien ont fait florès ces dernières années en annonçant la fin imminente de la ressource pétrolière mondiale.

Or il apparaît, à ce jour, que grâce aux investissements massifs de l’industrie pétrolière, motivée par les prix rémunérateurs, et grâce aux succès d’exploitants américains dans l’extraction de gaz non conventionnels, que  les ressources mondiales en hydrocarbures sont de nature à pouvoir satisfaire une demande mondiale de produits pétroliers en progression, tirée vers le haut  par les consommations asiatiques. En effet, l’extraction des gaz dont on récupère les condensats (« gaz humides ») contiennent une part importante d’hydrocarbures assimilables à du pétrole léger.

Cet apport de « liquides » sous-produits de l’extraction des gaz, explique pour une large part les progrès rapides réalisés dans l’extraction de pétroles légers aux Etats-Unis (Fig.1) qui implique la poursuite des importations de pétroles lourds ou de bitumes canadiens nécessaires aux raffineries américaines qui produisent et exportent de larges quantités de gazole. Les Etats-Unis vont devenir le premier producteur mondial de pétrole mais ils devront toujours importer du pétrole lourd pour alimenter leurs raffineries.

  • Figure 1 : Historique et projection des  productions américaines de pétrole par types de densité API (« American Petroleum Institute ») selon l’EIA

L’annonce réaliste d’un  pic de production de pétrole (« peak oil ») aurait dû  reposer sur l’évaluation la plus rigoureuse et exhaustive possible des « réserves ultimes » qui devraient être connues dans quelques siècles, si l’humanité exploite encore la ressource, quand seront extraits du sous-sol les derniers barils de pétrole et de condensats de gaz.

Cette annonce, largement vulgarisée et commentée durant la dernière décennie, était d’évidence prématurée. Cette incohérence provient essentiellement du fait que les promoteurs de ce « stress écologique » ne prenaient en compte que les seules réserves « classiques » de pétrole et oubliaient de comptabiliser toutes les autres formes d’énergies fossiles et de biomasse qui par le progrès technologique peuvent conduire à l’élaboration de carburants ou d’intermédiaires de synthèse.

 

Pourtant cet inventaire beaucoup plus exhaustif, tenant compte du coût de la ressource,  avait été réalisé par certains comme en atteste la très importante figure 3.

  • Figure 2 : Ressources ultimes estimées (Source IEA. dans EIA Meeting “the world’s demand for liquid fuels” April 2009-Slide N° 11) Consulter la publication

Les divers rectangles de la figure 2 représentent, sur l’axe horizontal, les réserves ultimes estimées en milliards de barils en fonction les coûts de productions mini et maxi, en dollars 2008, sur l’axe vertical. Sont représentés respectivement de la gauche vers la droite du graphique :

  • Jaune : les quantités de pétrole cumulées extraites et consommées au jour de la publication depuis le XIXème siècle, de l’ordre de 1100 milliards de barils, (sur la base de 75 millions de barils/jour la consommation annuelle de pétrole brut se situe autour des 27 milliards de barils par an). Il faudrait actualiser ces consommations cumulées autour des 1200 milliards de barils aujourd’hui.
  • Rose : les réserves à bas coûts encore exploitables au Moyen-Orient et en Afrique du Nord (MENA)
  • Rouge : les autres réserves exploitables de pétrole conventionnel dans le monde,
  • Bleu pâle : les progrès d’extraction par injection de CO2 qui fluidifie le pétrole (EOR : « enhanced oil reserve »). Une des voies d’avenir, économiquement acceptable, du piégeage du gaz carbonique, rentabilisée par l’accroissement du taux d’extraction du pétrole.
  • Bleu : les réserves en eaux profondes et ultra-profondes.
  • Jaune : les EOR classiques, récupérables par injection d’eau.
  • Rose : les réserves estimées de l’Arctique.
  • Rouge Orangé : les huiles lourdes et sables bitumineux
  • Orange : les huiles de schistes (shales) dont une part des condensats de gaz de schistes exploités aujourd’hui.
  • Parme : la conversion d’une partie des réserves de gaz naturel en liquides par le procédé Fisher Tropsch (GTL) ou autre variante (MTG) par la voie méthanol.
  • Marron bistre: la conversion d’une partie de charbon en liquides (CTL) soit par le procédé Fischer Tropsch dont le leader historique, depuis le milieu du XXéme siècle, est le sud-africain Sasol, soit par une variante, mise au point par Mobil, et  qui utilise l’intermédiaire méthanol (MTG ou « methanol to gasoline).

Il manque dans ce superbe graphique des ressources ultimes la part des biocarburants classiques qui devraient majorer de quelques pourcents toutes les réserves en proportion des biocarburants ajoutés à l’essence et au gazole rapportées aux productions totales de produits pétroliers. A ce jour les 2,5 millions de barils de biocarburants utilisés annuellement représentent, en volumes,  2,5/91= 2,7% de l’ensemble des produits pétroliers consommés dans le monde.

Il manque aussi la conversion possible de la biomasse en liquides par procédé Fischer Tropsch (BTL) ou sa variante au méthanol qu’on peut imaginer couplée avec la conversion du charbon et qui majorerait de 5 à 10% le pavé CTL. Enfin l’auteur ne mentionne pas les hydrates de méthane dont certains essais d’exploitation sont actuellement en cours à l’Est du Japon dans la fosse de Nankai  et aux Etats-Unis (dans le Golfe du Mexique et en Alaska. Les ressources d’hydrate de méthane sont estimées à ce jour aux environs de 1700 Tcf (48 000 milliards de m3).

Ce précieux graphique des ressources ultimes estimées en fonction des prix méritera d’être régulièrement actualisé et conduira probablement à des ressources ultimes accrues, ne serait-ce qu’en raison de l’accroissement général des prix de la ressource qui rend de nouveaux procédés rentables. Je pense, en particulier, au recyclage du CO2 mélangé au méthane qui sera abordé plus loin.

Ces réserves ultimes dépendent des prix du baril qui déterminent la rentabilité des opérations et donc leur mise effective en exploitation de tel ou tel procédé. Aujourd’hui, par exemple, la disponibilité de larges ressources de gaz (du North Field au Qatar ou extraites des schistes aux USA) ainsi que les prix des produits pétroliers comme le gazole rendent  la conversion des gaz en liquides (GTL) rentable et donc industriellement exploitable.

Pour mémoire les cours du gazole (« diesel ») pilotés par les consommations européennes sont internationaux et se négocient autour des 3 dollars le gallon ou 3×42=126 dollars le baril.

Ces réserves ultimes furent annoncées par certains, pour le seul pétrole conventionnel, autour des 2000 milliards de barils qui représentaient le double des extractions passées qui ont franchi les 1000 milliards de barils (Fig.2, petit rectangle jaune à l’extrême gauche du graphique).

Cette valeur de 2000 milliards, à l’exclusion volontaire et politique de toute autre ressource, était parfaite pour expliquer que les extractions cumulées arrivaient au point d’inflexion de la sigmoïde qui les représente en fonction du temps, point d’inflexion où la vitesse d’extraction de la ressource, dérivée de la courbe,  passe par un maximum : le peak-oil. Mais voila, aujourd’hui les géologues les plus avertis estiment ces ressources ultimes, hors divers procédés de synthèse mais en incluant les condensats de gaz, autour des 4000 à 6000  milliards de barils.

Les ressources pétrolières mondiales  sont régulièrement estimées par l’USGS américaine. Constituées des ressources des champs en exploitation, d’une estimation de croissance de ces réserves récupérables et d’une estimation statistique, bassin par bassin, des ressources restant encore à découvrir, elles demandent à être pondérées en fonction de la probabilité de réalisation de ces estimations. L’USGS publie des valeurs estimées proches d’une probabilité de 50% d’occurrence. Ces réserves, malgré les productions, croissent au cours du temps en raison des progrès techniques constants dans l’exploration et la production. (Figure 3) du pétrole et du gaz naturel.

  • Figure 3 : Résumé des ressources ultimes de produits pétroliers estimées (hors procédés de synthèse) par l’USGS au cours des trente dernières années (publication OPEP). La progression des quantités estimées traduit l’approfondissement des connaissances géologiques et les progrès technologiques d’exploration et de production dans un cadre d’accroissement continu des prix du baril.

A l’échelle des temps géologiques cette différence entre 2000 milliards et 4000 ou 5000 milliards de barils est bien sûr négligeable. Mais cela repoussera le plateau de production  inexorable de quelques décennies (2000 milliards de barils de plus mobilisables au rythme actuel des extractions de 100 milliards de barils tous les quatre ans représentent dans les 40 ans de répit supplémentaire avant de voir les extractions cumulées atteindre la moitié des réserves ultimes estimées), ce qui donnera le temps nécessaire à l’économie mondiale pour s’adapter sérieusement aux nouvelles contraintes énergétiques qui seront essentiellement financières, en permettant de mettre en place progressivement et à grande échelle la production de biocarburants à partir de biomasse et la synthèse de produits raffinés à partir de gaz naturel, de charbon enrichi de biomasse et autres lignites ou de CO2.

Les productions d’hydrocarbures deviennent de plus en plus complexes. Outre les champs de pétrole traditionnels dont l’Arabie Saoudite, leader de l’OPEP, est la porte parole mondialement reconnue, de nombreuses autres ressources accompagnées par des progrès techniques déterminants sont apparues ou sont devenues exploitables durant ces dernières décennies. Citons pour mémoire les ressources offshores ultra-profondes de l’Ouest de l’Afrique, du Golfe du Mexique ou au large du Brésil. Citons les huiles lourdes de l’Orénoque et les sables bitumineux canadiens.

Sans oublier l’Est de l’Afrique  nouvelle région de l’exploitation pétrolière. De même l’exploitation des gaz de schistes américains illustre qu’après quelques décennies de prospection systématique et de compréhension structurelle fine du sous-sol les mêmes types de ressources pourront être exploités en Amérique du Sud, en Chine, en Russie ou en Afrique. Certains de ces gaz sont peu chargés en hydrocarbures liquides (gaz secs) ; c’est le cas par exemple des gisements d’Haynesville au Texas et en Louisiane, d’autres champs produisent de larges quantités de condensats comme le gisement de Bakken dans le Nord-Dakota ou plus récemment celui d’Eagle Ford dans le Texas.

Il est possible de quantifier cette propriété de produire des condensats par le rapport entre les productions de pétrole exprimées en barils par jour et celles de gaz exprimées en milliers de pied-cube. Ce  rapport, aux Etats-Unis  varie de quasiment zéro pour Haynesville à 0,88 baril par millier de pied-cube pour Bakken (Fig 4) ce qui représente dans les 4 litres de condensats par mètre cube de gaz extrait. Cette caractéristique peut expliquer, pour des raisons économiques évidentes, la décroissance observée des productions de Haynesville et la croissance de celles de Bakken dont une partie des gaz est brûlée par torchage (« flaring »).

  • Figure 4 : Principaux gisements de gaz de schistes aux Etats-Unis et leurs ratios (2013) d’extractions de condensats par rapports à celles de gaz en baril par millier de pied-cube

 

 

Les croissances américaines des productions de gaz naturel et de condensats dont une part est assimilable au pétrole étaient imprévisibles quelques années auparavant (Figure 5).

  • Figure 5 : Etats-Unis, productions de gaz et de pétrole à partir de divers gisements non conventionnels (EIA, MARS 2014)

Quand à La France précautionneuse et incompétente,  elle s’est  fixée, de par la loi, une interdiction, de fait, de prospecter ces ressources. Et pourtant, ses importations nettes de gaz naturel représentaient, d’après les Douanes Françaises, sur 12 mois à fin Avril 2014, la rondelette somme de 14 milliards d’euros. L’intégration de cette dépense extérieure au sein de l’économie de notre pays en accroitrait à coup sûr la richesse, même si des précautions de Sioux et certaines restrictions locales devraient impérativement être mises en œuvre pour protéger notre environnement.

  • Une voie d’avenir : les procédés GTL

Dans le champ de la synthèse des produits pétroliers liquides, il est indispensable de  noter l’importance de la conversion des ressources de gaz en gazole et autres dérivés du pétrole. La formidable avancée du Qatar dans la synthèse de produits raffinés à partir de ses énormes réserves de  gaz  dans sa nouvelle unité d’Oryx développée avec Shell et Sasol qui apporte sa technologie et ses catalyseurs à base de Cobalt est exemplaire. Cette réalisation qui produit plus de 32000 barils par jour de produits pétroliers conduit à assimiler une partie des réserves de gaz dans le monde à de futures ressources pétrolières.

Outre la présence de Sasol en Louisiane, dans la région du Lac Charles, avec de vastes projets de conversion de gaz en liquides qui pourraient atteindre les 96 000 barils/jour en deux tranches d’investissements, doivent être notés divers projets aux USA (exemple de Pinto Energy dans l’Ohio) ou en Afrique (projet Escravos au Nigeria future copie de l’unité Oryx au Qatar).

De quoi chambouler le bilan des ressources ultimes de pétrole (Figure 1).

Le procédé GTL (Figure 3) repose sur la production par reforming du gaz et production d’hydrogène d’un mélange CO et H2 ad hoc. Ce mélange est transformé par le procédé Fischer Tropsch en paraffines qui sont ensuite isomérisées par hydrocracking pour produire en final du gazole, du naphta et divers gaz comprimés liquides.

  • Figure 6 : GTL-Procédé ORYX au Qatar

D’après Sasol 10 mille pied-cube de gaz conduisent par le procédé GTL à un baril de produits raffinés comprenant 75% de gazole, 20% de naphta et 5% de gaz comprimés liquides. En d’autres termes il faut autour des 280 mde gaz naturel pour obtenir un baril de produits finis par un procédé GTL (283 m3 par calcul).

Ces quelques exemples montrent que l’exploitation des ressources pétrolières de demain traitera une multiplicité de matières premières (pétroles traditionnels, sables bitumineux, huiles lourdes, gaz humides ou secs) selon divers procédés  allant du raffinage traditionnel aux procédés Fischer Tropsch de synthèse de paraffines à partir de mélanges CO et H2 d’origines diverses (gaz, charbon, biomasse, résidus divers).

Ces procédés seront également de nature à valoriser des gisements de gaz naturel riches en CO2 comme le montrent des essais sur équipements pilotes au Japon. Le CO2  combiné au méthane, pourra devenir un part des ressources de procédés Fischer-Tropsch évolués selon le schéma :

Il y a là, de toute évidence, une nouvelle voie pour valoriser les ressources de gaz naturel riches en CO2 ou pour recycler le CO2 lui même.

Les biocarburants en parallèle, sous l’effet des prix des produits pétroliers, verront leur pertinence économique s’accroitre et leurs volumes de production progresser avec la biosynthèse d’isobutanol, moins polaire que l’éthanol, plus soluble dans l’essence et source d’isobutylène puis de plastiques « bio », en lieu et place d’éthanol. L’américain GEVO est une des industries pionnières dans ce domaine.

La teneur en butanol pourra atteindre 16% en volume dans l’essence.

Une telle teneur en alcool remplacera en énergie 13,6% d’essence, alors qu’aujourd’hui les 10% d’éthanol  mélangés à l’essence ne remplacent énergétiquement que 6,8% d’essence. La composante énergétique du biocarburant dans le mélange carburant pourrait  donc doubler en passant du mélange à l’éthanol E10 à celui au butanol B16.

Il faut également citer la remarquable biosynthèse de terpènes (tel que le farnésène, terpène insaturé en C15) et, après hydrogénation,  de kérosène ou de gazole à partir de sucres par le procédé Amyris conduisant à des produits de fortes valeurs ajoutées. Dans son usine Brésilienne, John Melo dirigeant d’Amyris revendiquait en Octobre 2013 avoir su produire un million de litres de farnésène en 45 jours, preuve récente de la maîtrise industrielle du procédé.

Un des objectifs d’Amyris, avec la collaboration du pétrolier Total, est de savoir par la voie directe « sugar to hydrocarbon » (DSHC)  produire un kérosène bio, satisfaisant les normes ASTM, et  qui devrait alimenter en carburant dès 2014, les vols d’une  compagnie d’Amérique Latine.

Parmi les grands acteurs de  la valorisation des biocarburants il est indispensable de citer également le pétrolier finlandais Neste Oil qui a commercialisé 411 mille tonnes de biodiesel durant le deuxième  trimestre 2013. Ce pétrolier estime une demande mondiale autour des  21 millions de tonnes en 2012 et projette cette demande à 35 millions de tonnes de biodiesel en 2020. Son procédé repose sur l’hydrogénation catalytique de graisses animales ou d’huiles végétales diverses (palme, soja, colza, maïs, etc.) et de résidus oléagineux de production de ces huiles. Ce procédé conduit à du propane et des chaînes aliphatiques par la suite isomérisées par hydrocracking pour produire des mélanges carburants tels que du gazole (figure 7).

  • Figure 7 : Schéma du procédé Neste Oil d’hydrogénation catalytique des corps gras (huiles et graisses) en propane et paraffines

Neste oil s’est associé à Dong Energy pour essayer de diversifier ses ressources de matières premières par une intégration dans les voies de biologie synthétique conduisant des sucres cellulosiques à des huiles.

 

Par Raymond Bonnaterre

 

Les prix du baril de pétrole devraient poursuivre leur progression

Progression remarquable en une décennie qui pour des raisons à la fois financières de couverture,  physiques de déplétion des extractions et  géopolitiques devrait se poursuivre (Figure 1) sous le contrôle d’un Cartel puissant, dirigé par l’Arabie Saoudite : l’OPEP.

  • Figure 1 : Cours du baril de Brent en dollars courants et projection au-delà de 2020  de la courbe de corrélation quadratique

Ces cours durant les dix dernières années ont été soutenus en raison de divers paramètres qui déterminent les cours du pétrole. 

Un paramètre financier supporté par le NYMEX à New York, l’ICE à Londres et maintenant le Dubai Mercantile Exchange (DME) marchés de dérivés sur lesquels s’échangent de très grandes quantités de papiers indexés sur les cours du pétrole ou de ses produits raffinés. Ces papiers dont les volumes traités excèdent largement (cent fois ou plus) les volumes physiques de produits échangés, présentent une taille financière suffisante et permettent essentiellement aux acteurs financiers de se couvrir contre la baisse des cours du dollar américain, maintenus volontairement bas par la politique monétaire de la Federal Bank.

La croissance rapide et récente du DME illustre cet attrait des dérivés du pétrole.

Une caractéristique physique de l’exploitation pétrolière qui est la déplétion des flux d’extraction de pétrole au cours du temps. Cette baisse des flux d’extraction en l’absence de toute action d’amélioration de l’exploitant est de 4% à 5% par an.

  • Figure 2 : Impact majeur de la déplétion des extractions de pétrole sur les besoins de ressources nouvelles

Partant des 92 millions de barils par jour de produits raffinés et autres biocarburants produits en 2013, en appliquant une déplétion des ressources pétrolières de 4,5% par an il apparait que les puits exploités en 2013 ne conduiraient qu’à des productions de 40 millions de barils par jour de produits raffinés en 2030 (FIG.X, courbe bleue). Compte tenu d’une hypothèse de croissance linéaire des consommations de 0,8 million de barils par jour il ressort (FIG.X, courbe noire) qu’il faudra dès 2017 avoir développé les ressources de pétrole, de condensats de gaz et de biocarburants nécessaires et suffisantes pour produire 20 millions de barils nouveaux de produits raffinés. En 2030 il faudra avoir développé de nouvelles ressources après 2013 pour assurer plus de 60 millions de barils nouveaux par jour.

L’exploitation pétrolière nécessite des prix du baril et des produits raffinés permettant aux acteurs d’investir dans le maintient et la progression raisonnable des flux d’extraction ou dans la mise en place des nouveaux procédés de synthèse.

Toute baisse intempestive des cours ou toute autre cause de baisse de rentabilité des opérations (taxes nouvelles, augmentations des prestations de services, etc.) qui mettrait en péril ces investissements, annoncerait une crise pétrolière rapide par manque de ressources.

De  nombreux débats agitent les milieux économiques américains concernant l’influence des cours du baril de pétrole local (WTI) sur la rentabilité et sur le rythme d’extraction de certains gaz de schistes « humides ». Il semblerait en 2014 que des cours du baril WTI américain supérieurs à 100 dollars soient suffisants pour assurer une rentabilité acceptable aux extractions de gaz de schistes « humides » américains. L’autre point clé économique potentiel de ces activités américaines repose sur une éventuelle décision politique d’autoriser largement les exportations de GNL vers l’Asie ou l’Europe.

  • Un paramètre géopolitique essentiellié à la localisation d’une large partie des réserves mondiales de pétrole et de gaz au Proche et Moyen Orient ainsi qu’en Afrique du Nord. Ces régions souvent dominées par un prosélytisme religieux agressif sont par tradition agitées de conflits internes ou externes. Il suffit de se reporter au soi-disant « Printemps Arabe » et d’égrainer les conflits observés par la suite en Lybie, en Egypte, en Syrie, etc. pour se convaincre que ces tensions souvent violentes vont se poursuivre. L’Arabie Saoudite, les Emirats voisins, l’Iran et l’Irak sont des producteurs majeurs de pétrole et de gaz. Les tensions  religieuses au sein ou entre ces pays sont de nature à préserver une prime géopolitique au prix du baril de pétrole qui peut être estimée à ce jour autour des 10  à 20 dollars. 
  • Une volonté des grands pays pétroliers de s’intégrer dans le raffinage. La construction récente de la grande raffinerie de Jubail (400 mille barils/jour) par le pétrolier Total en Arabie Saoudite et qui devrait être suivie de nouvelles réalisations du même type, illustre la volonté du leader de l’OPEP de s’intégrer en raffinage.  Il est évident que la commercialisation de produits raffinés vers l’Europe ou l’Asie en lieu et place de pétrole brut constitue une option pour ces pays producteurs permettant d’intégrer plus de valeur ajoutée dans leur offre commerciale. L’autre grand exportateur de pétrole brut, la Russie, affirme sa volonté politique de suivre à terme la même démarche. Ceci se traduira par une raréfaction progressive des volumes de pétrole brut accessibles sur le marché et participera à la montée des cours. La victime de ces politiques d’intégration vers l’aval sera, naturellement, le raffinage européen.
  • Un cartel qui veille au grain sur les cours du baril. Sur les 91 ou 92 millions de barils de produits  raffinés consommés dans le monde  en 2013, il a été décrit qu’il fallait utiliser pour cela dans les 76 millions de baril de brut et de condensats (TAB.I). A ce jour l’OPEP estime qu’il lui faut fournir un peu moins de  30 millions de barils de pétrole brut et autres condensats ce qui représente près de 40% du pétrole mondial. Ces volumes devraient légèrement baisser en 2014 en raison de fournitures accrues des pays non OPEP. Les projections du pétrolier TOTAL établies en Septembre 2013 et portant sur les capacités de production de l’OPEP en 2030, estiment qu’à cette date la part de l’OPEP dans le marché mondial s’établira à 45% des volumes. Ces projections montrent que l’influence du Cartel sur le marché du pétrole ne va pas décroitre durant les décennies à venir, bien au contraire.

Ceci permet d’affirmer que le rôle de l’Arabie Saoudite comme régulateur des cours du marché va se poursuivre. Pour l’instant les cours du panier OPEP sont la plupart du temps au-dessus des 100 dollars le baril et proches, à un ou deux dollars près, de ceux du BRENT. Ce seuil des 100 dollars le baril est à ce jour un minimum accepté de la part des fournisseurs et des consommateurs de pétrole, mais la demande asiatique de pétrole du Moyen-Orient augmente encore. Le développement des transports routiers chinois, encore très en retard par rapport aux transports des pays industrialisés comme les USA, va accroitre la demande asiatique de pétrole. 

Conclusion sur les perspectives des cours du baril de Brent

Sur l’ICE à Londres il s’est échangé en 2012 dans les 180 millions de contrats de 1000 barils sur le Brent européen et le WTI américain. En 2013 ce record devrait être battu avec un score provisoire de 150 millions de contrats échangés à fin Octobre. Les joueurs, grâce à ce marché de taille suffisante,  se prémunissent contre une baisse éventuelle du dollar américain et mettent à profit, avec opportunisme,  toute nouvelle guerrière en provenance du Proche ou Moyen-Orient, ou bien d’Afrique du Nord.

L’ensemble de ces facteurs porte à penser que les cours médians du pétrole en dollars courants vont poursuivre leur progression quadratique durant la décennie à venir (FIG. IX). Il faut imaginer un plancher des cours du baril de BRENT  à 120 puis à 150 dollars dans les années à venir. La désensibilisation progressive des Etats-Unis aux prix du pétrole importé grâce à leurs productions locales de condensats de gaz, rendra ces augmentations encore plus aisées pour l’Arabie Saoudite qui ne se préoccupera que bien peu des réactions de son protecteur américain auquel elle ne peut rien refuser, s’il rechigne à payer. Au contraire, une augmentation générale des cours ne pourra que favoriser la compétitivité des entreprises américaines, comme c’est le cas aujourd’hui en raison de la différence entre cours du Brent et cours du WTI

Par Raymond Bonnaterre

 

Imaginer le futur du marché pétrolier

Dans ce domaine il est possible de citer :

  • La déplétion naturelle des extractions pétrolières ;
  • La croissance des populations, leur urbanisation, la progression du niveau de vie des populations asiatiques en échange de la paix sociale et de l’harmonie. Ces phénomènes seront accompagnés par une progression des transports individuels et collectifs et conduiront à une plus grande consommation de carburants ;
  • Le déplacement de l’Amérique vers l’Asie des livraisons de produits pétroliers disponibles sur le marché international en raison de  la baisse des importations américaines, concurrencées par les condensats de gaz de schistes, et de la croissance des importations chinoises. Ce sont les marchés asiatiques alimentés par du brut ou des produits pétroliers en provenance d’Afrique et du Moyen-Orient qui vont déterminer les cours mondiaux du pétrole et de ses dérivés ;
  • Le marché américain du pétrole brut, faute d’exportations possibles, restera, pour un temps encore, un marché régional à prix modérés, inférieurs à ceux du panier OPEP. La génération, par ce processus, d’un avantage concurrentiel aux industries américaines tend à pérenniser ce déséquilibre tarifaire ;
  • La localisation d’énormes réserves de pétrole et de gaz dans les pays du Proche et Moyen-Orient ou d’Afrique du Nord dont les certitudes religieuses d’une partie des  populations locales rendent le climat politique incertain et parfois explosif justifiera d’une prime géopolitique des cours ;
  • Le progrès technique rendant accessibles de nouvelles ressources naturelles (ex. : gaz de schistes, hydrates de méthane) parfois largement réparties ;
  • Les énormes investissements financiers associés à l’exploration, à l’extraction des ressources, à leur raffinage ou à la synthèse à partir de gaz naturel ou de charbon de dérivés liquides carburants ;
  • La nécessaire adéquation des prix des produits pétroliers avec les montants d’investissements requis pour de complexes installations qui doivent être amorties par les industriels sur des délais raisonnables ;
  • La non prééminence d’une ressource nouvelle qui ferait s’effondrer les appels aux ressources existantes. Ceci en raison de la nécessité de gérer la ressource émergente sur un temps long, celui d’amortir les investissements et de conserver l’activité industrielle sur plusieurs décennies. Cette règle s’applique à l’exploitation des gaz de schistes américains et potentiellement à celle des  ressources chinoises ou de toute autre contrée ;
  • Le phénomène de substitution compétitive qui caractérise les marchés de l’énergie, passés successivement du bois, au charbon, puis au pétrole et qui devraient raisonnablement se développer dans le gaz naturel en raison de son abondance, de la faiblesse de son prix et des qualités environnementales de cette ressource. Toutefois, son transport nécessite de lourds investissements ce qui ralentit la croissance de sa part de marché ;
  • Rappelons pour préciser l’échelle de temps des phénomènes de substitution des ressources énergétiques que le premier navire de haute-mer équipé de moteurs diesel, le Selandia  fut mis à l’eau par les chantiers danois en 1912, annonçant ainsi la très lente fin programmée de l’utilisation du charbon comme combustible dans les transports maritimes. En 2012 c’est l’évaporation du GNL qui alimente les nouveaux transports de gaz maritimes. Dans cette transition progressive du pétrole vers le gaz, les procédés de transformation de gaz en liquides par le procédé Fischer-Tropsch (GTL) joueront un rôle déterminant en raison de leur rentabilité et de leurs accès au  gazole.
  • Ces possibilités de substitutions rendent caduques les théories d’une raréfaction imminente de ressources énergétiques liquides qui ne considèrent que le pétrole traditionnel et négligent par exemple les condensats de gaz.
  • Dans ce cadre là, il est difficile d’imaginer une baisse des prix durable des produits pétroliers qui entraînerait rapidement une annulation de certains investissements nécessaires au maintient des flux d’approvisionnement du marché.
  • De façon plus réaliste, une progression raisonnable des prix des produits pétroliers, arbitrée par l’OPEP, est de nature à maintenir ces flux d’approvisionnement et à encourager les industries agricoles des biocarburants à se développer sur les continents qui disposent de terres arables. Les Etats-Unis, les pays d’Amérique Latine et l’Afrique, toujours oubliée, participeront avec le monde paysan à la croissance de ces filières qui assurent des débouchés réguliers aux cultures. Elles pourraient assurer à terme entre 5 à 10% des productions en volumes des raffineries de pétrole.

CONCLUSION

Au bout de ce survol rapide des ressources énergétiques de la planète et des processus nombreux de substitution compétitive de ces ressources, qui sont ou qui seront mis en œuvre, il apparaît de plus en plus que notre civilisation n’est pas à court de ressources fossiles et que tout « stress écologique » issu d’une peur de la pénurie imminente doit être combattu et traité par la raison. Ceci est vrai en particulier en Europe, continent particulièrement sensible aux théories alarmistes de la pénurie immédiate, face à un comportement insouciant d’une Asie en plein boom économique.

Cela ne veut pas dire qu’il faut  se désintéresser de ce problème sérieux, mais qu’au contraire, une approche programmée et raisonnable est nécessaire pour à la fois accroitre l’efficacité énergétique des processus, pour réduire la part des consommations d’énergies d’origine fossiles dont les prix unitaires vont progresser, pour accroitre, sans à-coups,  la part des énergies non émettrices de gaz carbonique telles que les énergies renouvelables ou celles issues de l’atome. Tout au long de ce processus l’indépendance énergétique du Continent ouest-européen et la compétitivité de ses industries doivent être prises en comptes dans les processus de décision. Malheureusement, en Europe, ces principes élémentaires ne me semblent pas être bien respectés aujourd’hui. Certains déboires économiques et la fuite des industries électro-intensives de notre continent doivent être imputés à ce désintérêt provisoire.

Les problèmes d’approvisionnement en produits pétroliers de la planète ne sont  pas, aujourd’hui, un problème de raréfaction universelle des stocks accessibles, ils sont liés à un problème de maintien des flux d’approvisionnement et donc d’investissements et de développement de nouveaux procédés qui sont facilités par des cours soutenus du pétrole.

Un fort accroissement général des prix des ressources énergétiques, externalités comprises, sera le seul moyen efficace pour en restreindre peu à peu les consommations et donc pour réduire les émissions mondiales de CO2.  Ce processus est déjà en place au sein des nations de l’OCDE, il se généralisera progressivement au reste du monde.

Par Raymond Bonnaterre

 

News informatique : juin 2014

Prévoir l’avenir grâce aux réseaux sociaux, c’est possible ?

L’Université Carlos III de Madrid (UC3M), l’Université Autonome de Madrid ainsi que le NICTA australien et les universités américaines de Yale et de San Diego Californie, ont collaboré sur un projet ambitieux d’élaboration d’une méthode de surveillance des réseaux sociaux permettant d’y identifier les informations pertinentes et partagées, jusqu’à deux mois avant qu’elles ne deviennent virales (ie : propagée rapidement et à grande échelle à travers les réseaux sociaux).

Un nouveau pas pour Big Brother? Une performance relevant de l’art de divination ? Un peu des deux sans doute, mais cette méthode de surveillance représente surtout un formidable outil statistique qui pourrait aider à prédire l’apparition de mouvements sociaux, les réactions des consommateurs, voire d’éventuels foyers épidémiques. L’objectif de cette étude à laquelle ont participé l’UC3M et l’UAM était en premier lieu de tester l’application aux réseaux sociaux de « l’hypothèse des capteurs » : était-il possible de déterminer un groupe de personnes (les capteurs, ou sentinelles) dont la position dans les réseaux sociaux permet de surveiller l’information se propageant de manière virale sur le réseau global ?

Pour répondre à cette question, les scientifique ont travaillé sur des données du réseau social Twitter, et ont mis à profit une caractéristique des réseaux sociaux, connue sous le nom de « paradoxe de l’amitié » [1] selon lequel il est probable que vos « amis » sur les réseaux sociaux aient eux même plus d’amis que vous. Dans le cas de twitter, après avoir analysé un échantillon de données datant de 2009 et provenant de 40 millions d’usagers et de 1,5 milliards de followers, les chercheurs ont pu confirmer que chaque usager avait en moyenne 25 followers, alors que ces derniers en totalisaient environ 422, soit près de 20 fois plus. Ce paradoxe de l’amitié confère un rôle clé aux followers d’un individu au moment de propager ou de recevoir une information.

Lors de l’étude, les chercheurs ont choisi un ensemble d’usagers Twitter au hasard, et sélectionné au hasard 1 follower de chacun de ces usagers pour constituer un groupe « capteur ». Ils ont pu vérifier que ces amis-capteurs jouaient un rôle beaucoup plus important que ce qui aurait pu être imaginé, car ce groupe-capteur leur a permis de détecter les utilisations virales de nouveaux hashtags plus de 7 jours plus tôt que la détection permise par le premier ensemble d’usager choisi aléatoirement. Alors que les chercheurs s’attendaient à voir apparaitre les futures hashtags viraux avec quelques heures d’avance grâce à leur méthode de surveillance, ce sont des jours, voire même parfois des mois d’avance qu’ils ont réussi à obtenir. Par exemple, leur méthode a prédit l’explosion virale du hashtag #obamacare sur Twitter presque deux mois avant que ce dernier ne se convertisse en une tendance, et trois mois avant qu’il n’atteigne son record d’occurrence dans les recherches Google.

D’après ses créateurs, l’utilisation des données de 50.000 comptes twitter suffit pour obtenir de tels niveaux d’anticipation et connaitre avant tout le monde les informations qui vont devenir virales sur Internet. On peut utiliser cette méthode en temps réel, sur différents thèmes, dans différentes langues ou régions géographiques, ce qui permet de couvrir des contextes très différents : découvrir de nouvelles opinions dans un débat politique, prédire les mouvements sociaux, l’acceptation d’un nouveau produit par les consommateurs, ou analyser comment se répandent les messages concernant certaines maladies ou épidémies dans le domaine de la santé publique.

Certaines limitations semblent toutefois évidentes : Il est impossible de prédire comment vont se diffuser de manière virale des informations associées à des évènements imprévisibles tels que des résultats des match de foot, des catastrophes naturelles

Source : bulletins-electroniques.com

Chercheurs en informatique contre zombies numériques

Une part de plus en plus importante de notre économie et de notre administration étatique repose sur des services informatiques interconnectés. La moindre panne ou interruption de ces derniers peut occasionner des pertes de plusieurs millions ou milliards d’euros. Ce constat motive de nombreux chercheurs à travers le monde à améliorer la sécurité de nos installations face aux intrusions malintentionnées. Parmi eux, une équipe de chercheurs de l’Université de Tel Aviv et de l’IDC Herzliya.

Les différentes facettes de la sécurité informatique

Si l’on s’accorde souvent sur l’importance de se protéger contre les attaques informatiques extérieures, il faut garder à l’esprit que celles-ci peuvent prendre des formes très différentes suivant le but recherché par l’assaillant : infiltration d’un système ou mise hors service. Dans le premier cas, la victime, que ce soit un particulier, une institution ou une société, voit son réseau informatique infiltré afin de prendre connaissance de certaines informations ou procéder à une surveillance à l’insu de la victime. Le principe roi qui guide l’intrus est donc la discrétion et il peut se passer un laps de temps conséquent avant que la victime ne se rende compte des dégâts causés. La lutte contre ce type d’attaques est avant tout préventive, à travers notamment un audit sérieux des failles pouvant exister sur un réseau. A l’inverse, une attaque visant à mettre hors service un réseau est généralement tout sauf subtile et repose sur un effet de masse.

Les zombies à l’assaut des serveurs

Les professeurs Yehuda Afek et Shir Landau-Feibish de l’Université de Tel Aviv se sont associés au professeur Anat Bremler-Barr du collège académique IDC Herzliya pour développer une technologie permettant de combattre les assauts visant à mettre les cibles hors service [1]. Généralement appelées DDoS (Distributed Denial of Service), ces attaques consistent à coordonner plusieurs milliers d’ordinateurs qui iront en même temps inonder le serveur d’une entreprise ou d’une administration avec des centaines de milliers de requêtes. Ne pouvant traiter cette masse importante de données, le serveur sera obligé de capituler, rendant inaccessible le service dont il est en charge. On parle généralement d’ordinateurs zombies pour décrire les assaillants : à l’image de leurs homologues de série Z, ils ne sont pas dotés d’une intelligence foudroyante, mais l’effet du nombre n’en reste pas moins dévastateur. L’Estonie est ainsi restée célèbre pour avoir été victime d’une attaque « zombie » de grande ampleur en 2007, visant à la fois ses institutions et ses banques [2].

Détecter rapidement les premiers assaillants

Dans cette situation, il est primordial de pouvoir rapidement distinguer les ordinateurs zombies des autres ordinateurs afin d’éviter l’effondrement du serveur. Pour cela, les professeurs Afek, Landau-Feibish et Bremler-Barr ont développé un algorithme d’analyse en temps réel du trafic réseau permettant d’identifier lorsque celui-ci est normal ou pas. L’idée sous-jacente est d’analyser les données arrivant pendant une attaque supposée en les comparant au trafic occasionné par des utilisateurs normaux. Les chercheurs israéliens étudient en particulier la fréquence d’apparence de certains caractères, qui s’avère différente lors d’un assaut. Grâce à leur découverte, ils sont ainsi en mesure de filtrer avec une grande précision le trafic en amont du serveur en ne gardant que celui résultant des utilisateurs normaux. Les performances sont déjà impressionnantes, mais les chercheurs ne souhaitent pas s’arrêter là pour autant : ils travaillent déjà sur la prochaine génération d’algorithmes car, à n’en pas douter, la victoire contre les pirates informatiques ne sera jamais définitivement acquise.

Source : bulletins-electroniques.com

Un smartphone pliable

Le professeur Roel Vertegaal, directeur du Human Media Lab de l’Université de Queens et l’un de ses étudiants ont présenté PaperFold, une technologie pour smartphone révolutionnaire.

Le smartphone modulable et tactile permet à l’utilisateur d’ouvrir jusqu’à trois surfaces affichages électrophorétiques afin de procurer plus d’espace d’écran lorsque cela est nécessaire. Les sections d’affichage sont détachables afin que les utilisateurs puissent plier l’appareil en divers formes pouvant aller de la tablette au smartphone. Le Dr. Vertegaal explique : « Dans le Paperfold, chaque unité d’affichage peut se comporter indépendamment ou comme partie d’un système. L’avantage de cette technologie inclut un meilleur support pour effectuer des tâches qui nécessiteraient habituellement d’utiliser plusieurs appareils ».

La technologie a été présentée à la conférence ACM CHI 2014 à Toronto, considérée comme l’une des conférences les plus importantes sur les interactions techniques pour les nouvelles technologies. PaperFold reconnaît automatiquement sa forme et modifie son affichage pour proposer différentes fonctionnalités à chaque forme. Par exemple, un utilisateur pourrait chercher le plan d’un bâtiment de la ville de New York de trois manières différentes :

  • En aplatissant les trois affichages, l’utilisateur peut voir Google map sur toute la surface des affichages
  • En manipulant l’appareil en une forme similaire à un globe, cela ouvre une vue Google Earth 3D
  • En repliant l’appareil en une forme de bâtiment 3D, les modèles 3D des bâtiments de la zone ciblée seront cherchés sur la banque SketchUp et l’appareil sera changé en modèle architectural pouvant être imprimé en 3D.

L’inspiration pour PaperFold vient de son homonyme, le papier. Typiquement, les appareils mobiles nécessitent de faire défiler ou de zoomer sur les différentes parties d’un document, là où le papier peut être plié, détaché ou combiné. Le Dr. Vertegaal explique: « le développement des ordinateurs en papier électronique pouvant adopter des qualités similaires à celles du papier ont été un but de la recherche dans notre équipe. Le smartphone PaperFold permet des techniques de pliage qui rendent le papier si versatile, et les utilise pour changer les vues électroniques et afficher les bâtiments instantanément. PaperFold montre comment la forme pourrait être équivalente à la fonction dans les appareils mobiles malléables. »

Source : bulletins-electroniques.com

L’importance de la stupidité dans la recherche scientifique

J’ai récemment revu une ancienne amie pour la première fois depuis de nombreuses années. Nous avions été doctorants en sciences en même temps, quoique dans des domaines différents. Puis elle a laissé tomber, est allée à Harvard à l’Ecole de Droit et est maintenant avocate senior dans une grande organisation environnementale. A un certain moment, la conversation arriva sur la raison pour laquelle elle avait quitté les études doctorales. A mon grand étonnement, elle a dit que ces études la faisaient se sentir stupide. Après quelques années passées à se sentir stupide tous les jours, elle avait décidé de faire quelque chose d’autre.

Je l’avais toujours vue comme l’une des personnes les plus intelligentes que je connaisse, et sa carrière postérieure soutient ce point de vue. Ce qu’elle a dit m’a dérangé. Je n’arrêtais pas de penser à ce sujet… Soudain le lendemain, ça m’a frappé : la science me fait me sentir stupide aussi. C’est juste que je m’y suis habitué. Tellement habitué qu’en fait, je recherche activement de nouvelles occasions de me sentir stupide. Je ne saurais pas quoi faire sans cette sensation. Je pense même que c’est censé être comme ça. Je m’explique.

Pour la quasi-totalité d’entre nous, l’une des raisons pour lesquelles nous aimions la science au lycée et à l’université est que nous étions bons en science. Cela n’est pas la seule raison, la fascination pour la compréhension du monde physique et un besoin émotionnel de découvrir de nouvelles choses entrent aussi en compte. Mais la science au lycée et à l’université signifie suivre des cours, et bien suivre les cours signifie connaître les bonnes réponses aux tests. Et si vous connaissez ces réponses, vous réussissez et vous sentez intelligent.

C’est tout différent avec un doctorat, dans lequel vous avez à effectuer un travail de recherche. Pour moi, c’était une tâche ardue. Comment pourrais-je formuler les questions qui mèneraient à des découvertes importantes; concevoir et interpréter des expériences dont les conclusions seraient absolument convaincantes, prévoir les difficultés et voir les moyens de les contourner, ou, à défaut, les résoudre quand elles se concrétisent ? Mon projet de doctorat était assez interdisciplinaire et pendant un certain temps, chaque fois que je suis tombé sur un problème, j’ai harcelé les gens de ma faculté qui étaient les experts dans les différentes disciplines qu’il me fallait. Je me souviens du jour où Henry Taube (qui a remporté le prix Nobel de deux ans plus tard) m’a dit qu’il ne savait pas comment résoudre le problème que j’avais dans son domaine. J’étais un étudiant diplômé de troisième année et je pensais que Taube en savait environ 1000 fois plus que moi (estimation prudente). S’il n’avait pas la réponse, personne ne l’avait.

C’est ce qui m’a frappé: personne ne l’avait. C’est pourquoi c’était un problème de recherche. Et puisque c’était mon problème de recherche, c’était à moi de le résoudre. Une fois que j’ai réalisé ce fait, j’ai résolu le problème en quelques jours. (Il n’était pas vraiment très dur, j’ai juste eu à essayer quelques trucs.) La leçon cruciale était que le volume des choses que je ne connaissais pas était non seulement vaste, mais pratiquement infini. Cette prise de conscience, au lieu d’être décourageante, est libératrice. Si notre ignorance est infinie, la seule action possible est de nager dedans du mieux que nous pouvons.

Je voudrais suggérer que nos programmes doctoraux rendent souvent deux mauvais services à nos étudiants. Tout d’abord, je ne pense pas que les élèves soient amenés à comprendre combien il est difficile de faire de la recherche. Et combien il est très, très difficile de faire des recherches importantes. C’est beaucoup plus difficile que de prendre des cours même très exigeants. Ce qui le rend la recherche si difficile est l’immersion dans l’inconnu. Nous ne savons simplement pas ce que nous faisons. Nous ne pouvons pas être sûrs que nous posons la bonne question ou faisons la bonne expérience jusqu’à ce que nous obtenions la réponse ou le résultat. Certes, la science est rendue plus difficile par la concurrence pour les subventions et la publication dans les meilleures revues. Mais en dehors de tout cela, faire de la recherche importante est fondamentalement difficile et tous les changements de ministère, de politiques institutionnelles ou nationales ne permettront pas de réduire sa difficulté intrinsèque.

Deuxièmement, nous n’enseignons pas suffisamment bien à nos étudiants à être productivement stupides, ou autrement dit que si nous ne nous sentons pas stupides cela signifie que nous n’essayons pas assez. Je ne parle pas de la stupidité « relative », dans laquelle les autres élèves de la classe, en lisant la matière y réfléchissent et réussissent l’examen alors que vous pas. Je ne parle pas non plus de gens brillants que l’ont pourrait trouver à des postes qui ne correspondent pas à leur talents. La science implique de nous confronter à notre stupidité « absolue ». Ce genre de stupidité est un fait existentiel, inhérente à nos efforts pour faire notre chemin dans l’inconnu. Les examens préliminaires et de thèse ont la bonne approche lorsque le comité de la faculté pousse jusqu’à ce que l’étudiant commence à donner de mauvaises réponses ou abandonne en disant « Je ne sais pas ». Le but de l’examen n’est pas de voir si l’étudiant répond juste à toutes les questions. S’il le fait, c’est la faculté qui a échoué à l’examen. Le but est d’identifier les faiblesses de l’élève, en partie pour voir où investir des efforts et en partie pour voir si la connaissance de l’étudiant flanche à un niveau suffisamment élevé pour qu’il soit prêt à prendre un projet de recherche.

La stupidité productive implique d’être ignorant par choix. Nous concentrer sur des questions importantes nous met dans la position inconfortable d’être ignorants. Une des belles choses sur la science est qu’elle nous permet de brasser de l’air, de nous tromper jour après jour, et de nous sentir parfaitement bien tant que nous apprenons quelque chose à chaque fois. Sans doute, cela peut être difficile pour les étudiants habitués à obtenir les bonnes réponses. Sans doute, des niveaux raisonnables de confiance et la résilience émotionnelle aident, mais je pense que l’éducation scientifique pourrait faire plus pour faciliter cette très grande transition: de l’apprentissage ce que d’autres ont découvert une fois à faire vos propres découvertes. Plus nous sommes à l’aise avec notre stupidité, plus nous pataugerons profond dans l’inconnu et plus nous sommes susceptibles de faire de grosses découvertes.

Référence du texte original : Martin A. Schwartz, « The importance of stupidity in scientific research« , 2008 J Cell Sci 121,1771 doi: 10.1242/​jcs.033340

Source : Dr Goulu (blog Pourquoi Comment Combien)

Tara s’attaque au plastique de la Méditerranée

De mai à décembre 2014, l’expédition Tara va s’intéresser à la présence de plastique dans l’ensemble du Bassin méditerranéen, de Gibraltar à Beyrouth. Des prélèvements de plastique et de plancton seront réalisés en mer, à l’aide d’un filet Manta, près des mégapoles, mais également au large.

Le Bassin Méditerranéen concentre 30% du trafic maritime mondial entre Suez et Gibraltar. 450 millions de personnes y vivent, avec des niveaux de développement différents et des cultures différentes… « C’est un laboratoire assez intéressant », estime Romain Troublé, Secrétaire général de Tara Expéditions

Que devient le plastique en mer ?

Lorsqu’un plastique est rejeté en mer, il va se fragmenter en éléments flottants de plus en plus petits. On retrouve un ensemble large de composés différents : polystyrène, polyéthylène, nylon, polyuréthane, polypropylène… Ces plastiques sont « des éponges aux polluants organiques persistants : PCB, dioxines ou des perturbateurs endocriniens », rappelle Gaby Gorsky, Directeur scientifique de Tara Méditerranée.

Parallèlement à l’adsorption de ces polluants, les fragments de plastique sont colonisés par des micro-organismes (bactéries, algues, champignons et protozoaires), qui vont former un biofilm à sa surface. Au final, les polluants organiques persistants (POP) adsorbés sur le plastique peuvent être relâchés, notamment dans le système digestif de ces micro-organismes. Ces POP sont bioaccumulables, c’est-à-dire qu’ils s’accumulent dans leur organisme, laissant supposer qu’ils peuvent entrer dans la chaîne alimentaire.

Mais ce n’est pas tout. Ces fragments sont ensuite charriés par les courants, certains jusqu’aux plages. Ils peuvent ainsi véhiculer des espèces exogènes ou invasives qui bouleversent les écosystèmes.

Comment caractériser la pollution ?

Les prélèvements réalisés par Tara Méditerranée vont permettre d’évaluer la répartition spatiale des fragments de plastique flottants de 0,3 mm à 5 cm. Les scientifiques à bord filtreront aussi directement de l’eau pour prélever et analyser les fragments plus petits. Environ 150 stations de prélèvements sont prévues jour et nuit. Chaque jour, au moins une station comportera entre 3 et 5 prélèvements par Filet Manta, dont 1 à 2 prélèvements de nuit. « On compte à peu près 150 stations, mais à peu près 400 à 500 échantillons », résume Gaby Gorsky.

Les différents types de plastiques et les POP seront caractérisés. Grâce à la microscopie électronique à balayage, à la microscopie stéréoscopique et à l’analyse génomique, l’expédition s’intéressera aussi aux micro-organismes colonisant les plastiques. Enfin, elle déterminera la structure des écosystèmes du plancton en contact avec les fragments de plastique, le jour et la nuit.

Lors des escales, l’équipage sensibilisera les populations rencontrées. Les messages véhiculés seront notamment en lien avec  la réduction de la pollution à la source via l’éducation, le recyclage, la promotion de l’économie circulaire et l’éco-conception. L’équipage s’efforcera aussi de promouvoir une gestion intégrée des bassins versants grâce au nettoyage des canaux et des rivières et militera pour l’interdiction du sac plastique à usage unique dans tout le Bassin.

Par Matthieu Combe, journaliste scientifique

News environnement : juin 2014

Apple et Google : concurrents ou partenaires des énergéticiens ?

Contrôler depuis son iPhone la température de son salon, l’éclairage de sa chambre à coucher ou encore l’ouverture de la porte de son garage : telle est la promesse faite par Apple lors de sa Worldwide Developer Conference [1]. Après l’acquisition de Nest par Google début 2014 [2], cette nouvelle annonce confirme l’intérêt croissant que portent les géants de l’IT (Information Technology) à la maison connectée.

Parmi une large panoplie d’applications domotiques possibles, ces acteurs pourraient être amenés à développer de nouveaux services énergétiques à destination du client résidentiel. Les énergéticiens s’en inquiètent et s’interrogent sur la stratégie de ces nouveaux entrants sur le segment de la commercialisation de services énergétiques.

Un nouveau paradigme : le consommateur au coeur du système électrique

Si les grands principes de fonctionnement d’un système électrique n’ont guère évolué au cours du dernier siècle, l’introduction des NTIC (Nouvelles Technologies de l’Information et de la Communication) bouleverse en profondeur le secteur électrique. Le Smart Grid (réseau électrique intelligent) révolutionne la manière de penser le système électrique et force les électriciens à reconsidérer les interactions entre consommateurs, gestionnaires de réseaux électriques, fournisseurs et producteurs d’électricité.

L’informatisation des réseaux électriques ouvre la voie à une nouvelle gestion du système. Avec un pilotage des flux d’information bidirectionnels, permis notamment par les compteurs communicants, les opérateurs de réseau peuvent désormais jouer sur la demande via des programmes d’effacement pour ajuster l’équilibre production/consommation nécessaire au bon fonctionnement du réseau électrique. Notons également que les technologies de production décentralisées se démocratisent rapidement, notamment en Californie.

Rémunération pour réduire sa consommation via des offres d’effacement, possibilité de produire de l’électricité verte à partir de ses propres panneaux solaires : le consommateur a une nouvelle manière d’appréhender l’électricité. Pure commodité, l’électricité est de plus en plus considérée comme un produit avec son lot de services associés. [3]

Cette manière de commercialiser l’énergie déstabilise les utilities (énergéticiens), peu coutumiers des nouvelles méthodes marketing et l’approche dirigée vers le consommateur, qui fait le succès des sociétés de services. L’émergence d’acteurs comme Google sur le créneau des services énergétiques force donc les utilities à se remettre en question et à s’interroger sur le rôle de ces nouveaux entrants.

La « Smart Home » (maison intelligente), opportunité de développement de nouveaux services énergétiques

En janvier 2014, Google a officiellement affiché son intention de devenir un acteur clef de la maison connectée en acquérant pour 3,2 milliards de dollars la société spécialisée dans les thermostats intelligents Nest. Véritable cheval de Troie dans l’enceinte de la maison, comme le souligne Maxime Veron, Directeur Marketing de la jeune entreprise californienne créée en 2011 par Tony Fadell (le créateur de l’iPod), la vocation du thermostat n’est pas de se limiter à cette fonctionnalité. Il constitue un point d’entrée sur lequel s’appuyer pour bâtir de nouveaux services dans l’espace de la maison connectée. Pour preuve, Nest a récemment annoncé son intention d’ouvrir son Application Programming Interface (API) afin de permettre à des tiers de développer des applications en interaction avec son thermostat.

Début juin 2014, Apple a lancé son Home Kit, un kit de développement facilitant la prise de contrôle des équipements ménagers certifiés Made for iPhone/iPad/iPod. De plus, si ces grands acteurs de l’informatique développent à terme de nouveaux services énergétiques par le biais de la maison connectée [4], les sociétés issues de la télécommunication comme Comcast ou Verizon se positionnent déjà clairement sur le segment de la fourniture d’électricité. Ces dernières proposent à leurs clients des packages regroupant téléphonie, internet et électricité.

Quel rôle pourrait jouer une entreprise comme Google dans l’énergie ?

Générant 95% de ses revenus publicitaires en 2012, Google est avant tout une régie publicitaire. L’ambition de Google dans l’énergie n’est pas de se substituer aux utilities mais d’accroître sa connaissance du client final afin d’améliorer toujours davantage son ciblage publicitaire. L’accessibilité aux données énergétiques (Green Button [5], capteurs, etc.) facilitée pourrait permettre à Google de faire valoir ses compétences en analyse et traitement de données pour développer de nouveaux services tels que des audits énergétiques ou encore la gestion intelligente de la charge. Avec par exemple un thermostat Nest en charge de l’optimisation de la température, Google a la possibilité de récupérer des informations précieuses : présence au domicile, nombre d’habitants, appareils connectés dans l’enceinte de la maison, etc. Par ailleurs, Google pourrait reproduire le modèle de services qu’il a développé sur le web (Youtube, Gmail), à savoir, fournir des services énergétiques gratuitement en échange d’information sur le client.

Google, et plus largement les sociétés des NTIC, sont des acteurs de l’économie de service. Avec l’informatisation du monde de l’énergie, des opportunités de développer de nouveaux services énergétiques se présentent pour ces entreprises dont le coeur de métier est l’analyse de données.

Reste à savoir s’ils sauront développer des services pertinents pour leurs usagers. Enfin, il est plus que jamais essentiel que les énergéticiens s’interrogent sur leur modèle d’activité et la manière de considérer ces nouveaux acteurs de services : concurrents ou partenaires ?

Source : bulletins-electroniques

L’augmentation du CO2 atmosphérique : impact sur l’alimentation humaine

Une étude d’envergure menée par plusieurs institutions de renom, issues de 4 pays différents (Etats-Unis, Australie, Israël et Japon) vient de confirmer une conséquence pressentie de l’augmentation de la concentration de dioxyde de carbone (CO2) dans l’atmosphère : la baisse des qualités nutritionnelles de certaines céréales et légumineuses. Les résultats sont présentés dans la revue Nature.

L’expérimentation en plein air confirme les résultats antérieurs obtenus en milieux confinés

Mauvaise nouvelle pour les générations futures : au vu de l’augmentation prévisible des niveaux de CO2 au cours du siècle à venir, certaines céréales et légumineuses deviendront beaucoup moins nutritives qu’elles ne le sont aujourd’hui. L’Université d’Harvard, l’UC Davis, l’Université d’Illinois à Urbana Champaign, l’Université de Pennsylvanie l’Université d’Arizona, l’USDA et le Nature Conservancy ont contribué à l’analyse pour les Etats-Unis.

Les chercheurs ont examiné plusieurs variétés de blé, de soja, de petits pois, de riz, de maïs et de sorgho en plein air, dans les conditions de culture de 2050, telles qu’elles sont anticipées concernant les niveaux de CO2 dans l’atmosphère (les concentrations actuelles sont proches de 400 parties par million, et devraient s’élever à 550 ppm en 2050). Les équipes ont pu simuler des niveaux de CO2 élevés dans des champs en plein air, à l’aide d’un système appelé Free Air Concentration Enrichment (FACE [1]), qui diffuse du CO2 autour de l’essai, en surveille la concentration à l’aide de capteurs au niveau des plantes et ajuste ainsi le débit de diffusion pour simuler une concentration de CO2 atmosphérique semblable aux conditions futures. Dans cette étude, l’ensemble des autres conditions de croissance (lumière, sol, eau, température) sont les mêmes pour les plantes cultivées sous atmosphère enrichie en CO2 et celles utilisés comme témoins.

La présente étude, par son envergure, a permis de décupler la quantité de données auparavant existantes, concernant la teneur en zinc et en fer des parties comestibles des plantes cultivées dans des conditions de FACE. Le zinc et le fer ont diminué de manière significative dans le blé, le riz, les pois et le soja étudiés. Le blé et le riz subissent également des baisses notables de leur teneur en protéines en présence de concentrations élevées en CO2. Les mécanismes responsables des variations de concentrations en éléments minéraux dans les grains en fonction de la teneur en CO2 dans l’atmosphère sont peu connus, et les expériences entreprises jusqu’ici semblent indiquer que les paramètres impliqués sont multifactoriels et propres à chaque espèce. Le type de photosynthèse, processus bioénergétique à l’aide duquel les plantes, les algues et certaines bactéries produisent l’énergie nécessaire à la synthèse des éléments organiques grâce à la lumière du soleil et à des composés minéraux (en particulier CO2 et H2O), semble néanmoins impliqué.

Réactions différentes en fonction du type de photosynthèse

En effet, seules les plantes en C3 étudiées sont sensiblement affectées par l’augmentation du CO2 atmosphérique, par opposition aux plantes en C4. Le maïs et le sorgho, qui font partie de cette dernière catégorie, n’ont pas réagi de la même façon, conformément à ce qui était attendu : la photosynthèse réalisée par les plantes en C4 ne fait pas appel aux mêmes mécanismes cellulaires. Ces deux types de photosynthèse sont majoritairement présents dans le monde végétal : le mode de fixation du dioxyde de carbone diffère et est plus efficace pour les plantes en C4 dans les bonnes conditions. Le nom des processus provient des molécules impliquées : dans le premier cas, la molécule à l’origine des réactions de fixation du carbone contient 3 atomes de carbones (3-phosphoglycérate), contre 4 (oxaloacétate) dans le second.

Largement sous-représentées (environ 5% du règne végétal), les plantes en C4 réagissent différemment à l’augmentation du CO2 atmosphérique : des travaux antérieurs réalisés à l’Université de l’Illinois à Urbana Champaign [2] ont démontré que la photosynthèse de type C4 n’est pas affectée par la présence d’une atmosphère à haute concentration de CO2. Ces plantes concentrant en effet naturellement le dioxyde de carbone dans leurs feuilles, la photosynthèse est déjà saturée en CO2 dans les conditions actuelles. Une augmentation du CO2 atmosphérique n’a donc pas d’effet sur le processus photosynthétique.

L’hypothèse de base était donc que la concentration en éléments nutritifs dans les grains des plantes en C4 demeure relativement stable, ce qu’a confirmé l’étude. Cela représente un intérêt particulier pour le sorgho, le maïs et la canne à sucre, par exemple. Ces plantes sont majoritairement cultivées dans les pays en développement et plus de recherche est nécessaire pour déterminer comment les cultures des régions chaudes répondront à un taux de CO2 atmosphérique élevé, au vu des conséquences que cela pourrait avoir.

Les carences en fer et en zinc constituent déjà un problème global à résoudre

Ces résultats alertent les organisations internationales : les carences en fer et en zinc sont déjà actuellement un problème majeur de santé publique, concernant près de 2 milliards de personnes, et ce jusque dans les pays développés. L’Organisation Mondiale de la Santé estime que les carences en fer représentent le problème nutritionnel le plus répandu dans le monde [3], alors que les carences en zinc, très répandues également, impliquent des conséquences lourdes sur la croissance et le développement des enfants et la santé des adultes. Et si les effets de l’anémie sont connus, une alimentation carencée en zinc a également un impact important sur la santé, en induisant un risque accru d’infections gastro-intestinales, en provoquant des troubles gastro-intestinaux et en perturbant le système immunitaire et la fertilité [4].

Une diminution de la qualité nutritionnelle des aliments disponibles aujourd’hui, déjà souvent en quantité insuffisante dans leur état actuel, pourrait donc avoir des conséquences importantes sur l’alimentation des populations des pays en voie de développement.

Les projecteurs s’orientent vers les régions chaudes grâce à la meilleure adaptation des plantes en C4 à ces climats. Il est probable que les recherches se concentreront dans ce sens dans les années à venir : collecter des données relatives aux climats tropicaux avec les sols tropicaux, qui manquent aujourd’hui, constitue une priorité, pour tenter de compenser le phénomène d’appauvrissement de la qualité nutritionnelle des plantes et légumes en C3, étant donné que c’est dans ces régions que la sécurité alimentaire représente encore le plus gros défi.

Source : bulletins-electroniques.com

La régénération de la forêt à l’époque des dinosaures

Des restes fossilisés d’une forêt ancienne incendiée montrent un rétablissement écologique similaire à celui des forêts de l’ère moderne.

A une époque aussi lointaine que celle des dinosaures, soit il y a 66 millions d’années, les forêts se renouvelaient après un incendie de la même façon qu’aujourd’hui, selon une équipe de chercheurs de l’Université McGill et du Musée royal de la Saskatchewan.

La découverte de la première preuve fossilisée de l’écologie des feux de forêt – la repousse de végétaux après un incendie – réalisée lors d’une expédition menée par l’équipe dans le sud de la Saskatchewan, au Canada, fournit un aperçu de l’écologie sur la planète tout juste avant l’extinction massive des dinosaures. Les constatations des chercheurs viennent par ailleurs s’ajouter aux données probantes suggérant que le climat de la région était alors beaucoup plus chaud et humide. « En effectuant les fouilles qui ont mené à la découverte de végétaux fossiles conservés dans la pierre déposée juste avant la disparition des dinosaures, nous avons constaté que certains étaient riches en charbon fossilisé alors que d’autres n’en contenaient pas. A partir de ces constatations, nous avons pu reconstruire le paysage des forêts de l’ère du Crétacé, avec ou sans perturbations par le feu », explique Hans Larsson, titulaire de la Chaire de recherche du Canada en macroévolution à l’Université McGill.

Les travaux des chercheurs révèlent qu’au site du feu de forêt, la végétation est dominée par une flore assez semblable à celle retrouvée aujourd’hui au début de la régénération forestière après un incendie. Les forêts anciennes renouvelées ressemblent beaucoup à celles de notre époque. On y trouve des végétaux comme l’aulne, le bouleau et le sassafras, et dans les forêts matures, le séquoia et le ginkgo. « Nous cherchions à étudier les résultats directs d’un incendie de forêt s’étant produit il y a 66 millions d’années, préservés dans la pierre, affirme Emily Bamforth du Musée royal de la Saskatchewan et auteure principale de l’étude. Par ailleurs, nous avons maintenant la preuve que la température annuelle moyenne dans le sud de la Saskatchewan était de 10 à 12 degrés Celsius plus élevée qu’aujourd’hui, avec des précipitations presque six fois supérieures. »

« Pour la première fois, l’abondance de végétaux fossiles nous a également permis d’évaluer les conditions climatiques dans le sud-ouest du Canada pendant la dernière période d’existence des dinosaures, et nous a fourni une piste supplémentaire pour découvrir à quoi ressemblait l’écologie juste avant leur extinction », mentionne Hans Larsson, qui est aussi professeur agrégé au Musée Redpath.

Les incendies de forêt peuvent modifier la biodiversité végétale et animale. La découverte du rétablissement paléoécologique à la suite d’un incendie de forêt aidera les chercheurs à mieux comprendre la biodiversité immédiatement avant l’extinction massive des dinosaures. « Nous ne serons en mesure de comprendre pleinement la dynamique d’extinction que lorsque nous aurons compris les processus écologiques normaux qui se cachent derrière », soutient le professeur Larsson.

Source : bulletins-electroniques.com

L’Assemblée nationale a voté le remplacement de l’écotaxe par un péage poids lourds

La majorité socialiste a approuvé la nouvelle taxe, contre laquelle ont voté, pour des raisons opposées, l’UMP et les écologistes.

Le nouveau dispositif, annoncé par Manuel Valls dimanche et qui entrera en vigueur au 1er janvier 2015, concernera les camions de plus de 3,5 tonnes circulant sur un réseau de près de 4.000 kilomètres de routes nationales et locales très fréquentées par les poids lourds.

Elle devrait rapporter 500 millions d’euros par an, a confirmé dans l’hémicycle le ministre des Finances Michel Sapin. L’écotaxe, elle, devait porter sur 15.000 kilomètres de routes et rapporter près du double pour financer les infrastructures de transport.

L’Etat cherche à présent à compenser ce manque à gagner, et M. Sapin a reconnu ne pas être encore « en capacité de dire quelles autres ressources seront trouvées ». Il a toutefois évoqué, comme l’avait fait dès lundi la ministre de l’Ecologie Ségolène Royal l’idée de mettre à contribution les sociétés d’autoroutes.

La gestion de la collecte sera toujours assurée par la société Ecomouv, avec, a confirmé Michel Sapin, « une participation éventuelle de l’Etat » à son capital.

Les routes concernées sont celles dont le trafic quotidien de poids lourds excède 2.500 véhicules, soit 3.800 km au total. S’y ajoutent des routes susceptibles « de supporter un report de trafic » des poids lourds : routes d’Alsace, périphérique parisien, un tronçon de la route Centre-Europe-Atlantique.

Les véhicules agricoles, les camions-citerne de transport de lait ainsi que les véhicules forains ou de cirque seront exemptés de la taxe.

Son entrée en vigueur début 2015 sera précédée pendant trois mois par « une marche à blanc à l’automne ».

Le député UMP des Côtes d’Armor, Marc Le Fur, opposant de toujours à l’écotaxe, a noté « des progrès », mais jugé que « l’évolution ne va pas au bout des choses » car « cet impôt reste anti-économique ». Il s’est notamment inquiété que la liste des routes concernées soit fixée par décret, et non intégrée dans la loi.

A l’inverse, l’écologiste Eva Sas s’est indigné « d’une taxe au rabais », craignant le report des poids-lourds sur d’autres routes, les contreparties demandées par les sociétés d’autoroutes et « un financement des transports collectifs mis en danger ».

A cet égard, Michel Sapin a promis que les investissements en ce domaine ne seraient pas rognés.

La solution retenue est « un beau compromis intelligent » a soutenu Chantal Guitet (PS), tandis que son collègue Thomas Thevenoud a souligné qu’il « fallait trouver une solution vite ».

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Les députés veulent interdire les sacs plastiques à usage unique

Ce vote, intervenu dans le cadre d’un projet de loi sur la biodiversité, est « une bonne nouvelle » pour France Nature Environnement (FNE), qui espère que « cela ne va pas être détricoté immédiatement, car les lobbies sont à l’affût ».

Déjà, sous l’effet d’une convention volontaire, le nombre des sacs plastiques de caisse distribués en France dans les grandes surfaces alimentaires est passé de 10,5 milliards à 700 millions entre 2002 à 2011, souligne le gouvernement dans son exposé des motifs de l’amendement.

« Mais il y a lieu de poursuivre cette réduction car près de 5 milliards de sacs de caisse en matière plastique à usage unique et plus de 12 milliards de sacs dits +fruits et légumes+ sont encore distribués dans les commerces », ajoute-t-il.

La proposition vise donc à prendre en compte les enjeux liés à la consommation importante de sacs +fruits et légumes+ qui jusqu’à présent n’ont jamais fait l’objet de dispositions visant à en réduire leur consommation.

Elle prévoit une interdiction de distribution des sacs à usage unique sauf pour des sacs répondant à des conditions particulières: les sacs « biosourcés » et compostables.

« On pense que l’opinion est prête », souligne Benoît Hartmann, porte-parole de FNE, tout en plaidant pour « l’étape suivante, c’est-à-dire l’interdiction de tous les sacs jetables », y compris les sacs biodégradables, qui nécessitent d’être traités dans des composteurs industriels, et les sacs dits « oxofragmentables » censés se dégrader mais contenant des résidus de plastique.

Les sacs jetables, même biodégradables, sont « non écologiques », estime l’ONG, à la fois à travers le produit lui-même mais aussi à travers la « mentalité » qu’ils véhiculent en « laissant croire qu’on peut faire ses courses avec un sac qui va finir à la poubelle ».

La date de l’examen en séance du projet de loi sur la biodiversité n’est pas encore fixée.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

VirtualBench : National Instruments veut faire de la place sur les paillasses [publi-reportage]

Elle s’appelle VirtualBench, et elle vient d’être mise en vente. De quoi s’agit-il ? D’un petit boitier pas plus grand qu’un décodeur de chaîne cryptée ou qu’une box internet, qui compile un oscilloscope à signaux mixtes analogique (2 voies) et numérique (32 voies), d’une puissance de 100 MHz, un multimètre numérique de 300 volts pour dix ampères, une alimentation DC programmable, un générateur de fonctions de 20 Mhz, et des entrées-sorties numériques.

Et si le vrai luxe, c’était l’espace (sur la paillasse) ?

Avantage indéniable : ça fait de la place, comparé à l’ensemble de ces appareils disposés côte à côte sur une paillasse… autre avantage, selon Emmanuel Roset, ingénieur produit chez NI : le prix. « C’est une alternative à des outils qui coûtent cher, ne serait-ce que parce qu’ils comportent beaucoup de boutons, d’interfaces, de câblage, qui reviennent cher aux constructeurs. Avec NI VirtualBench, les coûts de production ne sont pas soumis à ces contraintes, c’est donc une solution beaucoup plus économique ». Vendu 1690 €, VirtualBench ne devrait pas fleurir sous les sapins de Noël cette année, mais pourrait bien séduire les écoles d’ingénieurs, universités et autres établissements du supérieur utilisant ce type d’outils. Et également les laboratoires et service maintenance des industries concernées par l’électronique, et autres Géo Trouvetou.

Alors oui mais, si il n’y a pas d’interface analogique, comment ça marche ? Via PC portable ou tablette (uniquement iPad pour l’instant). Un câble branché au PC, et le programme s’installe automatiquement, il est alors possible de gérer directement son outil, d’en enregistrer les résultats sous format Excel, de faire des captures d’écran des oscillations et de les exporter, et surtout, d’intégrer son VirtualBench dans Labview, le logiciel de conception de systèmes de mesure et de contrôle de National Instruments.

Pas besoin de jouer les programmeurs

Pour l’iPad, la transmission de données se fait par Wi-Fi, avec une portée théorique de 50 mètres. Bien pratique si l’on utilise VirtualBench de façon portative, ou simplement si on veut faire ses expériences tranquillement installé dans son canapé. L’application est gratuite sur l’Apple Store, qui propose aussi une version « démo », pour se faire une idée du produit avant achat.

Bref, VirtualBench devrait trouver son public, d’autant qu’il ne nécessite pas de programmation préalable à l’utilisation, mais se prend facilement en main dès l’installation. Les réfractaires à la virtualisation des interfaces de contrôles des instruments de ce type devraient donc perdre là un argument majeur.

Le mot de la fin à Emmanuel Roset, qui nous fait le plaisir de nous faire une petite démonstration rien que pour nous (pardonnez la qualité de la vidéo, tournée à l’improviste avec un smartphone) :

 

Par Bruno Decottignies

Les masques Eidos décuplent votre vue et votre ouïe

Les deux masques sont en nylon, conçus par impression 3D. Enveloppant le bas du visage jusqu’aux oreilles, le masque Eidos Audio vous donnera une fière allure futuriste. Au beau milieu du bruit émis par une foule parlant en même temps, le masque est capable de cibler les sons émis par une seule personne simplement en se tournant dans sa direction.

Le son est retranscrit via deux écouteurs stéréo directement dans les oreilles, mais aussi via deux transducteurs placés au niveau de la bouche. Ces transducteurs envoient les vibrations sonores par ostéophonie (conduction osseuse) directement dans l’oreille interne via les os du crâne. Ainsi, les transducteurs donnent l’impression que la personne parle directement à l’intérieur de votre tête. Le masque est relié à un logiciel qui filtre les sons, extrait la voix ciblée et envoie le résultat dans les oreilles et les transducteurs. 

Le masque Eidos Vision comporte deux écrans à l’intérieur, un en face de chaque œil. Une caméra encastrée au niveau du front filme l’environnement et, là aussi, le flux vidéo est transmis à un logiciel. Celui-ci décompose le mouvement de la scène en temps réel. Le résultat est impressionnant : si la vidéo projetée sur les écrans montre les personnages en mouvement, ils sont accompagnés d’une traîne révélant l’ensemble du mouvement passé. Le rendu est similaire à la traîne laissée par les balles dans la fameuse scène de Matrix !

L’utilisation du logiciel nécessite un ordinateur portable pour Eidos Audio et un iPhone pour Eidos Vision, ce qui limite un peu la mobilité des dispositifs pour le moment. Les concepteurs de ces deux prototypes visent dans un premier temps des applications professionnelles plutôt que grand public.

Quelles applications imaginer ?

Les concepteurs imaginent déjà des applications dans de nombreux domaines. Par exemple, lors d’un concert, les spectateurs équipés d’un masque Eidos Audio pourraient extraire uniquement la voix du chanteur ou les sons émis par un seul instrument en les isolant du bruit ambiant.

Un entraîneur muni du casque Eidos Vision pourrait quant à lui analyser plus facilement la technique de ses joueurs ou athlètes en analysant l’ensemble de leurs mouvements, ainsi que la trajectoire des objets lancés. Des agences de tourisme seraient également intéressées par ce masque pour augmenter l’expérience des touristes sur les sites touristiques importants. 

Dans le domaine médical, les deux masques permettraient d’aider des personnes handicapées ou des enfants ayant des difficultés de concentration.

Découvrez le rendu en vidéo :

Par Matthieu Combe, journaliste scientifique