Reach/CLP : toute l’actualité de juin 2014 2/2

Mise à jour de la liste des substances extrêmement préoccupantes (SVHC)

16/06/2014

L’ECHA a mis à jour la liste des substances extrêmement préoccupantes (SVHC) avec l’ajout de quatre nouvelles substances, classées comme CMR – cancérogènes, mutagènes et toxiques pour la reproduction (chlorure de cadmium, l’acide benzènedicarboxylique-1,2, ester de dihexyle (ramifié et droit), perborate de sodium et sel de sodium de l’acide perborique ainsi que le peroxométaborate de sodium). La liste des substances extrêmement préoccupantes (SVHC) candidates à l’interdiction dans le cadre de Reach comporte désormais 155 substances :

Les producteurs et les importateurs d’articles contenant l’une de ces quatre substances au 16 juin 2014 ont six mois pour notifier à l’Echa si la substance est présente dans des articles dans des quantités supérieures à une tonne par an et dans une concentration supérieure à 0,1%.

Plus d’information sur : echa.europa.eu/view-article/

Guide technique relatif à l’adaptation de la classification des substances et mélanges dangereux (ICPE)

16/06/2014

Le ministère de l’Ecologie et l’Institut national de l’environnement industriel et des risques (INERIS) publient une nouvelle version du guide technique relatif à l’application de la classification des substances et mélanges dangereux à la nomenclature des installations classées (ICPE).
Il intègre les évolutions de la réglementation liées à l’entrée en vigueur du règlement CLP et à la transposition de la directive Seveso 3, applicables à compter du 1er juin 2015. Jusqu’à cette date, la version antérieure du guide datant d’octobre 2010 reste la référence.

Directive SEVESO : developpement-durable.gouv.fr
Guide technique juin 2014 : ineris.fr/aida/sites/default/files

Proposition de restriction et demande d’autorisation approuvées par le RAC et le SEAC

17/06/2014

Le comité d’évaluation des risques (RAC) a adopté des avis sur les deux propositions de restriction concernant le nonylphénol et les éthoxylates de nonylphénol, et le 1-méthyl-2-pyrrolidone. Le comité d’analyse socio-économique (SEAC) a, quant à lui, trouvé un accord sur la proposition de restriction sur le nonylphénol. Les comités RAC et SEAC ont également trouvé un accord sur les projets d’avis pour les demandes d’autorisation relative aux phtalates, aux pigments de chromate de plomb et au trioxyde de diarsenic.

Plus d’information sur : echa.europa.eu/view-article

L’ECHA publie une nouvelle version de R4BP 3

17/06/2014

L’ECHA publie une nouvelle version de R4BP 3. Cette dernière version améliore l’interface utilisateur et intègre de nouvelles fonctionnalités de recherche.

Plus d’information sur : echa.europa.eu/view-article

Consultation publique pour de potentielles substances candidates à la substitution

17/06/2014

L’ECHA a lancé une consultation publique pour deux substances dont la substitution est envisageable. Les substances concernées sont : Medetomidine et triclosan . Les commentaires sont à soumettre pour le 15 août 2014.

Plus d’information sur : echa.europa.eu/addressing-chemicals-of-concern

Nouvelle consultation pour éviter les tests sur les animaux

17/06/2014

L’ECHA a lancé un appel visant à collecter des informations sur des substances pour éviter les tests inutiles sur les animaux. 18 propositions sont concernées. Les informations relatives à ces substances sont à soumettre pour le 1er août 2014.

Plus d’information sur : echa.europa.eu/information-on-chemicals

Nouvelles propositions de restrictions

18/06/2014

Deux nouvelles propositions de restriction sont en consultation publique jusqu’au 18 décembre 2014 : le bisphénol A dans le papier thermique et les sels d’ammonium dans les matériaux d’isolation en ouate de cellulose.

Plus d’information sur : echa.europa.eu/restrictions-under-consideration

Avis sur 9 substances actives

24/06/2014

Le comité des produits biocides a adopté un avis sur neuf substances actives. Les domaines d’applications des substances actives comprennent des conservateurs, un avicide et deux micro-organismes utilisés pour contrôler les moustiques et les larves de mouches noires.

Plus d’information sur : echa.europa.eu/view-article

Nouvelle proposition de classification et d’étiquetage harmonisé

24/06/2014

L’ECHA a lancé une consultation pour l’harmonisation et l’étiquetage harmonisé d’une nouvelle substance (Linalool; (S,R)-3,7-dimethyl-1,6-octadien-3-ol; dl-linalool [1], Coriandrol; (S)-3,7-dimethyl-1,6-octadien-3-ol; d-linalool [2], Licareol; (R)-3,7-dimethyl-1,6-octadien-3-ol; l-linalool [3]). Les parties intéressées sont invitées à soumettre leur commentaire sur le site de l’ECHA, et ce avant le 8 août 2014.

Plus d’informations sur : echa.europa.eu/harmonised-classification-and-labelling-consultation

Nouveau guide pratique sur les intermédiaires

25/06/2014

L’ECHA a publié un nouveau guide pratique sur « Comment déterminer si une substance est utilisée comme intermédiaire dans des conditions strictement contrôlées et de la façon de signaler les informations d’enregistrement intermédiaire dans IUCLID ». Ce nouveau guide aide les déclarants et les utilisateurs en aval à se conformer aux exigences pour les intermédiaires au titre de REACH et d’identifier les informations à signaler dans le dossier d’enregistrement. Le document donne un certain nombre d’exemples pratiques illustrant le type d’informations à fournir.

Plus d’information sur : echa.europa.eu/view-article/

Par Céline GABORIAUD, Ingénieur Environnement aux Ateliers d’Orval

Et aussi dans les
ressources documentaires :

Le télescope chilien ALMA est fin prêt

Il aura fallu attendre un moment avant que l’installation ne soit complète. Mais un peu plus d’un an après son inauguration en mars 2013 et quelques mois après sa mise en service, l’Atacama Large Millimeter Array (ALMA) peut désormais compter sur ses soixante-six antennes et prétendre au titre de plus grand observatoire astronomique du monde.

La dernière antenne, d’un diamètre de douze mètres, a donc retrouvée ses pairs récemment après avoir été tractée par des transporteurs géants jusqu’au site sur le haut plateau de Chajnantor. Elle rejoint ainsi les vingt-quatre antennes européennes, vingt-cinq américaines et seize japonaises déjà présentes. Toutefois, bien que l’installation soit terminée, le directeur de l’ALMA et ancien astronome Pierre Cox estime que le radiotélescope devrait être pleinement opérationnel en octobre 2015.

Un oeil de seize kilomètres de diamètre

Parmi ses particularités, l’ALMA est capable de percevoir les ondes millimétriques et sub-millimétriques émises par les corps célestes. Sa puissance permettra aux astronomes de sonder l’espace à la recherche des premières galaxies, celles dont l’éloignement atteint jusqu’à 10 000 millions d’années-lumière. Il pourra également traverser les épais nuages de poussières cosmiques. Après tout, lorsque les soixante-six antennes fonctionnent de concert, le radiotélescope se transforme en oeil immense au diamètre de seize kilomètres. Les données recueillies par les antennes sont ensuite transmises et traitées par un superordinateur appelé Corrélateur, capable de réaliser dix-sept quadrillons d’opérations à la seconde.

Les objectifs de ce projet mondial sont principalement d’étendre les connaissances actuelles sur la formation des planètes et des étoiles par l’observation de « l’Univers jeune ». Mais l’étude des systèmes solaires comporte une autre facette puisque les scientifiques s’intéresseront aussi à l’atmosphère d’autres planètes.

Les performances du radiotélescope emballent clairement les astronomes, qui se sont empressés de faire leur réservation. Sur les 1 380 demandes qu’à reçu l’observatoire – « le nombre le plus élevé jamais reçu par un observatoire » a précisé Pierre Cox, enchanté – « seule une demande sur cinq a été acceptée ». C’est donc une affaire qui roule. Dès sa mise en route, l’Alma a permis d’observer la collision de deux galaxies à soixante millions d’années-lumière. Et en juillet, c’est l’embryon d’une étoile géante, distante quant à elle de 11 000 années-lumière, que le radiotélescope a surveillé.

Par Sébastien Tribot

La Nasa débute un test de technologies qui pourraient poser des hommes sur Mars

L’énorme ballon gonflé à l’hélium a été lâché à 18H40 GMT depuis la base militaire de l’île hawaïenne de Kauai, 25 minutes après l’ouverture d’une fenêtre de lancement, selon les images de la télévision retransmises en direct.

Le ballon qui, une fois totalement gonflé en s’élevant dans l’atmosphère sera de la taille d’un terrain de football, transporte un vaisseau de la forme d’un disque appelé « Low-Density Supersonic Decelerator », ou LDSD, qui est attaché à un parachute géant.

Il faudra entre deux et trois heures au ballon pour atteindre 36.600 mètres, où il flottera. Peu après, le vaisseau LDSD sera largué et son moteur de fusée s’allumera pour l’amener à 54.900 mètres d’altitude, à 3,8 fois la vitesse du son, ou 4.651 kmh.

C’est alors que sera testée la première nouvelle technologie objet de ce test.

Il s’agit du ralentisseur supersonique aérodynamique gonflable en forme de beignet rond avec un trou au milieu, appelé SIAD (Supersonic Inflatable Aerodynamic Decelerator).

Le SIAD freinera le vaisseau jusqu’à une vitesse d’environ 2,5 fois la vitesse du son (3.060 kmh) avant que ne se déploie le gigantesque parachute supersonique qui freinera la descente du vaisseau pour un amerrissage en douceur, 40 minutes après son largage.

Ces nouvelles technologies sont testées à très haute altitude, car les conditions y sont similaires à celles de la haute atmosphère de Mars.

La Nasa prévoit deux autre vols du LDSD pour tester plus spécifiquement les deux technologies de freinage et d’atterrissage, le ralentisseur gonflable et le ballon.

« Si notre soucoupe volante atteint la vitesse et l’altitude prévues, ce sera un grand jour pour nous », avait dit récemment Mark Adler, le responsable du projet LDSD.

Depuis les années 1970, la Nasa utilise le même système de parachute pour freiner ses atterrisseurs et robots qu’elle pose sur la planète rouge, alors qu’ils descendent à travers la fine atmosphère martienne.

Mais, avec les projets d’exploration de Mars plus ambitieux, la Nasa aura besoin de vaisseaux spatiaux beaucoup plus lourds. Cela complique un amarsissage et requiert un système de parachute beaucoup plus puissant et élaboré.

Des vents trop forts à Kauai avaient contraint la Nasa à repousser cette expérience initialement prévue durant une fenêtre de lancement de deux semaines, début juin.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Interdiction des feux de cheminées à Paris en Janvier 2015

La question des émissions des particules fines générées par les appareils de chauffage au bois fait polémique. Dans les foyers ouverts, avec des rendements situés entre 10 et 15 %, la combustion est incomplète, pollue et brûle beaucoup de bois pour pas grand-chose. Dans un foyer fermé, un insert ou un poêle, le rendement peut néanmoins atteindre 85 % et jusqu’à 94 % pour une chaudière.

Selon l’ADEME, une cheminée à foyer ouvert émet beaucoup plus de particules fines qu’un appareil à bois performant. « Selon des estimations récentes, un foyer ouvert et un foyer fermé antérieur à 2002 émettent respectivement 97 et 91 kg de particules primaires par an, alors qu’un foyer fermé mis sur le marché après 2007 en émet 8 kg/an et un foyer fermé labellisé Flamme Verte 5 étoiles, 3 kg/an », note l’ADEME dans son avis « Bois énergie et qualité de l’air ».

Pour cette raison, la ville de Paris et des centaines de communes d’Ile-de-France ont préparé un arrêté (arrêté inter-préfectoral du 25 mars 2013) pour interdire les foyers ouverts et les appareils peu performants pour le chauffage principal. Ainsi, seront interdits l’utilisation de tous modes de chauffage au bois en Ile-de-France au 1er janvier 2015. Seuls les appareils très faiblement émetteurs de particules pourront encore être utilisés à condition d’avoir obtenu pour cela une dérogation du préfet de police. « Cette mesure n’est pas populaire », reconnaît Roland Gérard, Chef adjoint du service bioressources de l’ADEME, « mais au niveau de la qualité de l’air, cela se justifie, il n’y a pas de doutes là-dessus », poursuit-il.

Des dispositions différentes en zones sensibles et hors zones sensibles

Dans les zones sensibles pour la qualité de l’air en Ile-de-France, soit dans 435 communes, l’utilisation des foyers ouverts deviendra interdite, même en cas de chauffage d’appoint ou de flambée d’agrément. Seuls les appareils individuels de combustion de bois (les inserts, les foyers fermés, les poêles, les cuisinières et les chaudières) performants seront autorisés. Le décret définit comme performant, « un équipement qui répond à au moins une des conditions suivantes : rendement supérieur ou égal à 70 % et taux de CO inférieur ou égal à 0,12 % (à 13 % d’O2) ; dispose du Label Flamme Verte 5 étoiles ».

Hors zone sensible, les cheminées à foyer ouvert seront autorisées uniquement si elles servent de chauffage d’appoint ou d’agrément. Les autres systèmes de chauffage seront autorisés.

Les particules fines vont-elles diminuer sensiblement ?

En Ile-de-France, selon les mesures d’Airparif, le chauffage au bois résidentiel représente 23% des émissions totales de PM10 (particules inférieures à 10 micromètres) et 32 % des émissions totales de PM2,5 (particules inférieures à 2,5 micromètres).

Mais en faisant des mesures de concentration dans l’air, l’association s’est rendue compte qu’en centre-ville, seulement 32 % des particules sont dues aux émissions de l’agglomération. La grande majorité (68 %) est en réalité importée d’autres régions françaises et européennes ! Ainsi, parmi les 32 % de particules locales, la contribution du trafic et du chauffage au bois résidentiel est similaire, représentant respectivement 8 % et 7 % des particules respirées.

Dans la capitale, le long du trafic, 44 % des particules présentes sont dues au diesel et aux deux roues. 17 % proviennent des émissions de la ville et 39 % des importations d’autres régions. Au final, le chauffage au bois ne représenterait que 4 % des particules totales présentes le long des axes routiers.

Cet arrêté devrait donc entraîner une faible diminution de la concentration en particules dans la ville. Si les autres régions ne prennent pas des mesures similaires et si la part du diesel ne diminue pas dans la propulsion des véhicules, les particules fines continueront bien de nous contaminer ! Pour lutter efficacement contre les particules fines, il faudrait également prendre des mesures complémentaires pour diminuer les émissions liées au diesel, au fioul, au kérosène, au charbon, aux incinérateurs, à la combustion de biomasse à l’air libre, etc.

Par Matthieu Combe

Photovoltaïque. L’île d’Ukujima accueille le plus grand projet « solar sharing » du monde

L’approche éco-intelligente du solar sharing (« to share », partager) consiste à utiliser une même surface pour les productions végétale et photovoltaïque. La surface agricole est ainsi doublement valorisée. La ferme solaire est perchée à environ 2 mètres 50 au dessus du sol et l’on peut cultiver en dessous.

Le principe de la Milpa, version écotechnologique

De nombreuses espèces végétales se développent en effet très bien dans des conditions de semi-ombre car leur point de saturation de la photosynthèse est bas. C’est le cas des choux, laitues, épinards, pommes de terre, betteraves, fraises, pois, haricots, radis, betteraves, navets, rutabagas et autres topinambours.

Les panneaux peuvent être espacés de manière intelligente afin de laisser passer la quantité de lumière optimale pour les espèces végétales cultivées. Les Mayas, dans l’actuel Mexique, cultivaient le haricot et la courge sous le maïs, une pratique appelée « Milpa » ou « technique des trois sœurs ». Elle permet de réduire les volumes d’arrosage et d’augmenter la production des trois espèces. Dans le cas du solar sharing, les structures porteuses des panneaux solaires peuvent servir de tuteurs pour les plantes grimpantes, comme le pois et le haricot.

Les projets de solar sharing se sont répandus de manière virale au pays du soleil levant suite à la catastrophe nucléaire de Fukushima en 2011.

Nagasaki mon amour

Ukujima, tout au nord de l’archipel de Goto, préfecture de Nagasaki, est une île de 24 kilomètres-carrés dont la densité démographique est de 83 habitants par kilomètre-carré (contre 112 en France).

Le projet prévoit l’installation d’1,7 million de panneaux solaires Kyocera à base de silicium totalisant une puissance crête de 430 MW sur une surface agricole de 6,3 kilomètres-carrés. Soit le quart de la surface de l’île.

La production prévue est de 0,5 TWh par an ce qui permettra de répondre à la demande électrique de 140.000 foyers japonais standards. Elle sera exportée par 60 kilomètres de câble sous-marin vers la ville de Sasebo qui compte 261.000 habitants, soit l’équivalent de la population de la ville de Nantes.

Ce grand projet, en plus du groupe Kyocera, implique d’autres entreprises : Photovolt Development Partners Gmbh, Kyudenko Corporation, ORIX Corporation et Mizuho Bank Ltd.

C’est sur une autre île japonaise, Okinawa, qu’a été construite la première STEP à eau de mer du monde, un système de stockage de l’énergie utilisé aussi par l’île Canarienne d’El Hierro dans le cadre de son projet d’autonomie énergétique.

Des moutons à l’abri des caprices de la météo

Le grand projet solaire d’Ukujima va permettre de vitaliser l’activité agricole de l’île. Selon le site spécialisé SolarSharing, cette approche permet au Japon de multiplier par 10 les revenus des maraîchers.

En Allemagne plusieurs fermes solaires sont couplées à l’élevage de moutons. Les éleveurs ont remarqué que la présence des panneaux améliore la santé de leur cheptel car ils leur servent d’abri contre la pluie, le vent et le soleil.

Une autre façon d’économiser les surfaces consiste à réaliser des fermes flottantes sur des plans d’eau douce. « Notre système peut être installé sur des anciens lacs de carrières, des bassins écrêteurs de crues et d’irrigation, des réservoirs d’eau potable ou encore des bassins industriels pollués et des terrains inondables » explique Alexis Gaveau, directeur de la PME Ciel et Terre, spécialiste français de cette technologie.

En France le pré-projet de loi sur la transition énergétique envisage de soutenir « le déploiement de nouvelles centrales au sol (sans préjudice sur les terres agricoles).» Le modèle japonais du solar sharing et l’innovante technologie du solaire flottant permettent précisément d’éviter tout préjudice.

La production de 500 millions de kWh par an prévus au niveau de la ferme solaire d’Ukujima correspond à 2,5% de la demande électrique de la Bretagne, première région agricole française où 225 kilomètres-carrés sont utilisés pour la culture du choux-fleur, 89 pour le petit pois, 35 pour le haricot, 23 pour les épinards et 20 pour les pommes de terre, plantes adaptées au solar sharing.

A Ukujima, une partie de la surface de la ferme solaire sur pilotis sera utilisée pour cultiver des plantes destinées à l’alimentation du bétail, comme par exemple l’avoine et d’autres graminées.

Un marché en forte croissance à l’échelle globale

Le Japon a installé 7 GW de solaire PV durant la seule année 2013. Contre 0,6 GW en France. Afin de réduire la pollution de l’air néfaste à la santé humaine la Chine a comme objectif de parvenir à une puissance PV cumulée de 70 GW dès 2020.

Les USA, sous l’impulsion du milliardaire Elon Musk, vont de leur côté construire une grande usine capable de produire 1 GW de panneaux solaires de haute qualité par an, puis une série de giga-usines d’une capacité de 10 GW/an.

A l’échelle mondiale 38 GW ont été installés en 2013 selon l’EPIA, l’Association Européenne de l’Industrie Photovoltaïque, ce qui a permis d’atteindre une puissance cumulée de 140 GW. 57 GW de nouvelles capacités seront installées durant l’année 2014 selon le cabinet spécialisé IHS. A ce rythme le seuil des 300 GW pourrait être franchit dès 2016, délivrant alors une quantité d’électricité équivalente aux 63 GW électro-nucléaires français, le second parc nucléaire le plus important du monde après celui des USA (104 GW).

Séduit par une idée d’Eicke Weber, président de l’institut Fraunhofer à Freiburg, le président de la République François Hollande envisageait en 2013 la construction d’un « airbus du solaire » franco-allemand. Ni l’Asie ni l’Amérique n’attendront l’Europe sur cet énorme marché d’avenir.

En savoir plus :

Olivier Daniélo

Ressources pétrolières : quelques pièges à éviter pour en parler

Il vaut 42 US gallons ou 159 litres. Ce baril, traditionnellement peint en bleu, a supplanté celui de whisky qui ne représentait que 40 US gallons, grâce a ses 5 % de volume en plus,  gracieusement octroyés dit-on par Rockefeller, lassé des complaintes de ses clients qui trouvaient les barils de pétrole  insuffisamment remplis. Geste commercial, vrai ou faux,  mais à la hauteur de la réputation du  personnage.

  • Figure 1 : densité des produits pétroliers (données EIA)

Ce comptage en volumes du pétrole et de ses dérivés présente toutefois une source d’ambiguïté  majeure, en raison de la variation de densité des produits pétroliers  tout au long du processus de raffinage (FIG.I). Un baril de pétrole brut, de degré API =35 et de masse volumique autour des 0,85 g/cm3,  conduit par les opérations de raffinage à des produits volatils comme les gaz liquides (propane, butane) de densités 0,55 et d’essence de densité 0,737 ou de white spirit de densité 0,74.

Pour des motifs économiques et de demande du marché en carburants, les pétroliers par de complexes  opérations de conversion profonde, produisent de moins en moins de produits lourds (fonds de baril) et de plus en plus de carburants légers ce qui entraîne la première règle de base des productions pétrolières actuelles: il faut en volume de moins en moins de pétrole pour produire un gallon ou un litre de carburant en sortie des raffineries.

Cette règle simple est de plus exacerbée par l’utilisation croissante de biocarburants qui sont utilisés comme additifs aux carburants pétroliers. Selon l’EIA,  85% de l’essence vendue aux Etats-Unis  dès 2010 contenait de l’éthanol, de nos jours ce sont près de 100% de l’essence vendue sur ce continent qui sont alcoolisés.

En Europe, d’après EurObserv’ER les consommations de biocarburants en 2012 ont atteint les 14,4 MTEP dont 11,4 pour le biodiesel. Ces quantités représentent en volume autour des 310 mille barils/jour pour une consommation moyenne de produits pétroliers en Europe de 13,5 millions de barils/jour. On le voit, il reste d’énormes progrès à faire dans cette vieille Europe minée par son addiction au pétrole largement importé.

Ces affirmations nécessitent d’être étayées globalement par quelques chiffres issus des publications de Stuart Staniford qui compilent depuis des années les données de l’EIA américaine, de l’IEA parisienne (OCDE) et de l’OPEP.

  • Tableau 1 : Extractions en millions de barils par jour de pétrole brut (« crude ») et d’une fraction des condensats de gaz assimilables au pétrole (« C&C ») comparées aux livraisons de produits pétroliers et autres biocarburants en sortie de raffineries (« liquid ») représentés par Stuart Staniford
  C&C Liquid Delta Gain (%)
2013 76 91 15 20 %
2002 67 77 10 15 %

En 2002 le monde extrayait  67 millions de barils par jour de pétrole brut et de condensats  (C&C, TAB.I) pour une livraison en sorties de raffineries de 77 millions de barils par jour de produits raffinés (liquid). Ceci représentait un gain en volume de 15%. En 2013 ces volumes représentaient respectivement 76 et 91 millions de barils par jour et affichaient un gain en volume de 20%.

Entre-temps les volumes de biocarburants consommés dans le monde sont passés de rien du tout en 2002 à 2,5 millions de barils par jour en 2013 (selon la FAO et de nombreuses raffineries obsolètes ont été fermées (surtout en Europe) ou modernisées et équipées de conversion profonde qui fait quasiment disparaître les fonds de barils de fortes densités. Il faut en moyenne de moins en moins de pétrole ou de condensats  en volume pour produire un litre de carburant.

En d’autres termes la progression en volume des consommations de produits pétroliers, comptée en sortie de raffineries, est supérieure à celles des extractions de pétrole et de condensats. Les progrès continus dans le raffinage et l’utilisation croissante des biocarburants en sont la cause.

C’est la raison pour laquelle il vaudrait mieux éviter de publier certains chiffres erronés qui alimentent la littérature, surtout française qui traduit gaillardement : « Global oil supply » par « productions mondiales de pétrole brut » (sic) alors qu’il faudrait intituler le graphique  par « fournitures mondiales en  produits pétroliers raffinés et autres biocarburants » qui sont aux variations de stocks près des consommations.

La notion de « supply » place la mesure en volume à la sortie des raffineries, biocarburants compris. Les publications américaines parlent aussi de « liquid » issus des raffineries qui vont des gaz liquéfiés comprimés (propane, butane) aux fuels lourds ou pétrole brut brûlés dans les chaudières industrielles fixes ou celles embarquées de  certains navires.

Il faut reconnaître que les publications d’agences telles que l’IEA ou les publications de l’OPEP ne font que bien peu d’efforts pédagogiques pour que le lecteur non averti s’y retrouve.

Par Raymond Bonnaterre

Les productions d’hydrocarbures deviennent de plus en plus complexes

De  nombreuses théories basées sur les équations d’épuisement de certains champs de pétrole sur le modèle californien ont fait florès ces dernières années en annonçant la fin imminente de la ressource pétrolière mondiale.

Or il apparaît, à ce jour, que grâce aux investissements massifs de l’industrie pétrolière, motivée par les prix rémunérateurs, et grâce aux succès d’exploitants américains dans l’extraction de gaz non conventionnels, que  les ressources mondiales en hydrocarbures sont de nature à pouvoir satisfaire une demande mondiale de produits pétroliers en progression, tirée vers le haut  par les consommations asiatiques. En effet, l’extraction des gaz dont on récupère les condensats (« gaz humides ») contiennent une part importante d’hydrocarbures assimilables à du pétrole léger.

Cet apport de « liquides » sous-produits de l’extraction des gaz, explique pour une large part les progrès rapides réalisés dans l’extraction de pétroles légers aux Etats-Unis (Fig.1) qui implique la poursuite des importations de pétroles lourds ou de bitumes canadiens nécessaires aux raffineries américaines qui produisent et exportent de larges quantités de gazole. Les Etats-Unis vont devenir le premier producteur mondial de pétrole mais ils devront toujours importer du pétrole lourd pour alimenter leurs raffineries.

  • Figure 1 : Historique et projection des  productions américaines de pétrole par types de densité API (« American Petroleum Institute ») selon l’EIA

L’annonce réaliste d’un  pic de production de pétrole (« peak oil ») aurait dû  reposer sur l’évaluation la plus rigoureuse et exhaustive possible des « réserves ultimes » qui devraient être connues dans quelques siècles, si l’humanité exploite encore la ressource, quand seront extraits du sous-sol les derniers barils de pétrole et de condensats de gaz.

Cette annonce, largement vulgarisée et commentée durant la dernière décennie, était d’évidence prématurée. Cette incohérence provient essentiellement du fait que les promoteurs de ce « stress écologique » ne prenaient en compte que les seules réserves « classiques » de pétrole et oubliaient de comptabiliser toutes les autres formes d’énergies fossiles et de biomasse qui par le progrès technologique peuvent conduire à l’élaboration de carburants ou d’intermédiaires de synthèse.

 

Pourtant cet inventaire beaucoup plus exhaustif, tenant compte du coût de la ressource,  avait été réalisé par certains comme en atteste la très importante figure 3.

  • Figure 2 : Ressources ultimes estimées (Source IEA. dans EIA Meeting “the world’s demand for liquid fuels” April 2009-Slide N° 11) Consulter la publication

Les divers rectangles de la figure 2 représentent, sur l’axe horizontal, les réserves ultimes estimées en milliards de barils en fonction les coûts de productions mini et maxi, en dollars 2008, sur l’axe vertical. Sont représentés respectivement de la gauche vers la droite du graphique :

  • Jaune : les quantités de pétrole cumulées extraites et consommées au jour de la publication depuis le XIXème siècle, de l’ordre de 1100 milliards de barils, (sur la base de 75 millions de barils/jour la consommation annuelle de pétrole brut se situe autour des 27 milliards de barils par an). Il faudrait actualiser ces consommations cumulées autour des 1200 milliards de barils aujourd’hui.
  • Rose : les réserves à bas coûts encore exploitables au Moyen-Orient et en Afrique du Nord (MENA)
  • Rouge : les autres réserves exploitables de pétrole conventionnel dans le monde,
  • Bleu pâle : les progrès d’extraction par injection de CO2 qui fluidifie le pétrole (EOR : « enhanced oil reserve »). Une des voies d’avenir, économiquement acceptable, du piégeage du gaz carbonique, rentabilisée par l’accroissement du taux d’extraction du pétrole.
  • Bleu : les réserves en eaux profondes et ultra-profondes.
  • Jaune : les EOR classiques, récupérables par injection d’eau.
  • Rose : les réserves estimées de l’Arctique.
  • Rouge Orangé : les huiles lourdes et sables bitumineux
  • Orange : les huiles de schistes (shales) dont une part des condensats de gaz de schistes exploités aujourd’hui.
  • Parme : la conversion d’une partie des réserves de gaz naturel en liquides par le procédé Fisher Tropsch (GTL) ou autre variante (MTG) par la voie méthanol.
  • Marron bistre: la conversion d’une partie de charbon en liquides (CTL) soit par le procédé Fischer Tropsch dont le leader historique, depuis le milieu du XXéme siècle, est le sud-africain Sasol, soit par une variante, mise au point par Mobil, et  qui utilise l’intermédiaire méthanol (MTG ou « methanol to gasoline).

Il manque dans ce superbe graphique des ressources ultimes la part des biocarburants classiques qui devraient majorer de quelques pourcents toutes les réserves en proportion des biocarburants ajoutés à l’essence et au gazole rapportées aux productions totales de produits pétroliers. A ce jour les 2,5 millions de barils de biocarburants utilisés annuellement représentent, en volumes,  2,5/91= 2,7% de l’ensemble des produits pétroliers consommés dans le monde.

Il manque aussi la conversion possible de la biomasse en liquides par procédé Fischer Tropsch (BTL) ou sa variante au méthanol qu’on peut imaginer couplée avec la conversion du charbon et qui majorerait de 5 à 10% le pavé CTL. Enfin l’auteur ne mentionne pas les hydrates de méthane dont certains essais d’exploitation sont actuellement en cours à l’Est du Japon dans la fosse de Nankai  et aux Etats-Unis (dans le Golfe du Mexique et en Alaska. Les ressources d’hydrate de méthane sont estimées à ce jour aux environs de 1700 Tcf (48 000 milliards de m3).

Ce précieux graphique des ressources ultimes estimées en fonction des prix méritera d’être régulièrement actualisé et conduira probablement à des ressources ultimes accrues, ne serait-ce qu’en raison de l’accroissement général des prix de la ressource qui rend de nouveaux procédés rentables. Je pense, en particulier, au recyclage du CO2 mélangé au méthane qui sera abordé plus loin.

Ces réserves ultimes dépendent des prix du baril qui déterminent la rentabilité des opérations et donc leur mise effective en exploitation de tel ou tel procédé. Aujourd’hui, par exemple, la disponibilité de larges ressources de gaz (du North Field au Qatar ou extraites des schistes aux USA) ainsi que les prix des produits pétroliers comme le gazole rendent  la conversion des gaz en liquides (GTL) rentable et donc industriellement exploitable.

Pour mémoire les cours du gazole (« diesel ») pilotés par les consommations européennes sont internationaux et se négocient autour des 3 dollars le gallon ou 3×42=126 dollars le baril.

Ces réserves ultimes furent annoncées par certains, pour le seul pétrole conventionnel, autour des 2000 milliards de barils qui représentaient le double des extractions passées qui ont franchi les 1000 milliards de barils (Fig.2, petit rectangle jaune à l’extrême gauche du graphique).

Cette valeur de 2000 milliards, à l’exclusion volontaire et politique de toute autre ressource, était parfaite pour expliquer que les extractions cumulées arrivaient au point d’inflexion de la sigmoïde qui les représente en fonction du temps, point d’inflexion où la vitesse d’extraction de la ressource, dérivée de la courbe,  passe par un maximum : le peak-oil. Mais voila, aujourd’hui les géologues les plus avertis estiment ces ressources ultimes, hors divers procédés de synthèse mais en incluant les condensats de gaz, autour des 4000 à 6000  milliards de barils.

Les ressources pétrolières mondiales  sont régulièrement estimées par l’USGS américaine. Constituées des ressources des champs en exploitation, d’une estimation de croissance de ces réserves récupérables et d’une estimation statistique, bassin par bassin, des ressources restant encore à découvrir, elles demandent à être pondérées en fonction de la probabilité de réalisation de ces estimations. L’USGS publie des valeurs estimées proches d’une probabilité de 50% d’occurrence. Ces réserves, malgré les productions, croissent au cours du temps en raison des progrès techniques constants dans l’exploration et la production. (Figure 3) du pétrole et du gaz naturel.

  • Figure 3 : Résumé des ressources ultimes de produits pétroliers estimées (hors procédés de synthèse) par l’USGS au cours des trente dernières années (publication OPEP). La progression des quantités estimées traduit l’approfondissement des connaissances géologiques et les progrès technologiques d’exploration et de production dans un cadre d’accroissement continu des prix du baril.

A l’échelle des temps géologiques cette différence entre 2000 milliards et 4000 ou 5000 milliards de barils est bien sûr négligeable. Mais cela repoussera le plateau de production  inexorable de quelques décennies (2000 milliards de barils de plus mobilisables au rythme actuel des extractions de 100 milliards de barils tous les quatre ans représentent dans les 40 ans de répit supplémentaire avant de voir les extractions cumulées atteindre la moitié des réserves ultimes estimées), ce qui donnera le temps nécessaire à l’économie mondiale pour s’adapter sérieusement aux nouvelles contraintes énergétiques qui seront essentiellement financières, en permettant de mettre en place progressivement et à grande échelle la production de biocarburants à partir de biomasse et la synthèse de produits raffinés à partir de gaz naturel, de charbon enrichi de biomasse et autres lignites ou de CO2.

Les productions d’hydrocarbures deviennent de plus en plus complexes. Outre les champs de pétrole traditionnels dont l’Arabie Saoudite, leader de l’OPEP, est la porte parole mondialement reconnue, de nombreuses autres ressources accompagnées par des progrès techniques déterminants sont apparues ou sont devenues exploitables durant ces dernières décennies. Citons pour mémoire les ressources offshores ultra-profondes de l’Ouest de l’Afrique, du Golfe du Mexique ou au large du Brésil. Citons les huiles lourdes de l’Orénoque et les sables bitumineux canadiens.

Sans oublier l’Est de l’Afrique  nouvelle région de l’exploitation pétrolière. De même l’exploitation des gaz de schistes américains illustre qu’après quelques décennies de prospection systématique et de compréhension structurelle fine du sous-sol les mêmes types de ressources pourront être exploités en Amérique du Sud, en Chine, en Russie ou en Afrique. Certains de ces gaz sont peu chargés en hydrocarbures liquides (gaz secs) ; c’est le cas par exemple des gisements d’Haynesville au Texas et en Louisiane, d’autres champs produisent de larges quantités de condensats comme le gisement de Bakken dans le Nord-Dakota ou plus récemment celui d’Eagle Ford dans le Texas.

Il est possible de quantifier cette propriété de produire des condensats par le rapport entre les productions de pétrole exprimées en barils par jour et celles de gaz exprimées en milliers de pied-cube. Ce  rapport, aux Etats-Unis  varie de quasiment zéro pour Haynesville à 0,88 baril par millier de pied-cube pour Bakken (Fig 4) ce qui représente dans les 4 litres de condensats par mètre cube de gaz extrait. Cette caractéristique peut expliquer, pour des raisons économiques évidentes, la décroissance observée des productions de Haynesville et la croissance de celles de Bakken dont une partie des gaz est brûlée par torchage (« flaring »).

  • Figure 4 : Principaux gisements de gaz de schistes aux Etats-Unis et leurs ratios (2013) d’extractions de condensats par rapports à celles de gaz en baril par millier de pied-cube

 

 

Les croissances américaines des productions de gaz naturel et de condensats dont une part est assimilable au pétrole étaient imprévisibles quelques années auparavant (Figure 5).

  • Figure 5 : Etats-Unis, productions de gaz et de pétrole à partir de divers gisements non conventionnels (EIA, MARS 2014)

Quand à La France précautionneuse et incompétente,  elle s’est  fixée, de par la loi, une interdiction, de fait, de prospecter ces ressources. Et pourtant, ses importations nettes de gaz naturel représentaient, d’après les Douanes Françaises, sur 12 mois à fin Avril 2014, la rondelette somme de 14 milliards d’euros. L’intégration de cette dépense extérieure au sein de l’économie de notre pays en accroitrait à coup sûr la richesse, même si des précautions de Sioux et certaines restrictions locales devraient impérativement être mises en œuvre pour protéger notre environnement.

  • Une voie d’avenir : les procédés GTL

Dans le champ de la synthèse des produits pétroliers liquides, il est indispensable de  noter l’importance de la conversion des ressources de gaz en gazole et autres dérivés du pétrole. La formidable avancée du Qatar dans la synthèse de produits raffinés à partir de ses énormes réserves de  gaz  dans sa nouvelle unité d’Oryx développée avec Shell et Sasol qui apporte sa technologie et ses catalyseurs à base de Cobalt est exemplaire. Cette réalisation qui produit plus de 32000 barils par jour de produits pétroliers conduit à assimiler une partie des réserves de gaz dans le monde à de futures ressources pétrolières.

Outre la présence de Sasol en Louisiane, dans la région du Lac Charles, avec de vastes projets de conversion de gaz en liquides qui pourraient atteindre les 96 000 barils/jour en deux tranches d’investissements, doivent être notés divers projets aux USA (exemple de Pinto Energy dans l’Ohio) ou en Afrique (projet Escravos au Nigeria future copie de l’unité Oryx au Qatar).

De quoi chambouler le bilan des ressources ultimes de pétrole (Figure 1).

Le procédé GTL (Figure 3) repose sur la production par reforming du gaz et production d’hydrogène d’un mélange CO et H2 ad hoc. Ce mélange est transformé par le procédé Fischer Tropsch en paraffines qui sont ensuite isomérisées par hydrocracking pour produire en final du gazole, du naphta et divers gaz comprimés liquides.

  • Figure 6 : GTL-Procédé ORYX au Qatar

D’après Sasol 10 mille pied-cube de gaz conduisent par le procédé GTL à un baril de produits raffinés comprenant 75% de gazole, 20% de naphta et 5% de gaz comprimés liquides. En d’autres termes il faut autour des 280 mde gaz naturel pour obtenir un baril de produits finis par un procédé GTL (283 m3 par calcul).

Ces quelques exemples montrent que l’exploitation des ressources pétrolières de demain traitera une multiplicité de matières premières (pétroles traditionnels, sables bitumineux, huiles lourdes, gaz humides ou secs) selon divers procédés  allant du raffinage traditionnel aux procédés Fischer Tropsch de synthèse de paraffines à partir de mélanges CO et H2 d’origines diverses (gaz, charbon, biomasse, résidus divers).

Ces procédés seront également de nature à valoriser des gisements de gaz naturel riches en CO2 comme le montrent des essais sur équipements pilotes au Japon. Le CO2  combiné au méthane, pourra devenir un part des ressources de procédés Fischer-Tropsch évolués selon le schéma :

Il y a là, de toute évidence, une nouvelle voie pour valoriser les ressources de gaz naturel riches en CO2 ou pour recycler le CO2 lui même.

Les biocarburants en parallèle, sous l’effet des prix des produits pétroliers, verront leur pertinence économique s’accroitre et leurs volumes de production progresser avec la biosynthèse d’isobutanol, moins polaire que l’éthanol, plus soluble dans l’essence et source d’isobutylène puis de plastiques « bio », en lieu et place d’éthanol. L’américain GEVO est une des industries pionnières dans ce domaine.

La teneur en butanol pourra atteindre 16% en volume dans l’essence.

Une telle teneur en alcool remplacera en énergie 13,6% d’essence, alors qu’aujourd’hui les 10% d’éthanol  mélangés à l’essence ne remplacent énergétiquement que 6,8% d’essence. La composante énergétique du biocarburant dans le mélange carburant pourrait  donc doubler en passant du mélange à l’éthanol E10 à celui au butanol B16.

Il faut également citer la remarquable biosynthèse de terpènes (tel que le farnésène, terpène insaturé en C15) et, après hydrogénation,  de kérosène ou de gazole à partir de sucres par le procédé Amyris conduisant à des produits de fortes valeurs ajoutées. Dans son usine Brésilienne, John Melo dirigeant d’Amyris revendiquait en Octobre 2013 avoir su produire un million de litres de farnésène en 45 jours, preuve récente de la maîtrise industrielle du procédé.

Un des objectifs d’Amyris, avec la collaboration du pétrolier Total, est de savoir par la voie directe « sugar to hydrocarbon » (DSHC)  produire un kérosène bio, satisfaisant les normes ASTM, et  qui devrait alimenter en carburant dès 2014, les vols d’une  compagnie d’Amérique Latine.

Parmi les grands acteurs de  la valorisation des biocarburants il est indispensable de citer également le pétrolier finlandais Neste Oil qui a commercialisé 411 mille tonnes de biodiesel durant le deuxième  trimestre 2013. Ce pétrolier estime une demande mondiale autour des  21 millions de tonnes en 2012 et projette cette demande à 35 millions de tonnes de biodiesel en 2020. Son procédé repose sur l’hydrogénation catalytique de graisses animales ou d’huiles végétales diverses (palme, soja, colza, maïs, etc.) et de résidus oléagineux de production de ces huiles. Ce procédé conduit à du propane et des chaînes aliphatiques par la suite isomérisées par hydrocracking pour produire des mélanges carburants tels que du gazole (figure 7).

  • Figure 7 : Schéma du procédé Neste Oil d’hydrogénation catalytique des corps gras (huiles et graisses) en propane et paraffines

Neste oil s’est associé à Dong Energy pour essayer de diversifier ses ressources de matières premières par une intégration dans les voies de biologie synthétique conduisant des sucres cellulosiques à des huiles.

 

Par Raymond Bonnaterre

 

Les prix du baril de pétrole devraient poursuivre leur progression

Progression remarquable en une décennie qui pour des raisons à la fois financières de couverture,  physiques de déplétion des extractions et  géopolitiques devrait se poursuivre (Figure 1) sous le contrôle d’un Cartel puissant, dirigé par l’Arabie Saoudite : l’OPEP.

  • Figure 1 : Cours du baril de Brent en dollars courants et projection au-delà de 2020  de la courbe de corrélation quadratique

Ces cours durant les dix dernières années ont été soutenus en raison de divers paramètres qui déterminent les cours du pétrole. 

Un paramètre financier supporté par le NYMEX à New York, l’ICE à Londres et maintenant le Dubai Mercantile Exchange (DME) marchés de dérivés sur lesquels s’échangent de très grandes quantités de papiers indexés sur les cours du pétrole ou de ses produits raffinés. Ces papiers dont les volumes traités excèdent largement (cent fois ou plus) les volumes physiques de produits échangés, présentent une taille financière suffisante et permettent essentiellement aux acteurs financiers de se couvrir contre la baisse des cours du dollar américain, maintenus volontairement bas par la politique monétaire de la Federal Bank.

La croissance rapide et récente du DME illustre cet attrait des dérivés du pétrole.

Une caractéristique physique de l’exploitation pétrolière qui est la déplétion des flux d’extraction de pétrole au cours du temps. Cette baisse des flux d’extraction en l’absence de toute action d’amélioration de l’exploitant est de 4% à 5% par an.

  • Figure 2 : Impact majeur de la déplétion des extractions de pétrole sur les besoins de ressources nouvelles

Partant des 92 millions de barils par jour de produits raffinés et autres biocarburants produits en 2013, en appliquant une déplétion des ressources pétrolières de 4,5% par an il apparait que les puits exploités en 2013 ne conduiraient qu’à des productions de 40 millions de barils par jour de produits raffinés en 2030 (FIG.X, courbe bleue). Compte tenu d’une hypothèse de croissance linéaire des consommations de 0,8 million de barils par jour il ressort (FIG.X, courbe noire) qu’il faudra dès 2017 avoir développé les ressources de pétrole, de condensats de gaz et de biocarburants nécessaires et suffisantes pour produire 20 millions de barils nouveaux de produits raffinés. En 2030 il faudra avoir développé de nouvelles ressources après 2013 pour assurer plus de 60 millions de barils nouveaux par jour.

L’exploitation pétrolière nécessite des prix du baril et des produits raffinés permettant aux acteurs d’investir dans le maintient et la progression raisonnable des flux d’extraction ou dans la mise en place des nouveaux procédés de synthèse.

Toute baisse intempestive des cours ou toute autre cause de baisse de rentabilité des opérations (taxes nouvelles, augmentations des prestations de services, etc.) qui mettrait en péril ces investissements, annoncerait une crise pétrolière rapide par manque de ressources.

De  nombreux débats agitent les milieux économiques américains concernant l’influence des cours du baril de pétrole local (WTI) sur la rentabilité et sur le rythme d’extraction de certains gaz de schistes « humides ». Il semblerait en 2014 que des cours du baril WTI américain supérieurs à 100 dollars soient suffisants pour assurer une rentabilité acceptable aux extractions de gaz de schistes « humides » américains. L’autre point clé économique potentiel de ces activités américaines repose sur une éventuelle décision politique d’autoriser largement les exportations de GNL vers l’Asie ou l’Europe.

  • Un paramètre géopolitique essentiellié à la localisation d’une large partie des réserves mondiales de pétrole et de gaz au Proche et Moyen Orient ainsi qu’en Afrique du Nord. Ces régions souvent dominées par un prosélytisme religieux agressif sont par tradition agitées de conflits internes ou externes. Il suffit de se reporter au soi-disant « Printemps Arabe » et d’égrainer les conflits observés par la suite en Lybie, en Egypte, en Syrie, etc. pour se convaincre que ces tensions souvent violentes vont se poursuivre. L’Arabie Saoudite, les Emirats voisins, l’Iran et l’Irak sont des producteurs majeurs de pétrole et de gaz. Les tensions  religieuses au sein ou entre ces pays sont de nature à préserver une prime géopolitique au prix du baril de pétrole qui peut être estimée à ce jour autour des 10  à 20 dollars. 
  • Une volonté des grands pays pétroliers de s’intégrer dans le raffinage. La construction récente de la grande raffinerie de Jubail (400 mille barils/jour) par le pétrolier Total en Arabie Saoudite et qui devrait être suivie de nouvelles réalisations du même type, illustre la volonté du leader de l’OPEP de s’intégrer en raffinage.  Il est évident que la commercialisation de produits raffinés vers l’Europe ou l’Asie en lieu et place de pétrole brut constitue une option pour ces pays producteurs permettant d’intégrer plus de valeur ajoutée dans leur offre commerciale. L’autre grand exportateur de pétrole brut, la Russie, affirme sa volonté politique de suivre à terme la même démarche. Ceci se traduira par une raréfaction progressive des volumes de pétrole brut accessibles sur le marché et participera à la montée des cours. La victime de ces politiques d’intégration vers l’aval sera, naturellement, le raffinage européen.
  • Un cartel qui veille au grain sur les cours du baril. Sur les 91 ou 92 millions de barils de produits  raffinés consommés dans le monde  en 2013, il a été décrit qu’il fallait utiliser pour cela dans les 76 millions de baril de brut et de condensats (TAB.I). A ce jour l’OPEP estime qu’il lui faut fournir un peu moins de  30 millions de barils de pétrole brut et autres condensats ce qui représente près de 40% du pétrole mondial. Ces volumes devraient légèrement baisser en 2014 en raison de fournitures accrues des pays non OPEP. Les projections du pétrolier TOTAL établies en Septembre 2013 et portant sur les capacités de production de l’OPEP en 2030, estiment qu’à cette date la part de l’OPEP dans le marché mondial s’établira à 45% des volumes. Ces projections montrent que l’influence du Cartel sur le marché du pétrole ne va pas décroitre durant les décennies à venir, bien au contraire.

Ceci permet d’affirmer que le rôle de l’Arabie Saoudite comme régulateur des cours du marché va se poursuivre. Pour l’instant les cours du panier OPEP sont la plupart du temps au-dessus des 100 dollars le baril et proches, à un ou deux dollars près, de ceux du BRENT. Ce seuil des 100 dollars le baril est à ce jour un minimum accepté de la part des fournisseurs et des consommateurs de pétrole, mais la demande asiatique de pétrole du Moyen-Orient augmente encore. Le développement des transports routiers chinois, encore très en retard par rapport aux transports des pays industrialisés comme les USA, va accroitre la demande asiatique de pétrole. 

Conclusion sur les perspectives des cours du baril de Brent

Sur l’ICE à Londres il s’est échangé en 2012 dans les 180 millions de contrats de 1000 barils sur le Brent européen et le WTI américain. En 2013 ce record devrait être battu avec un score provisoire de 150 millions de contrats échangés à fin Octobre. Les joueurs, grâce à ce marché de taille suffisante,  se prémunissent contre une baisse éventuelle du dollar américain et mettent à profit, avec opportunisme,  toute nouvelle guerrière en provenance du Proche ou Moyen-Orient, ou bien d’Afrique du Nord.

L’ensemble de ces facteurs porte à penser que les cours médians du pétrole en dollars courants vont poursuivre leur progression quadratique durant la décennie à venir (FIG. IX). Il faut imaginer un plancher des cours du baril de BRENT  à 120 puis à 150 dollars dans les années à venir. La désensibilisation progressive des Etats-Unis aux prix du pétrole importé grâce à leurs productions locales de condensats de gaz, rendra ces augmentations encore plus aisées pour l’Arabie Saoudite qui ne se préoccupera que bien peu des réactions de son protecteur américain auquel elle ne peut rien refuser, s’il rechigne à payer. Au contraire, une augmentation générale des cours ne pourra que favoriser la compétitivité des entreprises américaines, comme c’est le cas aujourd’hui en raison de la différence entre cours du Brent et cours du WTI

Par Raymond Bonnaterre

 

Imaginer le futur du marché pétrolier

Dans ce domaine il est possible de citer :

  • La déplétion naturelle des extractions pétrolières ;
  • La croissance des populations, leur urbanisation, la progression du niveau de vie des populations asiatiques en échange de la paix sociale et de l’harmonie. Ces phénomènes seront accompagnés par une progression des transports individuels et collectifs et conduiront à une plus grande consommation de carburants ;
  • Le déplacement de l’Amérique vers l’Asie des livraisons de produits pétroliers disponibles sur le marché international en raison de  la baisse des importations américaines, concurrencées par les condensats de gaz de schistes, et de la croissance des importations chinoises. Ce sont les marchés asiatiques alimentés par du brut ou des produits pétroliers en provenance d’Afrique et du Moyen-Orient qui vont déterminer les cours mondiaux du pétrole et de ses dérivés ;
  • Le marché américain du pétrole brut, faute d’exportations possibles, restera, pour un temps encore, un marché régional à prix modérés, inférieurs à ceux du panier OPEP. La génération, par ce processus, d’un avantage concurrentiel aux industries américaines tend à pérenniser ce déséquilibre tarifaire ;
  • La localisation d’énormes réserves de pétrole et de gaz dans les pays du Proche et Moyen-Orient ou d’Afrique du Nord dont les certitudes religieuses d’une partie des  populations locales rendent le climat politique incertain et parfois explosif justifiera d’une prime géopolitique des cours ;
  • Le progrès technique rendant accessibles de nouvelles ressources naturelles (ex. : gaz de schistes, hydrates de méthane) parfois largement réparties ;
  • Les énormes investissements financiers associés à l’exploration, à l’extraction des ressources, à leur raffinage ou à la synthèse à partir de gaz naturel ou de charbon de dérivés liquides carburants ;
  • La nécessaire adéquation des prix des produits pétroliers avec les montants d’investissements requis pour de complexes installations qui doivent être amorties par les industriels sur des délais raisonnables ;
  • La non prééminence d’une ressource nouvelle qui ferait s’effondrer les appels aux ressources existantes. Ceci en raison de la nécessité de gérer la ressource émergente sur un temps long, celui d’amortir les investissements et de conserver l’activité industrielle sur plusieurs décennies. Cette règle s’applique à l’exploitation des gaz de schistes américains et potentiellement à celle des  ressources chinoises ou de toute autre contrée ;
  • Le phénomène de substitution compétitive qui caractérise les marchés de l’énergie, passés successivement du bois, au charbon, puis au pétrole et qui devraient raisonnablement se développer dans le gaz naturel en raison de son abondance, de la faiblesse de son prix et des qualités environnementales de cette ressource. Toutefois, son transport nécessite de lourds investissements ce qui ralentit la croissance de sa part de marché ;
  • Rappelons pour préciser l’échelle de temps des phénomènes de substitution des ressources énergétiques que le premier navire de haute-mer équipé de moteurs diesel, le Selandia  fut mis à l’eau par les chantiers danois en 1912, annonçant ainsi la très lente fin programmée de l’utilisation du charbon comme combustible dans les transports maritimes. En 2012 c’est l’évaporation du GNL qui alimente les nouveaux transports de gaz maritimes. Dans cette transition progressive du pétrole vers le gaz, les procédés de transformation de gaz en liquides par le procédé Fischer-Tropsch (GTL) joueront un rôle déterminant en raison de leur rentabilité et de leurs accès au  gazole.
  • Ces possibilités de substitutions rendent caduques les théories d’une raréfaction imminente de ressources énergétiques liquides qui ne considèrent que le pétrole traditionnel et négligent par exemple les condensats de gaz.
  • Dans ce cadre là, il est difficile d’imaginer une baisse des prix durable des produits pétroliers qui entraînerait rapidement une annulation de certains investissements nécessaires au maintient des flux d’approvisionnement du marché.
  • De façon plus réaliste, une progression raisonnable des prix des produits pétroliers, arbitrée par l’OPEP, est de nature à maintenir ces flux d’approvisionnement et à encourager les industries agricoles des biocarburants à se développer sur les continents qui disposent de terres arables. Les Etats-Unis, les pays d’Amérique Latine et l’Afrique, toujours oubliée, participeront avec le monde paysan à la croissance de ces filières qui assurent des débouchés réguliers aux cultures. Elles pourraient assurer à terme entre 5 à 10% des productions en volumes des raffineries de pétrole.

CONCLUSION

Au bout de ce survol rapide des ressources énergétiques de la planète et des processus nombreux de substitution compétitive de ces ressources, qui sont ou qui seront mis en œuvre, il apparaît de plus en plus que notre civilisation n’est pas à court de ressources fossiles et que tout « stress écologique » issu d’une peur de la pénurie imminente doit être combattu et traité par la raison. Ceci est vrai en particulier en Europe, continent particulièrement sensible aux théories alarmistes de la pénurie immédiate, face à un comportement insouciant d’une Asie en plein boom économique.

Cela ne veut pas dire qu’il faut  se désintéresser de ce problème sérieux, mais qu’au contraire, une approche programmée et raisonnable est nécessaire pour à la fois accroitre l’efficacité énergétique des processus, pour réduire la part des consommations d’énergies d’origine fossiles dont les prix unitaires vont progresser, pour accroitre, sans à-coups,  la part des énergies non émettrices de gaz carbonique telles que les énergies renouvelables ou celles issues de l’atome. Tout au long de ce processus l’indépendance énergétique du Continent ouest-européen et la compétitivité de ses industries doivent être prises en comptes dans les processus de décision. Malheureusement, en Europe, ces principes élémentaires ne me semblent pas être bien respectés aujourd’hui. Certains déboires économiques et la fuite des industries électro-intensives de notre continent doivent être imputés à ce désintérêt provisoire.

Les problèmes d’approvisionnement en produits pétroliers de la planète ne sont  pas, aujourd’hui, un problème de raréfaction universelle des stocks accessibles, ils sont liés à un problème de maintien des flux d’approvisionnement et donc d’investissements et de développement de nouveaux procédés qui sont facilités par des cours soutenus du pétrole.

Un fort accroissement général des prix des ressources énergétiques, externalités comprises, sera le seul moyen efficace pour en restreindre peu à peu les consommations et donc pour réduire les émissions mondiales de CO2.  Ce processus est déjà en place au sein des nations de l’OCDE, il se généralisera progressivement au reste du monde.

Par Raymond Bonnaterre

 

News informatique : juin 2014

Prévoir l’avenir grâce aux réseaux sociaux, c’est possible ?

L’Université Carlos III de Madrid (UC3M), l’Université Autonome de Madrid ainsi que le NICTA australien et les universités américaines de Yale et de San Diego Californie, ont collaboré sur un projet ambitieux d’élaboration d’une méthode de surveillance des réseaux sociaux permettant d’y identifier les informations pertinentes et partagées, jusqu’à deux mois avant qu’elles ne deviennent virales (ie : propagée rapidement et à grande échelle à travers les réseaux sociaux).

Un nouveau pas pour Big Brother? Une performance relevant de l’art de divination ? Un peu des deux sans doute, mais cette méthode de surveillance représente surtout un formidable outil statistique qui pourrait aider à prédire l’apparition de mouvements sociaux, les réactions des consommateurs, voire d’éventuels foyers épidémiques. L’objectif de cette étude à laquelle ont participé l’UC3M et l’UAM était en premier lieu de tester l’application aux réseaux sociaux de « l’hypothèse des capteurs » : était-il possible de déterminer un groupe de personnes (les capteurs, ou sentinelles) dont la position dans les réseaux sociaux permet de surveiller l’information se propageant de manière virale sur le réseau global ?

Pour répondre à cette question, les scientifique ont travaillé sur des données du réseau social Twitter, et ont mis à profit une caractéristique des réseaux sociaux, connue sous le nom de « paradoxe de l’amitié » [1] selon lequel il est probable que vos « amis » sur les réseaux sociaux aient eux même plus d’amis que vous. Dans le cas de twitter, après avoir analysé un échantillon de données datant de 2009 et provenant de 40 millions d’usagers et de 1,5 milliards de followers, les chercheurs ont pu confirmer que chaque usager avait en moyenne 25 followers, alors que ces derniers en totalisaient environ 422, soit près de 20 fois plus. Ce paradoxe de l’amitié confère un rôle clé aux followers d’un individu au moment de propager ou de recevoir une information.

Lors de l’étude, les chercheurs ont choisi un ensemble d’usagers Twitter au hasard, et sélectionné au hasard 1 follower de chacun de ces usagers pour constituer un groupe « capteur ». Ils ont pu vérifier que ces amis-capteurs jouaient un rôle beaucoup plus important que ce qui aurait pu être imaginé, car ce groupe-capteur leur a permis de détecter les utilisations virales de nouveaux hashtags plus de 7 jours plus tôt que la détection permise par le premier ensemble d’usager choisi aléatoirement. Alors que les chercheurs s’attendaient à voir apparaitre les futures hashtags viraux avec quelques heures d’avance grâce à leur méthode de surveillance, ce sont des jours, voire même parfois des mois d’avance qu’ils ont réussi à obtenir. Par exemple, leur méthode a prédit l’explosion virale du hashtag #obamacare sur Twitter presque deux mois avant que ce dernier ne se convertisse en une tendance, et trois mois avant qu’il n’atteigne son record d’occurrence dans les recherches Google.

D’après ses créateurs, l’utilisation des données de 50.000 comptes twitter suffit pour obtenir de tels niveaux d’anticipation et connaitre avant tout le monde les informations qui vont devenir virales sur Internet. On peut utiliser cette méthode en temps réel, sur différents thèmes, dans différentes langues ou régions géographiques, ce qui permet de couvrir des contextes très différents : découvrir de nouvelles opinions dans un débat politique, prédire les mouvements sociaux, l’acceptation d’un nouveau produit par les consommateurs, ou analyser comment se répandent les messages concernant certaines maladies ou épidémies dans le domaine de la santé publique.

Certaines limitations semblent toutefois évidentes : Il est impossible de prédire comment vont se diffuser de manière virale des informations associées à des évènements imprévisibles tels que des résultats des match de foot, des catastrophes naturelles

Source : bulletins-electroniques.com

Chercheurs en informatique contre zombies numériques

Une part de plus en plus importante de notre économie et de notre administration étatique repose sur des services informatiques interconnectés. La moindre panne ou interruption de ces derniers peut occasionner des pertes de plusieurs millions ou milliards d’euros. Ce constat motive de nombreux chercheurs à travers le monde à améliorer la sécurité de nos installations face aux intrusions malintentionnées. Parmi eux, une équipe de chercheurs de l’Université de Tel Aviv et de l’IDC Herzliya.

Les différentes facettes de la sécurité informatique

Si l’on s’accorde souvent sur l’importance de se protéger contre les attaques informatiques extérieures, il faut garder à l’esprit que celles-ci peuvent prendre des formes très différentes suivant le but recherché par l’assaillant : infiltration d’un système ou mise hors service. Dans le premier cas, la victime, que ce soit un particulier, une institution ou une société, voit son réseau informatique infiltré afin de prendre connaissance de certaines informations ou procéder à une surveillance à l’insu de la victime. Le principe roi qui guide l’intrus est donc la discrétion et il peut se passer un laps de temps conséquent avant que la victime ne se rende compte des dégâts causés. La lutte contre ce type d’attaques est avant tout préventive, à travers notamment un audit sérieux des failles pouvant exister sur un réseau. A l’inverse, une attaque visant à mettre hors service un réseau est généralement tout sauf subtile et repose sur un effet de masse.

Les zombies à l’assaut des serveurs

Les professeurs Yehuda Afek et Shir Landau-Feibish de l’Université de Tel Aviv se sont associés au professeur Anat Bremler-Barr du collège académique IDC Herzliya pour développer une technologie permettant de combattre les assauts visant à mettre les cibles hors service [1]. Généralement appelées DDoS (Distributed Denial of Service), ces attaques consistent à coordonner plusieurs milliers d’ordinateurs qui iront en même temps inonder le serveur d’une entreprise ou d’une administration avec des centaines de milliers de requêtes. Ne pouvant traiter cette masse importante de données, le serveur sera obligé de capituler, rendant inaccessible le service dont il est en charge. On parle généralement d’ordinateurs zombies pour décrire les assaillants : à l’image de leurs homologues de série Z, ils ne sont pas dotés d’une intelligence foudroyante, mais l’effet du nombre n’en reste pas moins dévastateur. L’Estonie est ainsi restée célèbre pour avoir été victime d’une attaque « zombie » de grande ampleur en 2007, visant à la fois ses institutions et ses banques [2].

Détecter rapidement les premiers assaillants

Dans cette situation, il est primordial de pouvoir rapidement distinguer les ordinateurs zombies des autres ordinateurs afin d’éviter l’effondrement du serveur. Pour cela, les professeurs Afek, Landau-Feibish et Bremler-Barr ont développé un algorithme d’analyse en temps réel du trafic réseau permettant d’identifier lorsque celui-ci est normal ou pas. L’idée sous-jacente est d’analyser les données arrivant pendant une attaque supposée en les comparant au trafic occasionné par des utilisateurs normaux. Les chercheurs israéliens étudient en particulier la fréquence d’apparence de certains caractères, qui s’avère différente lors d’un assaut. Grâce à leur découverte, ils sont ainsi en mesure de filtrer avec une grande précision le trafic en amont du serveur en ne gardant que celui résultant des utilisateurs normaux. Les performances sont déjà impressionnantes, mais les chercheurs ne souhaitent pas s’arrêter là pour autant : ils travaillent déjà sur la prochaine génération d’algorithmes car, à n’en pas douter, la victoire contre les pirates informatiques ne sera jamais définitivement acquise.

Source : bulletins-electroniques.com

Un smartphone pliable

Le professeur Roel Vertegaal, directeur du Human Media Lab de l’Université de Queens et l’un de ses étudiants ont présenté PaperFold, une technologie pour smartphone révolutionnaire.

Le smartphone modulable et tactile permet à l’utilisateur d’ouvrir jusqu’à trois surfaces affichages électrophorétiques afin de procurer plus d’espace d’écran lorsque cela est nécessaire. Les sections d’affichage sont détachables afin que les utilisateurs puissent plier l’appareil en divers formes pouvant aller de la tablette au smartphone. Le Dr. Vertegaal explique : « Dans le Paperfold, chaque unité d’affichage peut se comporter indépendamment ou comme partie d’un système. L’avantage de cette technologie inclut un meilleur support pour effectuer des tâches qui nécessiteraient habituellement d’utiliser plusieurs appareils ».

La technologie a été présentée à la conférence ACM CHI 2014 à Toronto, considérée comme l’une des conférences les plus importantes sur les interactions techniques pour les nouvelles technologies. PaperFold reconnaît automatiquement sa forme et modifie son affichage pour proposer différentes fonctionnalités à chaque forme. Par exemple, un utilisateur pourrait chercher le plan d’un bâtiment de la ville de New York de trois manières différentes :

  • En aplatissant les trois affichages, l’utilisateur peut voir Google map sur toute la surface des affichages
  • En manipulant l’appareil en une forme similaire à un globe, cela ouvre une vue Google Earth 3D
  • En repliant l’appareil en une forme de bâtiment 3D, les modèles 3D des bâtiments de la zone ciblée seront cherchés sur la banque SketchUp et l’appareil sera changé en modèle architectural pouvant être imprimé en 3D.

L’inspiration pour PaperFold vient de son homonyme, le papier. Typiquement, les appareils mobiles nécessitent de faire défiler ou de zoomer sur les différentes parties d’un document, là où le papier peut être plié, détaché ou combiné. Le Dr. Vertegaal explique: « le développement des ordinateurs en papier électronique pouvant adopter des qualités similaires à celles du papier ont été un but de la recherche dans notre équipe. Le smartphone PaperFold permet des techniques de pliage qui rendent le papier si versatile, et les utilise pour changer les vues électroniques et afficher les bâtiments instantanément. PaperFold montre comment la forme pourrait être équivalente à la fonction dans les appareils mobiles malléables. »

Source : bulletins-electroniques.com

L’importance de la stupidité dans la recherche scientifique

J’ai récemment revu une ancienne amie pour la première fois depuis de nombreuses années. Nous avions été doctorants en sciences en même temps, quoique dans des domaines différents. Puis elle a laissé tomber, est allée à Harvard à l’Ecole de Droit et est maintenant avocate senior dans une grande organisation environnementale. A un certain moment, la conversation arriva sur la raison pour laquelle elle avait quitté les études doctorales. A mon grand étonnement, elle a dit que ces études la faisaient se sentir stupide. Après quelques années passées à se sentir stupide tous les jours, elle avait décidé de faire quelque chose d’autre.

Je l’avais toujours vue comme l’une des personnes les plus intelligentes que je connaisse, et sa carrière postérieure soutient ce point de vue. Ce qu’elle a dit m’a dérangé. Je n’arrêtais pas de penser à ce sujet… Soudain le lendemain, ça m’a frappé : la science me fait me sentir stupide aussi. C’est juste que je m’y suis habitué. Tellement habitué qu’en fait, je recherche activement de nouvelles occasions de me sentir stupide. Je ne saurais pas quoi faire sans cette sensation. Je pense même que c’est censé être comme ça. Je m’explique.

Pour la quasi-totalité d’entre nous, l’une des raisons pour lesquelles nous aimions la science au lycée et à l’université est que nous étions bons en science. Cela n’est pas la seule raison, la fascination pour la compréhension du monde physique et un besoin émotionnel de découvrir de nouvelles choses entrent aussi en compte. Mais la science au lycée et à l’université signifie suivre des cours, et bien suivre les cours signifie connaître les bonnes réponses aux tests. Et si vous connaissez ces réponses, vous réussissez et vous sentez intelligent.

C’est tout différent avec un doctorat, dans lequel vous avez à effectuer un travail de recherche. Pour moi, c’était une tâche ardue. Comment pourrais-je formuler les questions qui mèneraient à des découvertes importantes; concevoir et interpréter des expériences dont les conclusions seraient absolument convaincantes, prévoir les difficultés et voir les moyens de les contourner, ou, à défaut, les résoudre quand elles se concrétisent ? Mon projet de doctorat était assez interdisciplinaire et pendant un certain temps, chaque fois que je suis tombé sur un problème, j’ai harcelé les gens de ma faculté qui étaient les experts dans les différentes disciplines qu’il me fallait. Je me souviens du jour où Henry Taube (qui a remporté le prix Nobel de deux ans plus tard) m’a dit qu’il ne savait pas comment résoudre le problème que j’avais dans son domaine. J’étais un étudiant diplômé de troisième année et je pensais que Taube en savait environ 1000 fois plus que moi (estimation prudente). S’il n’avait pas la réponse, personne ne l’avait.

C’est ce qui m’a frappé: personne ne l’avait. C’est pourquoi c’était un problème de recherche. Et puisque c’était mon problème de recherche, c’était à moi de le résoudre. Une fois que j’ai réalisé ce fait, j’ai résolu le problème en quelques jours. (Il n’était pas vraiment très dur, j’ai juste eu à essayer quelques trucs.) La leçon cruciale était que le volume des choses que je ne connaissais pas était non seulement vaste, mais pratiquement infini. Cette prise de conscience, au lieu d’être décourageante, est libératrice. Si notre ignorance est infinie, la seule action possible est de nager dedans du mieux que nous pouvons.

Je voudrais suggérer que nos programmes doctoraux rendent souvent deux mauvais services à nos étudiants. Tout d’abord, je ne pense pas que les élèves soient amenés à comprendre combien il est difficile de faire de la recherche. Et combien il est très, très difficile de faire des recherches importantes. C’est beaucoup plus difficile que de prendre des cours même très exigeants. Ce qui le rend la recherche si difficile est l’immersion dans l’inconnu. Nous ne savons simplement pas ce que nous faisons. Nous ne pouvons pas être sûrs que nous posons la bonne question ou faisons la bonne expérience jusqu’à ce que nous obtenions la réponse ou le résultat. Certes, la science est rendue plus difficile par la concurrence pour les subventions et la publication dans les meilleures revues. Mais en dehors de tout cela, faire de la recherche importante est fondamentalement difficile et tous les changements de ministère, de politiques institutionnelles ou nationales ne permettront pas de réduire sa difficulté intrinsèque.

Deuxièmement, nous n’enseignons pas suffisamment bien à nos étudiants à être productivement stupides, ou autrement dit que si nous ne nous sentons pas stupides cela signifie que nous n’essayons pas assez. Je ne parle pas de la stupidité « relative », dans laquelle les autres élèves de la classe, en lisant la matière y réfléchissent et réussissent l’examen alors que vous pas. Je ne parle pas non plus de gens brillants que l’ont pourrait trouver à des postes qui ne correspondent pas à leur talents. La science implique de nous confronter à notre stupidité « absolue ». Ce genre de stupidité est un fait existentiel, inhérente à nos efforts pour faire notre chemin dans l’inconnu. Les examens préliminaires et de thèse ont la bonne approche lorsque le comité de la faculté pousse jusqu’à ce que l’étudiant commence à donner de mauvaises réponses ou abandonne en disant « Je ne sais pas ». Le but de l’examen n’est pas de voir si l’étudiant répond juste à toutes les questions. S’il le fait, c’est la faculté qui a échoué à l’examen. Le but est d’identifier les faiblesses de l’élève, en partie pour voir où investir des efforts et en partie pour voir si la connaissance de l’étudiant flanche à un niveau suffisamment élevé pour qu’il soit prêt à prendre un projet de recherche.

La stupidité productive implique d’être ignorant par choix. Nous concentrer sur des questions importantes nous met dans la position inconfortable d’être ignorants. Une des belles choses sur la science est qu’elle nous permet de brasser de l’air, de nous tromper jour après jour, et de nous sentir parfaitement bien tant que nous apprenons quelque chose à chaque fois. Sans doute, cela peut être difficile pour les étudiants habitués à obtenir les bonnes réponses. Sans doute, des niveaux raisonnables de confiance et la résilience émotionnelle aident, mais je pense que l’éducation scientifique pourrait faire plus pour faciliter cette très grande transition: de l’apprentissage ce que d’autres ont découvert une fois à faire vos propres découvertes. Plus nous sommes à l’aise avec notre stupidité, plus nous pataugerons profond dans l’inconnu et plus nous sommes susceptibles de faire de grosses découvertes.

Référence du texte original : Martin A. Schwartz, « The importance of stupidity in scientific research« , 2008 J Cell Sci 121,1771 doi: 10.1242/​jcs.033340

Source : Dr Goulu (blog Pourquoi Comment Combien)

Tara s’attaque au plastique de la Méditerranée

De mai à décembre 2014, l’expédition Tara va s’intéresser à la présence de plastique dans l’ensemble du Bassin méditerranéen, de Gibraltar à Beyrouth. Des prélèvements de plastique et de plancton seront réalisés en mer, à l’aide d’un filet Manta, près des mégapoles, mais également au large.

Le Bassin Méditerranéen concentre 30% du trafic maritime mondial entre Suez et Gibraltar. 450 millions de personnes y vivent, avec des niveaux de développement différents et des cultures différentes… « C’est un laboratoire assez intéressant », estime Romain Troublé, Secrétaire général de Tara Expéditions

Que devient le plastique en mer ?

Lorsqu’un plastique est rejeté en mer, il va se fragmenter en éléments flottants de plus en plus petits. On retrouve un ensemble large de composés différents : polystyrène, polyéthylène, nylon, polyuréthane, polypropylène… Ces plastiques sont « des éponges aux polluants organiques persistants : PCB, dioxines ou des perturbateurs endocriniens », rappelle Gaby Gorsky, Directeur scientifique de Tara Méditerranée.

Parallèlement à l’adsorption de ces polluants, les fragments de plastique sont colonisés par des micro-organismes (bactéries, algues, champignons et protozoaires), qui vont former un biofilm à sa surface. Au final, les polluants organiques persistants (POP) adsorbés sur le plastique peuvent être relâchés, notamment dans le système digestif de ces micro-organismes. Ces POP sont bioaccumulables, c’est-à-dire qu’ils s’accumulent dans leur organisme, laissant supposer qu’ils peuvent entrer dans la chaîne alimentaire.

Mais ce n’est pas tout. Ces fragments sont ensuite charriés par les courants, certains jusqu’aux plages. Ils peuvent ainsi véhiculer des espèces exogènes ou invasives qui bouleversent les écosystèmes.

Comment caractériser la pollution ?

Les prélèvements réalisés par Tara Méditerranée vont permettre d’évaluer la répartition spatiale des fragments de plastique flottants de 0,3 mm à 5 cm. Les scientifiques à bord filtreront aussi directement de l’eau pour prélever et analyser les fragments plus petits. Environ 150 stations de prélèvements sont prévues jour et nuit. Chaque jour, au moins une station comportera entre 3 et 5 prélèvements par Filet Manta, dont 1 à 2 prélèvements de nuit. « On compte à peu près 150 stations, mais à peu près 400 à 500 échantillons », résume Gaby Gorsky.

Les différents types de plastiques et les POP seront caractérisés. Grâce à la microscopie électronique à balayage, à la microscopie stéréoscopique et à l’analyse génomique, l’expédition s’intéressera aussi aux micro-organismes colonisant les plastiques. Enfin, elle déterminera la structure des écosystèmes du plancton en contact avec les fragments de plastique, le jour et la nuit.

Lors des escales, l’équipage sensibilisera les populations rencontrées. Les messages véhiculés seront notamment en lien avec  la réduction de la pollution à la source via l’éducation, le recyclage, la promotion de l’économie circulaire et l’éco-conception. L’équipage s’efforcera aussi de promouvoir une gestion intégrée des bassins versants grâce au nettoyage des canaux et des rivières et militera pour l’interdiction du sac plastique à usage unique dans tout le Bassin.

Par Matthieu Combe, journaliste scientifique

News environnement : juin 2014

Apple et Google : concurrents ou partenaires des énergéticiens ?

Contrôler depuis son iPhone la température de son salon, l’éclairage de sa chambre à coucher ou encore l’ouverture de la porte de son garage : telle est la promesse faite par Apple lors de sa Worldwide Developer Conference [1]. Après l’acquisition de Nest par Google début 2014 [2], cette nouvelle annonce confirme l’intérêt croissant que portent les géants de l’IT (Information Technology) à la maison connectée.

Parmi une large panoplie d’applications domotiques possibles, ces acteurs pourraient être amenés à développer de nouveaux services énergétiques à destination du client résidentiel. Les énergéticiens s’en inquiètent et s’interrogent sur la stratégie de ces nouveaux entrants sur le segment de la commercialisation de services énergétiques.

Un nouveau paradigme : le consommateur au coeur du système électrique

Si les grands principes de fonctionnement d’un système électrique n’ont guère évolué au cours du dernier siècle, l’introduction des NTIC (Nouvelles Technologies de l’Information et de la Communication) bouleverse en profondeur le secteur électrique. Le Smart Grid (réseau électrique intelligent) révolutionne la manière de penser le système électrique et force les électriciens à reconsidérer les interactions entre consommateurs, gestionnaires de réseaux électriques, fournisseurs et producteurs d’électricité.

L’informatisation des réseaux électriques ouvre la voie à une nouvelle gestion du système. Avec un pilotage des flux d’information bidirectionnels, permis notamment par les compteurs communicants, les opérateurs de réseau peuvent désormais jouer sur la demande via des programmes d’effacement pour ajuster l’équilibre production/consommation nécessaire au bon fonctionnement du réseau électrique. Notons également que les technologies de production décentralisées se démocratisent rapidement, notamment en Californie.

Rémunération pour réduire sa consommation via des offres d’effacement, possibilité de produire de l’électricité verte à partir de ses propres panneaux solaires : le consommateur a une nouvelle manière d’appréhender l’électricité. Pure commodité, l’électricité est de plus en plus considérée comme un produit avec son lot de services associés. [3]

Cette manière de commercialiser l’énergie déstabilise les utilities (énergéticiens), peu coutumiers des nouvelles méthodes marketing et l’approche dirigée vers le consommateur, qui fait le succès des sociétés de services. L’émergence d’acteurs comme Google sur le créneau des services énergétiques force donc les utilities à se remettre en question et à s’interroger sur le rôle de ces nouveaux entrants.

La « Smart Home » (maison intelligente), opportunité de développement de nouveaux services énergétiques

En janvier 2014, Google a officiellement affiché son intention de devenir un acteur clef de la maison connectée en acquérant pour 3,2 milliards de dollars la société spécialisée dans les thermostats intelligents Nest. Véritable cheval de Troie dans l’enceinte de la maison, comme le souligne Maxime Veron, Directeur Marketing de la jeune entreprise californienne créée en 2011 par Tony Fadell (le créateur de l’iPod), la vocation du thermostat n’est pas de se limiter à cette fonctionnalité. Il constitue un point d’entrée sur lequel s’appuyer pour bâtir de nouveaux services dans l’espace de la maison connectée. Pour preuve, Nest a récemment annoncé son intention d’ouvrir son Application Programming Interface (API) afin de permettre à des tiers de développer des applications en interaction avec son thermostat.

Début juin 2014, Apple a lancé son Home Kit, un kit de développement facilitant la prise de contrôle des équipements ménagers certifiés Made for iPhone/iPad/iPod. De plus, si ces grands acteurs de l’informatique développent à terme de nouveaux services énergétiques par le biais de la maison connectée [4], les sociétés issues de la télécommunication comme Comcast ou Verizon se positionnent déjà clairement sur le segment de la fourniture d’électricité. Ces dernières proposent à leurs clients des packages regroupant téléphonie, internet et électricité.

Quel rôle pourrait jouer une entreprise comme Google dans l’énergie ?

Générant 95% de ses revenus publicitaires en 2012, Google est avant tout une régie publicitaire. L’ambition de Google dans l’énergie n’est pas de se substituer aux utilities mais d’accroître sa connaissance du client final afin d’améliorer toujours davantage son ciblage publicitaire. L’accessibilité aux données énergétiques (Green Button [5], capteurs, etc.) facilitée pourrait permettre à Google de faire valoir ses compétences en analyse et traitement de données pour développer de nouveaux services tels que des audits énergétiques ou encore la gestion intelligente de la charge. Avec par exemple un thermostat Nest en charge de l’optimisation de la température, Google a la possibilité de récupérer des informations précieuses : présence au domicile, nombre d’habitants, appareils connectés dans l’enceinte de la maison, etc. Par ailleurs, Google pourrait reproduire le modèle de services qu’il a développé sur le web (Youtube, Gmail), à savoir, fournir des services énergétiques gratuitement en échange d’information sur le client.

Google, et plus largement les sociétés des NTIC, sont des acteurs de l’économie de service. Avec l’informatisation du monde de l’énergie, des opportunités de développer de nouveaux services énergétiques se présentent pour ces entreprises dont le coeur de métier est l’analyse de données.

Reste à savoir s’ils sauront développer des services pertinents pour leurs usagers. Enfin, il est plus que jamais essentiel que les énergéticiens s’interrogent sur leur modèle d’activité et la manière de considérer ces nouveaux acteurs de services : concurrents ou partenaires ?

Source : bulletins-electroniques

L’augmentation du CO2 atmosphérique : impact sur l’alimentation humaine

Une étude d’envergure menée par plusieurs institutions de renom, issues de 4 pays différents (Etats-Unis, Australie, Israël et Japon) vient de confirmer une conséquence pressentie de l’augmentation de la concentration de dioxyde de carbone (CO2) dans l’atmosphère : la baisse des qualités nutritionnelles de certaines céréales et légumineuses. Les résultats sont présentés dans la revue Nature.

L’expérimentation en plein air confirme les résultats antérieurs obtenus en milieux confinés

Mauvaise nouvelle pour les générations futures : au vu de l’augmentation prévisible des niveaux de CO2 au cours du siècle à venir, certaines céréales et légumineuses deviendront beaucoup moins nutritives qu’elles ne le sont aujourd’hui. L’Université d’Harvard, l’UC Davis, l’Université d’Illinois à Urbana Champaign, l’Université de Pennsylvanie l’Université d’Arizona, l’USDA et le Nature Conservancy ont contribué à l’analyse pour les Etats-Unis.

Les chercheurs ont examiné plusieurs variétés de blé, de soja, de petits pois, de riz, de maïs et de sorgho en plein air, dans les conditions de culture de 2050, telles qu’elles sont anticipées concernant les niveaux de CO2 dans l’atmosphère (les concentrations actuelles sont proches de 400 parties par million, et devraient s’élever à 550 ppm en 2050). Les équipes ont pu simuler des niveaux de CO2 élevés dans des champs en plein air, à l’aide d’un système appelé Free Air Concentration Enrichment (FACE [1]), qui diffuse du CO2 autour de l’essai, en surveille la concentration à l’aide de capteurs au niveau des plantes et ajuste ainsi le débit de diffusion pour simuler une concentration de CO2 atmosphérique semblable aux conditions futures. Dans cette étude, l’ensemble des autres conditions de croissance (lumière, sol, eau, température) sont les mêmes pour les plantes cultivées sous atmosphère enrichie en CO2 et celles utilisés comme témoins.

La présente étude, par son envergure, a permis de décupler la quantité de données auparavant existantes, concernant la teneur en zinc et en fer des parties comestibles des plantes cultivées dans des conditions de FACE. Le zinc et le fer ont diminué de manière significative dans le blé, le riz, les pois et le soja étudiés. Le blé et le riz subissent également des baisses notables de leur teneur en protéines en présence de concentrations élevées en CO2. Les mécanismes responsables des variations de concentrations en éléments minéraux dans les grains en fonction de la teneur en CO2 dans l’atmosphère sont peu connus, et les expériences entreprises jusqu’ici semblent indiquer que les paramètres impliqués sont multifactoriels et propres à chaque espèce. Le type de photosynthèse, processus bioénergétique à l’aide duquel les plantes, les algues et certaines bactéries produisent l’énergie nécessaire à la synthèse des éléments organiques grâce à la lumière du soleil et à des composés minéraux (en particulier CO2 et H2O), semble néanmoins impliqué.

Réactions différentes en fonction du type de photosynthèse

En effet, seules les plantes en C3 étudiées sont sensiblement affectées par l’augmentation du CO2 atmosphérique, par opposition aux plantes en C4. Le maïs et le sorgho, qui font partie de cette dernière catégorie, n’ont pas réagi de la même façon, conformément à ce qui était attendu : la photosynthèse réalisée par les plantes en C4 ne fait pas appel aux mêmes mécanismes cellulaires. Ces deux types de photosynthèse sont majoritairement présents dans le monde végétal : le mode de fixation du dioxyde de carbone diffère et est plus efficace pour les plantes en C4 dans les bonnes conditions. Le nom des processus provient des molécules impliquées : dans le premier cas, la molécule à l’origine des réactions de fixation du carbone contient 3 atomes de carbones (3-phosphoglycérate), contre 4 (oxaloacétate) dans le second.

Largement sous-représentées (environ 5% du règne végétal), les plantes en C4 réagissent différemment à l’augmentation du CO2 atmosphérique : des travaux antérieurs réalisés à l’Université de l’Illinois à Urbana Champaign [2] ont démontré que la photosynthèse de type C4 n’est pas affectée par la présence d’une atmosphère à haute concentration de CO2. Ces plantes concentrant en effet naturellement le dioxyde de carbone dans leurs feuilles, la photosynthèse est déjà saturée en CO2 dans les conditions actuelles. Une augmentation du CO2 atmosphérique n’a donc pas d’effet sur le processus photosynthétique.

L’hypothèse de base était donc que la concentration en éléments nutritifs dans les grains des plantes en C4 demeure relativement stable, ce qu’a confirmé l’étude. Cela représente un intérêt particulier pour le sorgho, le maïs et la canne à sucre, par exemple. Ces plantes sont majoritairement cultivées dans les pays en développement et plus de recherche est nécessaire pour déterminer comment les cultures des régions chaudes répondront à un taux de CO2 atmosphérique élevé, au vu des conséquences que cela pourrait avoir.

Les carences en fer et en zinc constituent déjà un problème global à résoudre

Ces résultats alertent les organisations internationales : les carences en fer et en zinc sont déjà actuellement un problème majeur de santé publique, concernant près de 2 milliards de personnes, et ce jusque dans les pays développés. L’Organisation Mondiale de la Santé estime que les carences en fer représentent le problème nutritionnel le plus répandu dans le monde [3], alors que les carences en zinc, très répandues également, impliquent des conséquences lourdes sur la croissance et le développement des enfants et la santé des adultes. Et si les effets de l’anémie sont connus, une alimentation carencée en zinc a également un impact important sur la santé, en induisant un risque accru d’infections gastro-intestinales, en provoquant des troubles gastro-intestinaux et en perturbant le système immunitaire et la fertilité [4].

Une diminution de la qualité nutritionnelle des aliments disponibles aujourd’hui, déjà souvent en quantité insuffisante dans leur état actuel, pourrait donc avoir des conséquences importantes sur l’alimentation des populations des pays en voie de développement.

Les projecteurs s’orientent vers les régions chaudes grâce à la meilleure adaptation des plantes en C4 à ces climats. Il est probable que les recherches se concentreront dans ce sens dans les années à venir : collecter des données relatives aux climats tropicaux avec les sols tropicaux, qui manquent aujourd’hui, constitue une priorité, pour tenter de compenser le phénomène d’appauvrissement de la qualité nutritionnelle des plantes et légumes en C3, étant donné que c’est dans ces régions que la sécurité alimentaire représente encore le plus gros défi.

Source : bulletins-electroniques.com

La régénération de la forêt à l’époque des dinosaures

Des restes fossilisés d’une forêt ancienne incendiée montrent un rétablissement écologique similaire à celui des forêts de l’ère moderne.

A une époque aussi lointaine que celle des dinosaures, soit il y a 66 millions d’années, les forêts se renouvelaient après un incendie de la même façon qu’aujourd’hui, selon une équipe de chercheurs de l’Université McGill et du Musée royal de la Saskatchewan.

La découverte de la première preuve fossilisée de l’écologie des feux de forêt – la repousse de végétaux après un incendie – réalisée lors d’une expédition menée par l’équipe dans le sud de la Saskatchewan, au Canada, fournit un aperçu de l’écologie sur la planète tout juste avant l’extinction massive des dinosaures. Les constatations des chercheurs viennent par ailleurs s’ajouter aux données probantes suggérant que le climat de la région était alors beaucoup plus chaud et humide. « En effectuant les fouilles qui ont mené à la découverte de végétaux fossiles conservés dans la pierre déposée juste avant la disparition des dinosaures, nous avons constaté que certains étaient riches en charbon fossilisé alors que d’autres n’en contenaient pas. A partir de ces constatations, nous avons pu reconstruire le paysage des forêts de l’ère du Crétacé, avec ou sans perturbations par le feu », explique Hans Larsson, titulaire de la Chaire de recherche du Canada en macroévolution à l’Université McGill.

Les travaux des chercheurs révèlent qu’au site du feu de forêt, la végétation est dominée par une flore assez semblable à celle retrouvée aujourd’hui au début de la régénération forestière après un incendie. Les forêts anciennes renouvelées ressemblent beaucoup à celles de notre époque. On y trouve des végétaux comme l’aulne, le bouleau et le sassafras, et dans les forêts matures, le séquoia et le ginkgo. « Nous cherchions à étudier les résultats directs d’un incendie de forêt s’étant produit il y a 66 millions d’années, préservés dans la pierre, affirme Emily Bamforth du Musée royal de la Saskatchewan et auteure principale de l’étude. Par ailleurs, nous avons maintenant la preuve que la température annuelle moyenne dans le sud de la Saskatchewan était de 10 à 12 degrés Celsius plus élevée qu’aujourd’hui, avec des précipitations presque six fois supérieures. »

« Pour la première fois, l’abondance de végétaux fossiles nous a également permis d’évaluer les conditions climatiques dans le sud-ouest du Canada pendant la dernière période d’existence des dinosaures, et nous a fourni une piste supplémentaire pour découvrir à quoi ressemblait l’écologie juste avant leur extinction », mentionne Hans Larsson, qui est aussi professeur agrégé au Musée Redpath.

Les incendies de forêt peuvent modifier la biodiversité végétale et animale. La découverte du rétablissement paléoécologique à la suite d’un incendie de forêt aidera les chercheurs à mieux comprendre la biodiversité immédiatement avant l’extinction massive des dinosaures. « Nous ne serons en mesure de comprendre pleinement la dynamique d’extinction que lorsque nous aurons compris les processus écologiques normaux qui se cachent derrière », soutient le professeur Larsson.

Source : bulletins-electroniques.com

L’Assemblée nationale a voté le remplacement de l’écotaxe par un péage poids lourds

La majorité socialiste a approuvé la nouvelle taxe, contre laquelle ont voté, pour des raisons opposées, l’UMP et les écologistes.

Le nouveau dispositif, annoncé par Manuel Valls dimanche et qui entrera en vigueur au 1er janvier 2015, concernera les camions de plus de 3,5 tonnes circulant sur un réseau de près de 4.000 kilomètres de routes nationales et locales très fréquentées par les poids lourds.

Elle devrait rapporter 500 millions d’euros par an, a confirmé dans l’hémicycle le ministre des Finances Michel Sapin. L’écotaxe, elle, devait porter sur 15.000 kilomètres de routes et rapporter près du double pour financer les infrastructures de transport.

L’Etat cherche à présent à compenser ce manque à gagner, et M. Sapin a reconnu ne pas être encore « en capacité de dire quelles autres ressources seront trouvées ». Il a toutefois évoqué, comme l’avait fait dès lundi la ministre de l’Ecologie Ségolène Royal l’idée de mettre à contribution les sociétés d’autoroutes.

La gestion de la collecte sera toujours assurée par la société Ecomouv, avec, a confirmé Michel Sapin, « une participation éventuelle de l’Etat » à son capital.

Les routes concernées sont celles dont le trafic quotidien de poids lourds excède 2.500 véhicules, soit 3.800 km au total. S’y ajoutent des routes susceptibles « de supporter un report de trafic » des poids lourds : routes d’Alsace, périphérique parisien, un tronçon de la route Centre-Europe-Atlantique.

Les véhicules agricoles, les camions-citerne de transport de lait ainsi que les véhicules forains ou de cirque seront exemptés de la taxe.

Son entrée en vigueur début 2015 sera précédée pendant trois mois par « une marche à blanc à l’automne ».

Le député UMP des Côtes d’Armor, Marc Le Fur, opposant de toujours à l’écotaxe, a noté « des progrès », mais jugé que « l’évolution ne va pas au bout des choses » car « cet impôt reste anti-économique ». Il s’est notamment inquiété que la liste des routes concernées soit fixée par décret, et non intégrée dans la loi.

A l’inverse, l’écologiste Eva Sas s’est indigné « d’une taxe au rabais », craignant le report des poids-lourds sur d’autres routes, les contreparties demandées par les sociétés d’autoroutes et « un financement des transports collectifs mis en danger ».

A cet égard, Michel Sapin a promis que les investissements en ce domaine ne seraient pas rognés.

La solution retenue est « un beau compromis intelligent » a soutenu Chantal Guitet (PS), tandis que son collègue Thomas Thevenoud a souligné qu’il « fallait trouver une solution vite ».

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Les députés veulent interdire les sacs plastiques à usage unique

Ce vote, intervenu dans le cadre d’un projet de loi sur la biodiversité, est « une bonne nouvelle » pour France Nature Environnement (FNE), qui espère que « cela ne va pas être détricoté immédiatement, car les lobbies sont à l’affût ».

Déjà, sous l’effet d’une convention volontaire, le nombre des sacs plastiques de caisse distribués en France dans les grandes surfaces alimentaires est passé de 10,5 milliards à 700 millions entre 2002 à 2011, souligne le gouvernement dans son exposé des motifs de l’amendement.

« Mais il y a lieu de poursuivre cette réduction car près de 5 milliards de sacs de caisse en matière plastique à usage unique et plus de 12 milliards de sacs dits +fruits et légumes+ sont encore distribués dans les commerces », ajoute-t-il.

La proposition vise donc à prendre en compte les enjeux liés à la consommation importante de sacs +fruits et légumes+ qui jusqu’à présent n’ont jamais fait l’objet de dispositions visant à en réduire leur consommation.

Elle prévoit une interdiction de distribution des sacs à usage unique sauf pour des sacs répondant à des conditions particulières: les sacs « biosourcés » et compostables.

« On pense que l’opinion est prête », souligne Benoît Hartmann, porte-parole de FNE, tout en plaidant pour « l’étape suivante, c’est-à-dire l’interdiction de tous les sacs jetables », y compris les sacs biodégradables, qui nécessitent d’être traités dans des composteurs industriels, et les sacs dits « oxofragmentables » censés se dégrader mais contenant des résidus de plastique.

Les sacs jetables, même biodégradables, sont « non écologiques », estime l’ONG, à la fois à travers le produit lui-même mais aussi à travers la « mentalité » qu’ils véhiculent en « laissant croire qu’on peut faire ses courses avec un sac qui va finir à la poubelle ».

La date de l’examen en séance du projet de loi sur la biodiversité n’est pas encore fixée.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

VirtualBench : National Instruments veut faire de la place sur les paillasses [publi-reportage]

Elle s’appelle VirtualBench, et elle vient d’être mise en vente. De quoi s’agit-il ? D’un petit boitier pas plus grand qu’un décodeur de chaîne cryptée ou qu’une box internet, qui compile un oscilloscope à signaux mixtes analogique (2 voies) et numérique (32 voies), d’une puissance de 100 MHz, un multimètre numérique de 300 volts pour dix ampères, une alimentation DC programmable, un générateur de fonctions de 20 Mhz, et des entrées-sorties numériques.

Et si le vrai luxe, c’était l’espace (sur la paillasse) ?

Avantage indéniable : ça fait de la place, comparé à l’ensemble de ces appareils disposés côte à côte sur une paillasse… autre avantage, selon Emmanuel Roset, ingénieur produit chez NI : le prix. « C’est une alternative à des outils qui coûtent cher, ne serait-ce que parce qu’ils comportent beaucoup de boutons, d’interfaces, de câblage, qui reviennent cher aux constructeurs. Avec NI VirtualBench, les coûts de production ne sont pas soumis à ces contraintes, c’est donc une solution beaucoup plus économique ». Vendu 1690 €, VirtualBench ne devrait pas fleurir sous les sapins de Noël cette année, mais pourrait bien séduire les écoles d’ingénieurs, universités et autres établissements du supérieur utilisant ce type d’outils. Et également les laboratoires et service maintenance des industries concernées par l’électronique, et autres Géo Trouvetou.

Alors oui mais, si il n’y a pas d’interface analogique, comment ça marche ? Via PC portable ou tablette (uniquement iPad pour l’instant). Un câble branché au PC, et le programme s’installe automatiquement, il est alors possible de gérer directement son outil, d’en enregistrer les résultats sous format Excel, de faire des captures d’écran des oscillations et de les exporter, et surtout, d’intégrer son VirtualBench dans Labview, le logiciel de conception de systèmes de mesure et de contrôle de National Instruments.

Pas besoin de jouer les programmeurs

Pour l’iPad, la transmission de données se fait par Wi-Fi, avec une portée théorique de 50 mètres. Bien pratique si l’on utilise VirtualBench de façon portative, ou simplement si on veut faire ses expériences tranquillement installé dans son canapé. L’application est gratuite sur l’Apple Store, qui propose aussi une version « démo », pour se faire une idée du produit avant achat.

Bref, VirtualBench devrait trouver son public, d’autant qu’il ne nécessite pas de programmation préalable à l’utilisation, mais se prend facilement en main dès l’installation. Les réfractaires à la virtualisation des interfaces de contrôles des instruments de ce type devraient donc perdre là un argument majeur.

Le mot de la fin à Emmanuel Roset, qui nous fait le plaisir de nous faire une petite démonstration rien que pour nous (pardonnez la qualité de la vidéo, tournée à l’improviste avec un smartphone) :

 

Par Bruno Decottignies

Revue du web #61 : les vidéos les plus étonnantes de la semaine

Cette semaine dans la revue du Web :

– Colin Furze, l’inventeur le plus dangereusement enthousiaste du monde : les pouvoirs des X-Men ;

– Le courrier du cœur du « Magnetic Putty », ou que faire avec 45 kilos de mastic magnétique ;

– Un petit tour de jetpack autour de l’antenne du Four Seasons, et puis s’en va ;

– Le gadget (inutile?) de la semaine : « Jet Bicycle », l’autoproclamé plus dangereux vélo au monde ;

– Bonus : la NASA dévoile de nouvelles combinaisons spatiales ;

– Super bonus : la coupe du monde s’invite dans l’espace.

 

Colin Furze, l’inventeur le plus dangereusement enthousiaste du monde : les pouvoirs des X-Men

Vous ne connaissez pas encore Colin Furze ? Pour débuter notre soixante-et-unième Revue du Web, découvrons ensemble l’univers loufoque d’un jeune inventeur complètement génial et timbré à la fois, qui fait sensation depuis peu grâce à sa chaîne Youtube, mais également grâce à son extrême enthousiasme, forcément communicatif. Ses vidéos, habituellement postées au compte-gouttes, ont toujours été populaires, mais elles ont connu ces derniers jours un regain d’intérêt coïncidant avec l’arrivée sur nos écrans du blockbuster américain X-Men : Days of future past, il y a quelques semaines.

Fantasmant sur les super-pouvoirs de certains héros de la franchise hollywoodienne, l’ingénieux Colin Furze se met à l’ouvrage. Il commence par les griffes rétractiles de Wolverine, qu’il peut faire jaillir mais qu’il peut également rétracter à l’envi à l’aide d’une commande à air comprimé et d’une bonbonne d’air placée dans son sac à dos. C’est avec un enthousiasme non-feint – celui d’un collégien qui découvre qu’il a des super-pouvoirs – qu’il nous présente ses griffes dans la vidéo qui suit, lui permettant de transformer en charpie un bout de carton, de décapiter une pastèque ou de faire face à… une poupée gonflable.

 

Non-content de son premier fait d’armes, notre Géo Trouvetout anglais s’est alors attaqué au personnage de Magnéto, dont il singe les pouvoirs à l’aide d’une paire de chaussures aimantées lui permettant de marcher la tête en bas, pour peu qu’il y ait quoi que ce soit de métallique au plafond. 

 

 

Enfin, dans sa dernière vidéo en date, Colin Furze s’essaie aux super-pouvoirs du méchant Pyro, cette fois-ci avec l’aide de deux lance-flammes qu’il a lui-même bricolés afin qu’ils s’activent et crachent leurs flammes dès qu’il met en mouvement son poignet. Qui sait ce que ce plombier de formation nous réserve encore s’il survit ! 

 

Le courrier du cœur du « Magnetic Putty », ou que faire avec 45 kilos de mastic magnétique

Le « Magnetic Putty », ce drôle de mastic magnétique dont nous vous parlions déjà ici et a le mérite de réussir à stimuler la créativité de nombreux internautes, qu’ils soient scientifiques éclairés ou profanes dans la pénombre. Ici, plutôt que de se contenter d’une petite quantité de « Putty », on se propose de faire quelques tests – dont le leitmotiv semble être un certain sens de l’absurde – avec l’équivalent de 500 boites de mastic, soit tout de même la bagatelle de 45 kilos.

Pour rappel, le mastic magnétique, bien qu’il ressemble à du mastic ordinaire, est imprégné de millions de particules ferreuses de l’ordre du micron (de la poudre d’oxyde de fer), ce qui ne le rend pourtant pas magnétique pour autant. C’est la présence d’un aimant qui magnétise les particules ferromagnétiques du mastic, qui s’alignent et génèrent alors des pôles magnétiques.

 

Un petit tour de jetpack, et puis s’en va :

Les Américains de « Go Fast », boisson énergétique évoluant tant bien que mal dans l’ombre du géant Red Bull, ont bien compris la leçon : dans la lignée du projet « Red Bull Stratos », qui avait vu le parachutiste autrichien Felix Baumgartner franchir le mur du son en chute libre depuis un ballon stratosphérique, l’équipe Go Fast a fait appel à son casse-cou en chef, Nick Macomber, pour réaliser un vol en jetpack et ainsi consolider leur image d’amoureux de sports extrêmes.

Le vol de Nick Macomber ne fut pas bien long, juste le temps de faire le tour de l’aiguille du Four Seasons de Denver, mais il mérite pour sûr le coup d’œil.

 

Le gadget (inutile?) de la semaine : « Jet Bicycle », l’autoproclamé plus dangereux vélo au monde

Puisque les trois vidéos de Colin Furze présentées en début de Revue ne vous ont pas suffit, notre inventeur cinglé revient bruyamment à la charge avec le gadget (inutile ?) de la semaine, le « Jet Bicycle », qu’il définit lui-même comme le vélo le plus dangereux au monde. Il suffit de jeter un œil à la vidéo pour le croire volontiers : le vélo qu’il a mis au point, non sans brio, est pourtant bel et bien une poubelle à réacteurs.

La recette semble simple, mais ne vous leurrez-pas : derrière le casse-cou un tantinet bruyant, Colin Furze est également un génie du DIY (« Do It Yourself », le fait-maison). Pour ce faire, il va donner une seconde chance à un bon vieux vélo « de grand-mère », vélo qui pensait probablement – à tort – avoir déjà vécu les plus belles années de sa vie. Pour installer le dangereux réacteur, il coupe en deux la bicyclette afin de pouvoir rallonger le cadre. Pas besoin de soupape, le vélo à réaction fait des merveilles pour peu qu’on ait un peu d’espace et que l’on soit complètement inconscient.

Bonus : la NASA dévoile de nouvelles combinaisons spatiales

Elles sont toutes fraîches et semblent sortir tout droit d’un film de science fiction : voici en bonus quelques photos de la combinaison spatiale qui a été choisie pour succéder à la « Z-1 », première mouture déjà fort appréciée par le grand public. Choisie parmi trois combinaisons, ce sont près de 147 000 internautes qui ont pu voter et ainsi trancher en faveur de ce design, qui n’est pas sans rappeler le film TRON, dont une suite est sortie en salles en 2010.

Finalisée en novembre prochain, elle subira alors toute une batterie de tests pour pouvoir vérifier sa conformité aux standards – élevés – de l’agence américaine, notamment une simulation de marche sur Mars. La série Z est en effet destinée à habiller, un jour, les futurs astronautes qui fouleront le sol de la planète rouge.

La NASA livre quelques détails, dans un communiqué : « Le revêtement protège de l’abrasion et des accrocs les couches inférieures, ainsi qu’une partie de la technologie embarquée, durant la phase de tests. Il permet également d’apporter une petite touche esthétique à l’ensemble. La couche de revêtement […] remplit d’autres fonctions importantes comme la protection de l’astronaute contre les micrométéorites, les températures extrêmes dans l’espace ou les effets néfastes des radiations ».

 

 

Super bonus : la coupe du monde s’invite dans l’espace

Sans surprise, notre deuxième bonus est lié cette semaine à l’événement auquel personne ne pourra échapper pendant les semaines à venir, même en y mettant vraiment du sien, à savoir… la coupe du monde de football, qui a lieu cette année au Brésil. Pour saluer à leur manière le coup d’envoi du mondial, les astronautes américains Reid Wiseman, Steven Swanson et l’astronaute allemand Alexander Gerst se sont mis en scène en train de jouer au football à bord de la Station Spatiale Internationale. Cette tentative ludique pourrait bien s’avérer plus amusante à regarder que certains matchs de ce mondial.

 

Quand la GED ne suffit plus pour gérer les projets d’ingénierie

Dans le secteur du BTP et de l’ingénierie la GED (Gestion Electronique de Documents) est souvent considérée comme un mal nécessaire pour partager les données au sein des projets. Mais la donne change : les besoins évoluent et un simple outil de GED « annexe » n’est plus suffisant pour répondre aux nouvelles méthodes de travail et aux contraintes de volumétrie.

Les enjeux de la gestion des projets d’infrastructures sont en pleine mutation avec le développement des PPP (Partenariats Publics Privés) et du maintien en condition opérationnelle des infrastructures industrielles qui poussent les sociétés à avoir une vision sur l’ensemble du cycle de vie (étude, construction, exploitation) mais aussi avec la part de plus en plus importante que prend la gestion des équipements dans les projets.

Toutes ces évolutions impliquent le développement de nouveaux savoir-faire, de nouvelles technologies, de nouveaux métiers… Ces éléments engendrent plus de complexité et multiplient le nombre d’intervenants. Les spécificités de ces métiers renforcent les besoins de collaboration mais aussi de confidentialité pour protéger le savoir-faire. En complément, ces compétences clés sont rares et il faut améliorer la productivité pour permettre aux acteurs de se concentrer sur leur valeur ajoutée.

Les grands groupes ont donc besoin de faciliter l’accès des différents acteurs et de gérer des projets de plus en plus importants impliquant des processus complexes tout en assurant la maîtrise de la confidentialité et la consolidation de la connaissance.La marge des sociétés n’est plus uniquement liée au coût de construction mais aussi au coût d’exploitation, d’entretien et de gestion des obsolescences.

Ces besoins reposent directement sur la capacité à disposer d’un référentiel métier transverse au projet et disponible durant tout son cycle de vie.

Découvrez un document détaillant les solutions, les nouvelles méthodes et les innovations face à ces enjeux.

Les masques Eidos décuplent votre vue et votre ouïe

Les deux masques sont en nylon, conçus par impression 3D. Enveloppant le bas du visage jusqu’aux oreilles, le masque Eidos Audio vous donnera une fière allure futuriste. Au beau milieu du bruit émis par une foule parlant en même temps, le masque est capable de cibler les sons émis par une seule personne simplement en se tournant dans sa direction.

Le son est retranscrit via deux écouteurs stéréo directement dans les oreilles, mais aussi via deux transducteurs placés au niveau de la bouche. Ces transducteurs envoient les vibrations sonores par ostéophonie (conduction osseuse) directement dans l’oreille interne via les os du crâne. Ainsi, les transducteurs donnent l’impression que la personne parle directement à l’intérieur de votre tête. Le masque est relié à un logiciel qui filtre les sons, extrait la voix ciblée et envoie le résultat dans les oreilles et les transducteurs. 

Le masque Eidos Vision comporte deux écrans à l’intérieur, un en face de chaque œil. Une caméra encastrée au niveau du front filme l’environnement et, là aussi, le flux vidéo est transmis à un logiciel. Celui-ci décompose le mouvement de la scène en temps réel. Le résultat est impressionnant : si la vidéo projetée sur les écrans montre les personnages en mouvement, ils sont accompagnés d’une traîne révélant l’ensemble du mouvement passé. Le rendu est similaire à la traîne laissée par les balles dans la fameuse scène de Matrix !

L’utilisation du logiciel nécessite un ordinateur portable pour Eidos Audio et un iPhone pour Eidos Vision, ce qui limite un peu la mobilité des dispositifs pour le moment. Les concepteurs de ces deux prototypes visent dans un premier temps des applications professionnelles plutôt que grand public.

Quelles applications imaginer ?

Les concepteurs imaginent déjà des applications dans de nombreux domaines. Par exemple, lors d’un concert, les spectateurs équipés d’un masque Eidos Audio pourraient extraire uniquement la voix du chanteur ou les sons émis par un seul instrument en les isolant du bruit ambiant.

Un entraîneur muni du casque Eidos Vision pourrait quant à lui analyser plus facilement la technique de ses joueurs ou athlètes en analysant l’ensemble de leurs mouvements, ainsi que la trajectoire des objets lancés. Des agences de tourisme seraient également intéressées par ce masque pour augmenter l’expérience des touristes sur les sites touristiques importants. 

Dans le domaine médical, les deux masques permettraient d’aider des personnes handicapées ou des enfants ayant des difficultés de concentration.

Découvrez le rendu en vidéo :

Par Matthieu Combe, journaliste scientifique

Construire des maisons avec une imprimante 3D en quelques heures

L’exploit nous vient de l’Asie. Une entreprise chinoise, WinSun, décide d’investir le marché de l’immobilier en construisant des maisons. Leur originalité ? Le maître d’œuvre n’est autre qu’une imprimante géante de 30 mètres de long, 10 de large et 6 de haut. Grâce à ce monstre, des blocs entiers sont imprimés. Ils sont ensuite assemblés pour former une véritable maison. Et pas une chambre de bonne, ce sont des demeures spacieuses de 200m².

La matière première utilisée pour alimenter l’imprimante est un mélange de matériaux recyclés, de fibres de verre et de ciment. De quoi faire chuter le prix de la maison autour des 3500€ ! N’insistez pas, je n’ai pas oublié de zéros. De quoi ridiculiser les maisons à 100 000€ de Jean-Louis Borloo. Un prix incroyablement bas, qui pourrait bien bouleverser toute l’économie du bâtiment. D’autant que l’exploit de WinSun est en passe de se banaliser du fait de plusieurs projets équivalents, qu’il s’agisse d’Américains souhaitant imprimer une maison d’un seul bloc, ou de la construction d’un immeuble entier aux Pays-Bas.

Avec ces réalisations, l’impression 3D confirme son caractère révolutionnaire. Appliquée à l’immobilier, cette technologie permet de réfléchir à un nouveau genre d’habitats à faibles loyers par exemple. L’impression 3D est même préssentie pour conquérir l’espace puisque L’ESA envisage des structures lunaires réalisées à partir de ces imprimantes.

A ce jour, les 10 maisons construites en moins de 24h sont des prototypes, et leur stabilité dans le temps reste inconnue.

Voir l’imprimante géante en action : 

Par Audrey Loubens, journaliste scientifique

Ma thèse en 180 secondes : la cellule de rectum de ver qui souhaitait devenir un neurone

Cette doctorante a 26 ans et s’intéresse  au rôle des protéines lin 15a et rétinoblastone dans la reprogrammation cellulaire directe in vivo chez C.elegans. Malgré un intitulé compréhensible seulement par les experts du domaine, Marie-Charlotte a su passionner son auditoire en vulgarisant son travail de thèse en 180 secondes, relevant haut la main le défi lancé par le CNRS et la Conférence des présidents d’université : rendre intelligible son sujet de thèse à un auditoire profane et diversifié, en moins de 3 minutes, de façon claire, concise et avec une seule diapositive.  Pas simple. Mais cet exercice de vulgarisation permet aux étudiants chercheurs de s’interroger sur comment communiquer et diffuser la connaissance. Même si ce qui se conçoit bien s’énonce clairement, savoir expliquer son travail n’est pas chose aisée. Malgré ces difficultés, plusieurs doctorants de 23 universités différentes se sont prêtés au jeu.

Pour sa première édition, le concours inspiré de la version canadienne Three minute thesis a vu s’affronter les meilleurs lors de la finale à Lyon. Marie-Charlotte, avec un humour poilant et une énergie communicative, a réalisé une prestation exceptionnelle, une véritable démonstration de ce qu’est la vulgarisation scientifique. Avec son histoire de cellule de rectum de ver souhaitant devenir un neurone, celle qui allait rafler le 1er prix du concours et le prix du public a rendu limpide la problématique de la reprogrammation cellulaire, ses enjeux et les moyens de contrôler le destin des cellules.

En deuxième position, Noémie Mermet, doctorante à l’université d’Auvergne a réussi à rendre captivant son sujet sur l’ « implication des récepteurs 5-HT2A dans la modulation des interneurones PKSg dans un contexte d’allodynie », expliquant comment de méchants neurones détournaient l’information liée à un contact de la peau telle une caresse pour en faire une sensation douloureuse. La troisième place est revenue à Chrystelle Armata, qui a philosophé sur « La loyauté probatoire à l’épreuve des nouvelles technologies », réfléchissant au caractère intègre de l’obtention de preuves en utilisant les nouvelles technologies  capables de s’immiscer dans la sphère privée, via des écoutes téléphoniques par exemple.

Découvrez ces trois présentations de ces doctorantes au sommet de leur art oratoire :

 1er prix : Charlotte Morin, « rôle des protéines lin 15a et rétinoblastone dans la reprogrammation cellulaire directe in vivo chez C.elegans »

2ème place : Noémie Mermet, « implication des récepteurs 5-HT2A dans la modulation des interneurones PKSg dans un contexte d’allodynie »

3ème place : Chrystelle Armata , « La loyauté probatoire à l’épreuve des nouvelles technologies »

Par Audrey Loubens, journaliste scientifique

Reportage vidéo – Le football, jeu collectif ou somme d’exploits individuels ?

A l’occasion de la Coupe du monde de football 2014 au Brésill, Universcience.tv a choisi de rediffuser ce reportage consacré à l’intelligence collective dans le football.

‘Une équipe n’est pas l’addition de plusieurs joueurs mais c’est une interaction entre des joueurs qui produisent quelque chose de neuf. » Piette Parlebas, professeur de sociologie.

Réalisation : Jean-Christophe Ribot
Production : Mosaique Films, Pois Chiche Films / Droits réservés
Durée : 51 min 47 s

Fini les bagages perdus lors des voyages en avion grâce à la technologie M2M

Les objets connectés vont enfin s’envoyer en l’air. Le dispositif baptisé e-Track va peut-être révolutionner la vie des bagagistes et redonner le sourire aux clients malchanceux. Grâce à ce tout nouveau système, les bagages seront localisables à tout moment, de quoi retrouver n’importe quelle valise égarée. 

Comment fonctionne le système mis au point par KPN et Fast Track Company ? Une première partie, l’e-Tag, se positionne sur le bagage concerné. Il se présente sous la forme d’une étiquette avec deux écrans affichant les informations relatives au propriétaire et à son vol. Ces informations sont stockées grâce à une puce RFID. L’étiquette est accrochée à l’extérieur du bagage, tandis qu’à l’intérieur est placée la deuxième partie, l’e-Track, un système GPS associé à une connexion GSM et bluetooth. Il s’agit de la technologie M2M, qui permet de localiser un bagage connecté partout dans le monde et à tout moment. Une appli permettra de localiser sa valise directement grâce à son Smartphone. 

L’alliance Skyteam dont fait partie AirFrance espère ainsi faciliter le transit des bagages et lutter contre les vols.

Attention, ceci ne sera pas systématisé sur chaque bagage et concernera tout d’abord quelques voyageurs réguliers. Mais Samsonite a déjà annoncé qu’elle proposerait un bagage intégrant ce dispositif. En édition limitée bien sûr.

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

Perturbateurs endocriniens : « Aujourd’hui, on ne peut traiter ce problème que sur la globalité du cycle de vie »

Entretien avec Alain Lombard, expert en toxicologie et animateur de la formation Perturbateurs endocriniens, chez Techniques de l’Ingénieur.

Techniques de l’Ingénieur : Alain Lombard, que sait-on aujourd’hui des risques que représentent les perturbateurs endocriniens ?

photo_perturbateursAlain Lombard : Nous savons qu’ils miment les hormones naturelles, se collent sur les sites d’actions de ces dernières, et vont donc bloquer leur fonctionnement naturel. On en compte plus d’une centaine, présents dans des produits naturels tels le soja, le houblon, mais également dans les produits chimiques.

C’est une problématique qui concerne de nombreux secteurs, à commencer par l’alimentaire avec le bisphénol A présent dans les vernis intérieurs de protection des cannettes métalliques, L’industrie des plastiques est en premier lieu concernés, notamment par les phtalates, présents par exemple dans les PVC mous, utilisés dans les jeux et jouets pour enfants.

La crainte, c’est donc que les perturbateurs endocriniens viennent perturber le système hormonal des enfants et donc leur développement. Chez l’adulte, le risque est la dérégulation hormonale, cause de cancers et autres maladies. Dans la nature, on a pu observer les conséquences des perturbateurs endocriniens sur les alligators du lac Apopka en Floride notamment, les mâles ayant été féminisés, sont devenus incapables de se reproduire.

Les risques sur les plantes sont moins évidents, mais il est certain qu’une fois qu’on  ingère celles-ci, les perturbateurs endocriniens y étant présents vont avoir des effets sur notre corps. C’est pour cela qu’aujourd’hui, on ne peut traiter ce problème que sur la globalité du cycle de vie, et non uniquement sur un segment de celui-ci.

Techniques de l’Ingénieur : Comment réagit le législateur à ce risque ?

Alain Lombard : Au coup par coup. Il n’y a pas de définition internationale fixée de ce que sont les perturbateurs endocriniens. Chaque pays a sa stratégie. En France, sous la pression des milieux écologistes, la législation est plus restrictive qu’elle ne l’est au niveau européen : l’EFSA, l’agence européenne de la santé alimentaire, est plus souple que l’ANSES, l’agence nationale de sécurité sanitaire, plus prudente car sous contrôle de la société civile.

Pour l’industrie, l’objectif est de s’assurer que les produits mis sur le marché ne risquent pas d’émettre des perturbateurs endocriniens une fois sur le marché. Il est donc indispensable de détecter les perturbateurs endocriniens dès leur synthèse, avant leur mise sur le marché. On peut essayer de détecter les structures chimiques semblables à celles des hormones naturelles, ou développer une stratégie de tests.   La stratégie des tests a été décrite par l’OCDE. Elle comprend des tests sur cellules, ou sur animaux de laboratoire. Ces tests sont couteux et long.  La crainte des industriels est d’être accusés de produire des perturbateurs endocriniens, et de devoir prouver que ça n’est pas le cas, ce qui n’est pas une mince affaire.

D’où la tentative de mise en place, en France sous l’égide du ministère de l’Environnement et du Développement Durable, d’une plateforme public-privé d’évaluation et de validation des méthodes de test des substances sous forme d’un partenariat entre les industriels, et la recherche publique , pour permettre de définir en amont si un produit est ou non à risque.

Techniques de l’Ingénieur : Vous animez Chez Techniques de l’Ingénieur une formation sur ce thème, c’est sur cet axe qu’elle se positionne ?

Alain Lombard : Oui. Je m’applique à présenter un panorama le plus complet possible de cette problématique de perturbateurs endocriniens. Cette formation n’a pas pour objectif de créer des experts sur les perturbateurs endocriniens, mais de donner des clefs pour trouver les informations nécessaires à une prévention des risques efficaces, et pour suivre les évolutions des recherches et des textes réglementaires dans ce domaine, plutôt que d’attendre que le problème se présente subitement.

Elle s’adresse donc prioritairement aux chimistes, pour qu’ils intègrent ce risque dans la conception de leurs produits, mais également aux commerciaux, pour qu’ils puissent répondre aux questions de leurs clients, et ne vendent pas des produits à risque qui pourront avoir des répercussions sur la santé de l’utilisateur final, à des fabricants de produits de grande consommation, de biberons par exemple. Enfin, cette formation peut également intéresser la grande distribution, puisque le risque pour eux est de mettre sur le marché une grande quantité de produits contenant des perturbateurs endocriniens, et du jour au lendemain, de se retrouver accusés mettre en danger la vie de leurs consommateurs.

Première mondiale : une entreprise espagnole établit son capital social en bitcoins

Le terme de bitcoin désigne à la fois un système de paiement à travers le réseau Internet, et une unité de compte utilisée par ce système de paiement. Cette monnaie virtuelle est née en 2009 grâce à une personne, ou un groupe de personne connu sous le seul pseudonyme de Satoshi Nakamoto. Depuis lors, et malgré un cours extrêmement fluctuant, sa popularité et son utilisation n’ont cessé de croitre. Cette devise virtuelle ne dépend d’aucune banque centrale ni d’aucune institution, raison pour laquelle sa valeur ne cesse de fluctuer, en fonction du nombre d’usagers qui l’utilisent.

Chaque unité de bitcoin est créée au fur et à mesure qu’un réseau d’ordinateurs privés connectés entre eux via un système de peer-to-peer résout des algorithmes mathématiques. Ces usagers, appelés des mineurs, se répartissent ensuite les bitcoins créés en fonction de la puissance de calcul cédée par chacun d’eux. Un usager peut aussi changer d’autres devises pour des bitcoins par le biais de différents portails internet, ou vendre des services / produits en échange de bitcoins.

A la différence des autres devises, le bitcoin n’est pas émis par une banque centrale. Il est créé grâce au réseau peer to peer quand un ordinateur ou un réseau d’ordinateurs privés connectés entre eux trouve la solution à un problème de calcul complexe. Pour recevoir des Bitcoins, il faut mettre une partie de la puissance de calcul de son ordinateur au service de la résolution d’équations informatiques de plus en plus difficiles : c’est ce qu’on appelle miner les bitcoins. La difficulté des problèmes à résoudre est croissante, afin que le nombre de bitcoins créés soit divisé par deux tous les 4 ans. La quantité de cette nouvelle monnaie est en effet limitée : l’algorithme est prévu pour n’en créer que 21 millions en tout, un chiffre qui devrait être atteint théoriquement en 2140. A l’heure actuelle, environ la moitié du stock a été « minée ».

Lors de la création de Coinffeine, chacun de ses quatre fondateurs a apporté des bitcoins au capital social de la compagnie, pour une contrevaleur 3.000 euros, stockés sous la forme d’un chèque papier vérifié en présence d’un notaire, créant ainsi un précédent pour toute entreprise qui souhaiterait se constituer de cette manière. En tant que monnaie chiffrée anonyme, cet actif digital a dans un premier temps été rapidement adopté par les plateformes de transactions illégales telles que Silk Road -qui utilisait le réseau Tor et qui a été fermée une première fois par le FBI en octobre 2013. Toutefois, les bitcoins peuvent être utilisés dans tout commerce qui désire les accepter comme méthode de payement. De fait, il existerait à Madrid, d’après l’agence Europa press, plus de 50 établissements qui les acceptent pour paiement.

Bitcoin est donc actuellement utilisé en Espagne comme moyen de paiement, toutefois, comme en France il n’existe pour l’instant pas de loi qui régule ces transactions de manière explicite. Certains députés ont manifesté leur intérêt pour la question en posant des questions au Gouvernement sur la norme fiscale à appliquer au cas de l’acquisition de monnaies digitales telles que le bitcoin.

La toute jeune entreprise espagnole Coinffeine prétend quant à elle créer la toute première plateforme d’échange de Bitcoins qui opère de manière totalement décentralisée. Actuellement au stade de développement pré -alpha, et donc non-opérationnelle, qu’offre-t-elle de plus par rapport à d’autres plateformes d’échanges internationales telles que la géante japonaise Mt.Gox, – qui a été déclarée en faillite le 28 février dernier, suite à un détournement massif de bitcoins du fait, vraisemblablement d’un piratage informatique ?

L’approche naïve d’une transaction entre un individu A et B (chacun transférant librement à l’autre le montant défini de la transaction, sans intervention d’un tiers) ne fonctionne pas dans le cas d’un échange en ligne, qui est à priori réalisé sans lien de confiance entre les individus A et B : le premier à payer se retrouve à la merci de l’autre qui pourrait ensuite refuser de mener l’échange à son terme.

La solution classique à ce problème dit « d’absence de confiance » est de bénéficier du secours d’une tierce partie, en laquelle A comme B ont confiance et qui recevra leurs deux paiements avant de leur redistribuer, finalisant ainsi la transaction de manière sécurisée. Un grand nombre de plateformes d’échanges de bitcoins actuelles jouent ce rôle (BTC China, BitStamp, Kraken). Toutefois, et comme l’a démontré récemment le naufrage de MtGox, cette solution de la tierce partie de confiance présente le désavantage de positionner l’intermédiaire choisi – qui centralise un nombre important de transactions – comme une cible de choix pour d’éventuels pirates informatiques.

Pour contourner ce risque, Coinffeine a donc choisi de proposer une solution d’échange en « peer-to-peer » pour permettre l’échange de bitcoins avec d’autres valeurs sans impliquer de tierce partie. La sécurité de l’échange est garantie par un algorithme dit de « zero trust exchange » basé sur la théorie des jeux, qui met en place une chaine de micropaiements (micropayment channel) et de « dépôt de caution » pour forcer les deux usagers A et B à continuer leur coopération jusqu’à la finalisation de la transaction.

Derrière cette solution innovante – Coinffeine est la première plateforme mondiale d’échange de bitcoins en P2P, se cache une équipe de 4 développeurs de talent, qui avaient déjà pris part antérieurement à un autre projet d’envergure : « Smart Steps », dans le domaine du Big Data, et lancé en novembre 2012 en Grande-Bretagne par Telefonica.

Source : bulletins-electroniques.com

Et aussi dans l’actualité :

De puissants cybercriminels qui rançonnaient les particuliers ont été arrêtés

Il aura fallu la coopération de plusieurs services de police européens et américains pour réussir un tel coup de filet. Plus de quatre vingt dix membres du groupe à l’origine d’un virus terriblement efficace ont ainsi été mis sous les verrous. Baptisé GameOver Zeus, celui-ci se propage d’ordinateur en ordinateur par le biais de mails piégés selon la classique technique du phishing. Cela consiste à inciter le destinataire d’un mail à cliquer sur un lien frauduleux de façon à permettre au virus de pénétrer le terminal.  Mais ce virus a un objectif financier puisqu’il cherche dans l’ordinateur toutes les informations de type bancaire, codes d’accès, … Tout ce qui va permettre d’accéder aux comptes et de les vider au profit des criminels. Le FBI estime que 100 millions de dollars auraient ainsi été volés.

 Une fois la recherche effectuée, qu’elle ait aboutie ou non, le passage du virus transforme l’ordinateur en machine zombie, c’est-à-dire en un terminal qui servira aux pirates à lancer d’autres attaques à l’insu du propriétaire. Dans tous les cas, les cybercriminels sont gagnants. Et leur ingéniosité va encore plus loin. GameOver Zeus leur permettait d’implanter Cryptolocker. Cet autre virus très puissant bloque l’accès à l’ordinateur, impossible pour le propriétaire d’accéder à quoi que ce soit. Pour retrouver l’accès, il doit accepter de payer une rançon. Ce virus aurait infecté 200 000 ordinateurs et permis aux malfaiteurs d’engranger 27 millions de dollars en à peine deux mois ! Une affaire plutôt rentable.

Mais l’arrestation de la majeur partie du gang ne signifie pas la mort de GameOver Zeus . Ce programme est difficile à détruire du fait de son architecture P2P et de son système de commande à distance. Malgré le travail conjoint du Centre européen de lutte contre la Cybercriminalité (EC3), de chercheurs de la Shadowserver Foundation, Abuse.ch, CrowdStrike et même Microsoft, GO Zeus est seulement en quarantaine. Les autorités ont réussi à récupérer le contrôle des ordinateurs infectés et à stopper la contamination, mais ils n’ont pas encore tué le virus. Pour l’éradiquer il faut que tous les utilisateurs dont la machine a été infectée lancent le logiciel mis à disposition par leur fournisseur d’accès à internet, puis qu’ils mettent à jour leur système d’exploitation.

D’après la police britannique, à l’origine de la prise de contrôle des machines,  les utilisateurs disposent de deux semaines pour se protéger et effectuer les mises à jour nécessaires. Car le virus pourrait bientôt refaire son apparition. Le cerveau du groupe de cybercriminels a bien été identifié, mais il court toujours. Ce russe trentenaire, Evgeniy Mikhailovich Bogachev est désormais l’un des cybercriminels les plus recherchés.

Par Audrey Loubens, journaliste scientifique

Les déchets plastique menacent la vie marine, selon l’ONU

« Les matières plastiques jouent un rôle crucial dans la vie moderne mais les impacts environnementaux de la façon dont nous les utilisons ne peuvent être ignorés », a estimé dans un communiqué Achim Steiner, le chef du Programme de l’ONU pour l’environnement (PNUE) dont le siège est à Nairobi.

« Il faut prendre les mesures appropriées pour empêcher dès le début les déchets plastique de se retrouver dans l’environnement, ce qui se traduit par un seul objectif fort : réduire, réutiliser, recycler », a-t-il ajouté.

Les déchets plastique tuent la vie marine, soit parce qu’ils sont ingérés par des animaux tels que tortues ou baleines, soit parce qu’ils « endommagent les habitats naturels essentiels tels que les récifs coralliens », explique le PNUE dans un rapport, ajoutant que de petits fragments de plastique avaient été retrouvés jusque dans les glaces polaires.

Le PNUE fait également part de ses « inquiétudes concernant la pollution chimique, la propagation d’espèces invasives (telles que des champignons) par les fragments plastiques et les dégâts économiques causés aux secteurs du tourisme et de la pêche dans de nombreux pays ».

L’essentiel des déchets plastique terminent au milieu de l’océan dans les vastes « continents de plastique », lieu de convergence de divers courants marins, mais les conséquences croissantes des micro-plastiques (morceaux de moins de cinq mm de diamètre) sont particulièrement inquiétantes, estime le PNUE.

« Leur ingestion a été constatée à grande échelle dans les organismes marins, notamment les oiseaux, les poissons, les moules, les vers et le zooplancton (…) devenant au final une source de produits chimiques dans notre nourriture », poursuit le PNUE.

La nouvelle Assemblée des Nations unies pour l’Environnement (UNEA), qui se réunit dans la capitale kényane jusqu’au 27 juin, se veut, selon l’ONU, « une plate-forme mondiale pour l’élaboration de politiques environnementales au plus haut niveau » et permettra de « placer l’environnement sur un même pied d’égalité que les questions liées à la paix, la sécurité, la finance, le commerce ou la santé ».

L’UNEA, qui se réunira ensuite tout les deux ans, doit aborder à Nairobi des questions telles que la criminalité liée aux espèces sauvages, le braconnage ou la réforme des subventions aux combustibles fossiles.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Des liens entre les pesticides et l’autisme, selon une étude

Cette recherche publiée dans le journal Environmental Health Perspectives examine les liens entre le fait de vivre près d’un lieu où sont utilisés des pesticides et les naissances d’enfants autistes, mais elle n’en déduit pas une relation de cause à effet.

L’autisme est une maladie du développement dont l’incidence a fortement augmenté ces dernières décennies aux Etats-Unis, touchant un enfant sur 68 en 2010, au lieu de un enfant sur 150 en 2000.

Les chercheurs ont confronté des données sur les utilisation de pesticides en Californie aux adresses de 1.000 personnes qui participaient à une étude sur les familles avec des enfants autistes.

« Nous avons regardé où nos participants à l’étude vivaient pendant leur grossesse et au moment de la naissance », a expliqué l’un des auteurs Irva Hertz-Picciotto, vice-présidente du département de Sciences et de Santé publique à l’université Davis de Californie.

La loi en Californie requiert de préciser les types de pesticides pulvérisés, où, quand et dans quelles quantités.

« Nous avons constaté que plusieurs types de pesticides ont été plus couramment utilisés près des habitations où les enfants ont développé le syndrome de l’autisme ou ont eu des retards » de développement.

Environ un tiers des participants à l’étude vivaient dans un rayon de 1,25 à 1,75 kilomètre de l’endroit où les pesticides ont été utilisés.

Les chercheurs ont aussi découvert que les risques d’autisme étaient d’autant plus élevés que le contact avec les pesticides se faisait au deuxième et au troisième trimestre de la grossesse.

Le développement du cerveau du foetus pourrait être particulièrement sensible aux pesticides, selon les auteurs de cette étude.

« Cette étude valide les résultats d’une recherche précédente qui avait constaté des liens entre le fait d’avoir un enfant autiste et l’exposition, pendant la grossesse, à des produits chimiques de l’agriculture en Californie », a précisé Janie Shelton, diplômé de l’université Davis et principal auteur de l’étude.

« Même si nous devons encore regarder si certains sous-groupes sont plus sensibles aux expositions de pesticides que d’autres, le message est très clair: les femmes enceintes doivent faire attention à éviter tout contact avec les produits chimiques de l’agriculture ».

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »