Conquête spatiale : les Émirats arabes unis dans la course vers Mars

Après l’annonce de la création de l’agence spatiale des Émirats arabes unis (UAESA) il y a plus d’un an, on en sait un peu plus concernant le programme de la mission Hope. On sait désormais qu’elle souhaite lancer une sonde spatiale à l’horizon 2020 afin que celle-ci, puisse, une fois placée en orbite martienne un an plus tard, étudier l’atmosphère de la planète rouge sous toutes ses coutures : sa dynamique quotidienne et annuelle, le climat des différentes couches, les éléments qui la composent ainsi que leurs proportions et, en dernier lieu, le mécanisme de fuite dans l’espace de l’hydrogène et l’oxygène. Hope complémentera les données déjà récupérées, notamment par la sonde de la Nasa Maven, ou celle de l’Inde Mars Orbiter Mission.

Cette étude devrait conduire les scientifiques à appréhender son évolution et celle de l’atmosphère terrestre puisque certains éléments indiquent que Mars, il y a très longtemps, aurait fortement ressemblé à la Terre.

Une fois qu’elle aura parcouru les 60 millions de kilomètres qui séparent Mars de la Terre, la sonde devrait effectuer l’observation de Mars entre deux et quatre ans, temps durant lequel elle est censée transmettre pas moins de 100 gigabits de données aux chercheurs de l’UAESA ainsi qu’à diverses institutions (universités et organisations) dans le monde.

Retrouver un éclat scientifique au niveau mondial

Il s’agit d’un défi extrêmement motivant bien sûr, mais c’est aussi un moyen de montrer au monde, en devenant le neuvième pays à se lancer dans l’exploration de Mars, qu’elle en a encore sous le pied. Il signe le retour des EAU au premier plan de la recherche scientifique. Et quoi qu’on en dise c’est forcément un peu un symbole, sur le plan politique, national et international. Comme l’a dit le chef de projet Omran Sharaf pour le site The Guardian, « si nous pouvons atteindre Mars, tous les défis pour la nation devraient être faisables ». Le nom de la mission n’est pas anodin non plus. Hope signifie espoir en anglais. Or, selon l’émir Mohammed : « sans espoir, il n’y a pas d’avenir, pas de succès, pas de vie ». 

Pour finir – faut-il y voir un signe ? – l’arrivée de la sonde, attendue pour 2021, interviendrait un demi-siècle après l’indépendance du pays. La création de l’état fédéral des Émirats arabes unis remonte en effet à 1971, et la rédaction de la première constitution un an plus tard.

5,44 milliards de dollars auraient dores et déjà été investi d’après les dires de cheikh Mohammed Bin Rachid Al-Maktoum, actuel souverain de Dubaï et également vice-président des EAU. Mais la question n’est pas de savoir si ces fonds seront suffisants, mais de savoir si le temps dont se sont impartis les EAU est suffisamment réaliste pour faire aboutir ce projet. Car en cinq ans, devront être construites de nombreuses infrastructures comme la piste de lancement et des stations de suivis. À ce sujet, des pourparlers seraient en cours avec la Russie pour acheter la plateforme de tir flottante Sea Launch. Enfin, la sonde elle-même, de la taille d’une voiture et comprenant un équipement technologique dernier cri (spectromètres à infrarouge et ultraviolet), est à bâtir entièrement. 

Si la sonde parvient comme convenu à se mettre en orbite autour de Mars, cela ferait des Émirats arabes unis le premier pays arabe à envoyer un tel engin dans l’espace. 2020 serait donc une nouvelle date à inscrire dans les livres d’histoire.

Par Sébastien Tribot

Et aussi dans les
ressources documentaires :

USA : le petit robot autostoppeur retrouvé démembré

Bras et jambes faits de frites bleue de piscine sortant d’un corps cylindrique, gants jaunes avec un pouce levé en permanence: fait de bric et de broc, hitchBOT a été conçu au Canada par des chercheurs universitaires pour découvrir si les robots pouvaient faire confiance aux humains. Il a rapidement eu sa réponse une fois arrivé aux Etats-Unis.

« Oh, mon corps a été endommagé », a confié le robot sur son site. « J’imagine que, parfois, de mauvaises choses arrivent aux gentils robots! Mon voyage doit prendre fin pour le moment mais mon amour pour les humains ne s’éteindra jamais », a-t-il poursuivi, pas rancunier.

Après avoir parcouru plus de 6.000 kilomètres au Canada sans encombres il y a un an et visité une partie de l’Allemagne et des Pays-Bas, hitchBOT n’a pu parcourir que 480 kilomètres aux Etats-Unis, en deux semaines environ, avant d’être démembré par des inconnus.

Couché sur le flanc dans des feuilles mortes et de vieux mouchoirs en papier, ses deux bras arrachés jetés derrière lui mais ses célèbres bottes jaune en plastique toujours aux pieds, il a été retrouvé dans une rue de Philadelphie, en Pennsylvanie, selon une photo circulant sur internet.

Aucune plainte n’a été déposée, a précisé la police, indiquant qu’elle n’ouvrirait pas d’enquête.

A Philadelphie, où 33 meurtres ont été enregistrés rien que le mois dernier, un collectif technologique, The Hacktory, envisage de réparer le robot.

« Si nous avons l’aval des créateurs pour réparer ou remplacer des pièces de hitchBOT, nous serions heureux de le faire (…) nous pourrions aussi construire un hitchBOT2 qui partirait dans son propre voyage », ont-ils écrit sur leur blog.

Peu avant sa « mort », samedi, hitchBOT confiait rêver de sa prochaine destination, la Californie, qu’il ne verra finalement pas avant un moment. Deux jeunes automobilistes avaient peu après posté sur Twitter un « selfie » montrant le robot assis sur leur siège arrière, ses yeux lumineux rouge allumés.

Après avoir appris son triste sort, l’un d’eux s’est indigné sur Twitter: « Merci Philly (Philadelphie, ndlr). Purée, vous avez tué @hitchBOT Je suis trop en colère là », avant d’assurer qu’il avait obtenu et était en train d’étudier la vidéo de surveillance des lieux où « il a été tué ».

Les inventeurs de hitchBOT, des chercheurs de l’université Ryerson de Toronto, ont eux adopté un ton plus apaisé pour tenter de consoler ses admirateurs.

« Nous savons que de nombreux fans de hitchBOT vont être déçus mais nous voulons leur assurer que cette superbe expérience n’est pas terminée », ont-ils écrit sur leur site www.hitchbot.me.

Les chercheurs disent n’avoir « aucune intention » de porter plainte « ou de retrouver les gens qui ont vandalisé hitchBOT », dont l’assemblage, fait de pièces trouvées dans des quincailleries et autres magasins non-spécialisés, avait coûté environ 1.000 dollars.

« Nous nous concentrerons désormais sur la question +que peut-on apprendre de tout ça?+ et explorerons la possibilité de futures aventures pour les robots et les humains », ont-ils ajouté. Les chercheurs l’avaient à l’origine conçu pour tenter de répondre à une interrogation: « est-ce que les robots peuvent faire confiance aux humains? ».

Apparemment rassurés par l’apparence sympathique et les bonnes manières du petit robot, les automobilistes eux lui faisaient confiance et avaient jusque-là pris sans rechigner hitchBOT en stop, immortalisant ce moment spécial par de nombreuses photos partagées sur les réseaux sociaux. Son compte Twitter @hitchBOT compte plus de 51.000 abonnés.

Une fois à bord de la voiture, hitchBot prévenait qu’il pouvait avoir un moment passager de fatigue et que le conducteur pourrait facilement le requinquer en le branchant sur la prise de l’allume-cigare. Il en avait besoin pour illuminer son sourire fait de petites diodes rouges et surtout participer aux conversations de ses hôtes, qui l’assaillaient de questions.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Capturer du CO2 est inefficace contre l’acidification des océans (étude)

Retirer chaque année de l’atmosphère, et jusqu’en 2700, l’équivalent de la moitié des émissions actuelles – un niveau très ambitieux – ne permettrait pas de retrouver les conditions d’acidité des océans de l’ère pré-industrielle, indiquent les auteurs des travaux parus dans Nature climate change.

En fait, même si la concentration de CO2 dans l’atmosphère retombait à un niveau similaire à celui d’avant la Révolution industrielle, l’acidification des océans ne pourrait pas suivre le même chemin avant des centaines d’années.

« Les altérations les plus rapides se font à la surface, où les océans sont directement exposés à des concentrations plus élevées de CO2 et à des températures en hausse », explique Sabine Mathesius, l’un des auteurs de l’étude.

Les émissions de CO2 dues aux activités humaines sont capturées à hauteur de 25% par les océans. Cet échange air-atmosphère limite l’effet de serre, mais contribue à une baisse du pH des océans, ce qui a des effets très négatifs sur la biologie marine.

Sous l’effet des courants marins, les masses d’eau acidifiées sont transportées dans les grandes profondeurs pendant des décennies, et même des siècles.

« Une fois dans les grandes profondeurs, l’eau acidifiée n’est plus en contact avec l’atmosphère (…) et va rester acidifiée pendant des siècles », ajoute la chercheuse.

– un ‘changement irréversible’ pendant des siècles –

Par conséquent, « retarder la réduction des émissions de gaz à effet de serre, avec l’intention de capturer plus tard le CO2 de l’atmosphère, ne marcherait pas », estime la scientifique, car les océans subiraient « un changement irréversible » pendant des siècles.

Dans une autre étude, publiée lundi dans Nature communications, des scientifiques démontrent que la capture et le stockage du CO2, une technique qui doit encore faire ses preuves à grande échelle, sera nécessaire mais très insuffisante pour parvenir à limiter le réchauffement à 2°C.

« Par le seul biais d’émissions négatives, il est peu probable que l’objectif de 2°C soit respecté », avancent les scientifiques.

Ces conclusions sont un pied-de-nez aux défenseurs des énergies fossiles qui estiment que la capture et le stockage du carbone à très grande échelle permettra dans le futur de stabiliser, et même baisser, la concentration de CO2 dans l’atmosphère.

Les auteurs de l’étude estiment toutefois que la capture et le stockage du carbone devront être développés, parallèlement à des efforts drastiques de réduction des émissions.

Pour limiter la hausse du thermomètre mondial à 2°C, l’objectif que s’est fixé la communauté internationale, il faudrait selon eux capturer des quantités de CO2 plus importantes que celles émises, pour avoir des émissions négatives de l’ordre de 0,5 à 3 gigatonnes par an.

Cette performance devrait être associée à des capacités de stockage comprises entre 50 et 250 gigatonnes, estiment les auteurs de l’étude.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Les objectifs de l’ONU pour 2030 coûteront au moins 3.500 milliards de dollars par an

Les 193 pays membres des Nations unies ont adopté dimanche un très ambitieux programme pour remplir ces objectifs d’ici 2030.

« Les chiffres généralement évoqués vont de 3.500 à 5.000 milliards de dollars par an, année après année », a indiqué à la presse l’ambassadeur kenyan à l’ONU Macharia Kamau, dont le pays a co-présidé les négociations avec l’Irlande.

« Cela semble un chiffre astronomique », a-t-il reconnu, estimant qu’il s’agissait d’un programme « certes ambitieux mais pas impossible à réaliser ».

A titre de comparaison, les PIB des Etats-Unis et de la France représentent respectivement quelque 17.000 milliards de dollars et 3.000 milliards de dollars.

Il a souligné l’importance qu’aura la contribution du secteur privé — « un réservoir de milliers de milliards de dollars » — pour compléter l’aide publique au développement.

Son collègue irlandais David Donoghue compte sur « le sens de la responsabilité collective » des 193 pays et « l’influence de leurs pairs » pour inciter les Etats à tenir leurs « engagements politiques », même si ceux-ci ne sont pas juridiquement contraignants.

Le programme, intitulé « Transformer notre monde, programme de développement durable d’ici 2030 » doit être adopté formellement par les dirigeants mondiaux les 26 et 27 septembre à New York, en marge de la session annuelle de l’Assemblée générale de l’ONU.

Il comprend 17 Objectifs de développement durable déclinés en 169 « cibles », dont le premier est « d’éliminer la pauvreté sous toutes ses formes et partout dans le monde ». D’autres concernent la santé, « l’accès de tous à une éducation de qualité », la réduction des inégalités, l’égalité des sexes ou la bonne gouvernance.

Les pays ont aussi promis de « prendre d’urgence des mesures pour lutter » contre le changement climatique, notamment en concluant un « accord ambitieux » lors de la conférence climatique prévue fin novembre à Paris.

Selon le secrétaire général adjoint aux affaires économiques de l’ONU Wu Hongbo, 300 indicateurs — deux par « cible » environ — devront être définis par les experts de l’ONU pour évaluer les progrès accomplis.

Pour le secrétaire général de l’ONU Ban Ki-moon, ces objectifs « représentent une +liste des choses à faire+ pour la planète et ses habitants ».

S’adressant à la presse, il a qualifié le programme « d’audacieux, ambitieux et réformateur » et s’est félicité de la coïncidence avec le 70e anniversaire des Nations unies, célébré cette année.

« La mise en oeuvre et le suivi », a-t-il cependant averti, « seront essentiels » pour juger du succès de cette initiative.

Celle-ci avait été lancée dès 2012 et précédée par des Objectifs du Millénaire pour le développement valables jusqu’à fin 2015.

Les négociateurs ont bataillé toute la semaine dernière pour résoudre les dernières divergences. Celle-ci portaient sur le changement climatique, l’évaluation des résultats pays par pays, la bonne gouvernance et les droits des femmes (notamment les droits sexuels et reproductifs). Sur ce dernier point, l’Iran et le Nigeria devraient émettre des réserves lors du passage du document devant l’Assemblée générale, ce qui ne bloquera cependant pas son adoption.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Prévoir les hivers européens en décryptant 1 000 ans d’histoire climatique

De nombreux travaux sont en cours pour prévoir l’Oscillation Nord Atlantique (NAO), d’une saison à l’autre. Ces variations de circulation de l’air autour de l’Océan Atlantique Nord impactent le climat de l’hémisphère nord, et plus particulièrement de l’Europe, en hiver. Prévoir la NAO permettrait donc d’anticiper les conditions climatiques hivernales de l’Europe (précipitations, températures…). Mais pour évaluer la possibilité d’une prévision de la NAO sur une dizaine d’années, il est essentiel d’étudier sa variabilité passée à plus long terme (millénaire).

Bien renseignées depuis le début du XIXème siècle, les variations de la NAO ne peuvent qu’être estimées à partir de mesures indirectes sur la période du dernier millénaire. Une première étude suggérait que, pendant la période médiévale, la NAO était « bloquée » en phase positive : c’est-à-dire que la différence de pression atmosphérique entre les Açores et l’Islande était toujours plus forte que la moyenne (cf. figure). Quand la NAO est en phase positive, les tempêtes hivernales sont dirigées vers le centre et le nord de l’Europe, où les hivers sont alors doux et humides, tandis que les hivers du sud de l’Europe et du Groenland sont plus froids et secs.

Cette anomalie de la circulation atmosphérique était jusque-là proposée comme une explication des conditions climatiques douces de l’Europe centrale et de l’Europe du nord pendant la période médiévale.

Quand la différence de pression entre l’anticyclone des Açores (A) et la dépression d’Islande (D) est plus faible que d’habitude (NAO -), la trajectoire des tempêtes se déplace vers le Sud de l’Europe. © Pablo Ortega

Quand la différence de pression entre l’anticyclone des Açores (A) et la dépression d’Islande (D) est plus forte que d’habitude (NAO +), la trajectoire des tempêtes se déplace vers le Nord de l’Europe. © Pablo Ortega

 

Une nouvelle méthode d’estimation, consolidée par les simulations

Dans la présente étude, les chercheurs ont construit une nouvelle estimation des variations de la NAO au cours du dernier millénaire, avec une résolution plus fine (année par année). Pour cela, ils ont pris en compte 48 enregistrements climatiques, issus d’archives naturelles autour de l’Océan Atlantique.

Ils ont également dû utiliser une nouvelle approche statistique, qui permet d’évaluer la fiabilité de leur estimation : en appliquant cette méthode à six simulations du climat du dernier millénaire, ils ont montré que la combinaison de différents enregistrements climatiques provenant de différentes régions (et en particulier l’utilisation des carottes de glace du Groenland) permet d’estimer de manière plus fiable la NAO.
La nouvelle estimation ne montre pas de NAO positive de manière persistante pendant la période médiévale, comme imaginé jusque-là, mais des phases positives prédominantes aux XIIIème et XIVème siècles. Elle remet donc en cause l’hypothèse selon laquelle ce seul phénomène serait à l’origine des anomalies climatiques de la période médiévale.

Cette anomalie de la circulation atmosphérique était jusque-là proposée comme une explication des conditions climatiques douces de l’Europe centrale et de l’Europe du nord pendant la période médiévale.  

L’impact des éruptions volcaniques

Surtout, les climatologues identifient une réponse quasi-systématique de la NAO après les éruptions volcaniques majeures : deux ans après chacune des onze éruptions les mieux connues du dernier millénaire, la NAO devient presque systématiquement positive. C’est un phénomène qui avait été observé après l’éruption du volcan Pinatubo, en 1991, et qui est donc confirmé sur un ensemble d’évènements. Bien que ce mécanisme ne soit pas encore complètement compris, cela constitue une piste pour prévoir les conséquences d’une éruption volcanique majeure sur le climat européen en hiver.

Cette étude a été financée par l’Agence nationale de la recherche (projet « Groenland » du programme CEPS, Changements environnementaux planétaires et sociétés).

  • Références : ​ »A model-tested North Atlantic Oscillation reconstruction for the past millennium », Pablo Ortega et. al., Nature, Juillet 2015, DOI: 10.1038/nature14518.

Et aussi dans les
ressources documentaires :

Qui veut la peau de la carte SIM ?

Gemalto fulmine. Le premier producteur de carte SIM et détenteur du système d’exploitation associé a vu son cours en bourse chuter suite à l’annonce des deux géants des télécoms.

La volonté d’Apple et de Samsung de ne plus utiliser de carte SIM « physique» est une terrible nouvelle pour de nombreux acteurs du secteur. Quel est l’objectif derrière cette démarche ? Ne plus dépendre des opérateurs, ni plus ni moins. En créant une carte SIM virtuelle universelle, l’américain et le coréen priveront les opérateurs des données clients qui transitent actuellement obligatoirement par eux grâce à la carte SIM dans son format actuel, et surtout ils mettront fin au lien opérateur/client puisque le propriétaire d’un appareil doté d’une eSIM pourra le choisir et en changer  à partir de son appareil.

D’après le Financial Times, cela fait plusieurs mois que l’eSIM se prépare. Celle-ci pourrait être soudée directement à la carte-mère du téléphone par exemple. Apple a commencé à tester le principe sur ses iPad Air 2 aux Etats-Unis et en Angleterre, mais en conservant le format amovible de sa eSIM. Les utilisateurs peuvent choisir le meilleur forfait disponible et changer d’opérateur en fonction du contexte, lors d’un voyage à l’étranger ou de nouveaux besoins. A première vue, cette eSIM est donc un avantage pour les clients puisqu’elle offre la flexibilité dans le choix des  opérateurs/forfaits. En revanche, à la moindre panne de la carte SIM, c’est le téléphone dans son entier qu’il faut changer et plus simplement la carte. Au-delà de cet aspect financier, les fabricants ambitionnent aussi être en meilleure position pour négocier avec les opérateurs la vente des appareils mobiles. 

Autant d’indices qui laissent à penser que la réflexion est assez avancée du côté des fabricants, bien qu’en apparence les négociations avec certains opérateurs soient toujours en cours. Il se murmure même qu’en cas d’accord, les eSIM pourraient être mises sur le marché dès 2016.

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

Le casque à réalité augmentée HoloLens se destine aux entreprises

Voilà, l’information est lâchée : les lunettes à réalité augmentée auront dans un premier temps vocation à offrir de nouvelles applications aux professionnels. Bien que cela puisse en décevoir quelques-uns (on pense évidemment aux gamers), Satya Nadella a jugé qu’un usage professionnel était une manne bien plus intéressante et prometteuse.

Dans cette perspective, Microsoft compte octroyer cinq bourses de 100 000 dollars à des projets universitaires avec, bien sûr, l’idée sous-jacente d’inciter les développeurs à créer de nouvelles applications et l’envie déclarée « de mieux comprendre le rôle et les applications possibles de l’informatique holographique dans la société » et d’encourager la recherche dans un but plus vaste encore. Ces équipes recevront deux kits de développement HoloLens. Seuls les chercheurs américains officiants au sein d’instituts à but non lucratif peuvent prétendre à une candidature, qui se terminera le 5 septembre.

A aussi été conclu un accord avec la NASA pour envoyer des casques aux astronautes à bord de l’ISS dans le but de les épauler dans les tâches complexes. Ils pourront, grâce à elles, effectuer par exemple des réparations en profitant des conseils venant de l’équipe à Terre. Les HoloLens pourraient servir également les équipes de la NASA à explorer virtuellement la planète rouge.

Un viseur jugé trop petit

Présenté en janvier 2015, HoloLens, semblait ouvrir une nouvelle ère dans la communication, le travail collaboratif, l’enseignement, et la visualisation de  données, au moyen des interactions avec les objets virtuels à l’intérieur d’un environnement réel. On pense notamment aux outils holographiques destinés aux étudiants en médecine et à l’imagerie médicale en général.

Toutefois, la vidéo de présentation dévoilée dernièrement par Microsoft, censée démontrer les possibilités du casque, semble avoir quelque peu déçu à cause d’un champ de vision pour les hologrammes jugé trop étriqué. Ils ne seraient visibles que dans un petit espace rectangulaire. Une limite pouvant frustrer l’utilisateur, obligé dans certains cas à bouger la tête pour parcourir un objet de grandes dimensions. Apparemment, il ne serait pas prévu dans le futur d’élargir de manière significative cette surface d’affichage. Peut-être est-ce d’ailleurs une des raisons qui a fait que le jeu n’est pas la priorité de la firme de Redmond.

Le casque, considéré comme étant à mi-chemin entre feu les Google Glass et l’Oculus Rift n’a pas encore de date de commercialisation ni de prix, mais selon le New York Times, il devrait être assez élevé, en tout cas bien plus qu’une Xbox One vendue à 399 dollars.

Par Sébastien Tribot

Et aussi dans les
ressources documentaires :

Le secteur européen de l’énergie cherche à surmonter la crise

En 2014, le chiffre d’affaires global des 25 premiers énergéticiens européens – dont l’activité principale est l’électricité ou le gaz, à l’exclusion des pétroliers – a baissé de 5,6 % pour atteindre 636 milliards d’euros. Il avait déjà baissé de 2,6 % en 2013. 19 des 25 opérateurs ont ainsi enregistré une baisse de leur chiffre d’affaires. Les énergéticiens européens sont néanmoins parvenus à limiter la casse en faisant de nombreuses économies. Ils subissent ainsi « qu’une » baisse de 4 % de leur marge brute d’exploitation, passant de 20,5 % à 16,8 % entre 2010 et aujourd’hui. La bande des quatre « E » (EON, Engie, Enel et EDF) domine le secteur européen de l’électricité et du gaz naturel, avec un chiffre d’affaires de plus de 330 milliards d’euros. Plus largement, douze opérateurs ont enregistré un chiffre d’affaires supérieur à 15 milliards d’euros en 2014.

Le secteur électrique et gazier connait de plein fouet la crise depuis 2010. La demande diminue : la consommation d’électricité a reculé de 2 % en Europe en 2014 et celle de gaz naturel a chuté d’environ 10 % à cause d’un hiver doux et de la morosité de la conjoncture économique. Les prix de gros de l’électricité s’effondrent sur tous les marchés spot européens (-13 % en Allemagne, -20 % en France, -17 % en Italie…), notamment en raison des surcapacités de production. Le prix de gros du gaz naturel connait une baisse similaire, en moyenne de l’ordre de 15 %, à cause d’une moindre utilisation des centrales thermiques au gaz au profit du charbon. 

Des actions drastiques pour surmonter la crise

Les 25 premiers énergéticiens européens ont plutôt bien incorporé la crise à leurs décisions. Pour limiter la baisse de leur marge brute d’exploitation, ils ont lancé des programmes de réduction des coûts pour se désendetter et rencentrer leur coeur de métier. Ils cessent des actifs, ferment de centrales, diminuent les investissements.  

Au total, ce sont près de 60 milliards d’euros de dépréciations d‘actifs qui ont été passées par les énergéticiens européens au cours des trois dernières années. Ces dépréciations confirment la perte de valeur, entre autres, de nombreux cycles combinés au gaz. « Les fermetures et mises sous cocon d’unités de production d’origine thermique se poursuivent. RWE et Engie ont ainsi mis sous cocon annuel ou saisonnier 2 375 MW et 1 341 MW de centrales gaz respectivement en 2014 », rappellent les auteurs .

Pour contrer ces pertes, au cours des cinq dernières années, les 25 opérateurs analysés ont cédé pour 90 milliards d’euros d’actifs. Dans ce domaine, l’opération de l’opérateur allemand EON. est radicale. En 2016, il se séparera de ses actifs de production d’électricité d’origine nucléaire, charbon et gaz, de ses activités de négoce et d’exploration pour se recentrer exclusivement sur les activités liées à la transition énergétique : énergies renouvelables, réseaux, commercialisation…. 

Grâce à ces revues d’actifs et à de vastes plans de cession, ces opérateurs sont parvenus à réduire avec succès leur endettement. Fin 2014, ils étaient endettés à hauteur de 271 milliards d’euros dont 137 milliards d’euros cumulés pour les cinq leaders du secteur EON, Engie, Enel, EDF et RWE. La stratégie de désendettement des opérateurs a porté ses fruits : en deux ans, l’endettement total a reculé de plus de 50 milliards d’euros.

Mais pour faire face à la crise, les énergéticiens européens diminuent aussi leurs investissements industriels. Ceux-ci sont passés de 73 milliards d’euros en 2010 à moins de 60 milliards d’euros en 2014 (-18 %). Cette baisse dans les investissements devrait continuer sur le court-terme. « Cette contraction des investissements tombe au plus mal à l’heure où la Commission européenne a chiffré à 2 000 milliards d’euros les investissements à engager au cours de la prochaine décennie », pour développer les smartgrids les interconnexions, accompagner la transition énergétique (développer la sûreté nucléaire et les énergies renouvelables, regrettent les experts. « L’Europe s’est engagée dans un processus de transformation lourde de son indus- trie énergétique avec des ambitions élevées, mais ses principaux acteurs n’en ont pas nécessairement les moyens », préviennent-ils. 

Où trouver l’investissement ?

Les smartgrids et l’efficacité énergétique active attirent les géants du numérique intéressés par les objets connectés, notamment Google et Apple. Ils seraient à même d’apporter une part de l’investissement nécessaire, estiment les auteurs. Le développement du marché passera ainsi certainement par des collaborations accrues entre les énergéticiens leaders et ces leaders du numérique. D’autant plus que les dépenses en recherche et développement de ces groupes est sans commune mesure avec nos chers énergéticiens. En 2014, Google a ainsi dépensé 4,6 milliards d’euros en R&D et Apple 4,4 milliards d’euros, lorsque le top 10 des énergéticiens n’y consacrait au total que 1,3 milliard d’euros. Ils disposent en plus de moyens financiers colossaux. Apple a enregistré deux fois plus de bénéfice net (26,4 milliards d’euros) au cours du premier semestre 2015 que les 25 énergéticiens européens en 2014. Si ces investissements ne sont pas directement consacrés à l’énergie, les nouveautés qui en découlent peuvent, pour certaines, s’appliquer au domaine de l’énergie, analysent les auteurs. 

Il n’y a pas que Google et Apple qui pourraient redessiner le marché et les énergéticiens commencent déjà à faire appel à de nouveaux investisseurs, extérieurs au monde de l’énergie. « La menace de remise en cause de la chaîne de valeur de l’énergie avec l’interposition de nouveaux acteurs entre les fournisseurs d’énergie et les consommateurs est réelle, jugent les auteurs. D’autant que de nombreux autres acteurs sont attirés : Bouygues Telecom, Schneider Electric, Somfy… pour ne citer que quelques entreprises françaises ».

Par Matthieu Combe, journaliste scientifique

Et aussi dans les
ressources documentaires :

Une céramique stocke et destocke de la chaleur à foison

Aucun matériau connu jusqu’à présent ne peut stocker de l’énergie thermique pendant longtemps, car celle-ci se disspipe naturellement et lentement au fil du temps.  Mais un nouveau matériau découvert par le groupe de recherche du professeur Ohkoshi à l’Université de Tokyo bat en brêche ce principe : il peut stocker l’énergie thermique pendant une longue période et le relâcher au moment exact souhaité.

L’énergie thermique accumulée peut provenir de toute source directe de chaleur, mais aussi en faisant passer un courant électrique à travers le matériau ou en l’exposant à la lumière. Quelle que soit la source utilisée, le matériau rendra l’énergie sous forme de chaleur. 

Comment stocker/destocker de la chaleur ?

Ce matériau, du pentoxyde de trititane (Ti3O5) peut absorber et libérer une grande quantité d’énergie thermique (230 kJ.L-1). L’énergie thermique stockée est grande, représentant environ 70% de la chaleur latente de fusion de l’eau – c’est-à-dire la chaleur échangée avec le milieu extérieur lors du passage de la glace à l’état gazeux – et environ 10 % de la chaleur latente de vaporisation de l’eau.

Selon les chercheurs, cette propriété est due à sa structure cristalline, composée uniquement d’atomes d’oxygène et de titane. Lorsque le matériau est exposé à de la chaleur, il utilise l’énergie reçue pour faire une « transition de phase solide-solide » durant laquelle il change de structure cristalline (passage du beta-pentoxyde de tritane au lambda-pentoxyde de tritane). Sa particularité est de rester stable dans cette nouvelle structure, même quand on cesse de le chauffer, et ce dans une large plage de températures, piégeant ainsi la chaleur reçue. Pour destocker la chaleur, il suffit d’appliquer sur lui une pression de 600 bars à température ambiante. Cela peut être obtenu facilement avec une petite presse mécanique. En libérant la chaleur accumulée, le matériau retrouve alors sa structure cristalline de base. Voici une nouvelle façon de fabriquer de la chaleur à la demande ! Biensûr, la chaleur dégagée dépasse de loin l’énergie mécanique (pression) appliquée.

De nombreuses applications « green »

Selon les auteurs, le pentoxyde de trititane est un simple oxyde de titane composé d’éléments abondants et est respectueux de l’environnement. Les chercheurs pensent que ce matériau a de nombreuses applications potentielles pour réduire le gaspillage énergétique, notamment en récupérant la chaleur de process où elle est habituellement libérée dans l’atmosphère, sans aucune forme de valorisation. Ce nouveau matériau pourrait ainsi être utilisé pour valoriser les « déchets » de chaleur industrielle, la chaleur libérée par les engins mécaniques (moteurs) et électroniques (composants) ou stocker la chaleur issue des systèmes de production d’énergie thermique solaire. Ce matériau présente également des perpectives d »utilisation pour des dispositifs électroniques de pointe tels que des feuilles sensibles à la pression, les coussins chauffants réutilisables, les sondes de conductivité sensibles à la pression, la RAM résistante (ReRAM) et la mémoire optique.

  • Aller plus loin

Référence de l’étude : H. Tokoro, M. Yoshikiyo, K. Imoto, A. Namai, T. Nasu, K. Nakagawa, N. Ozaki, F. Hakoe, K. Tanaka, K. Chiba, R. Makiura, K. Prassides, and S. Ohkoshi, « External stimulation-controllable heat-storage ceramics », Nature Communications 6, Article number:7037

Par Matthieu Combe, journaliste scientifique

Et aussi dans les
ressources documentaires :

Shell commence à forer au large de l’Alaska

Shell avait mis en suspens ses explorations en Alaska en 2013, suite à une série d’incidents et de défaillances techniques. Mais le groupe annonce avoir commencé ses opérations de forage sur un puits d’exploration ce jeudi autour de 17 heures en Alaska (vendredi à 3h, heure française). Cela intervient alors que le brise-glace finlandais de 116 mètres de long, le Fennica, quittait le port de Portland, après avoir été bloqué pendant 40 heures par des écologistes de Greenpeace. 

Ce même jour, Shell a annoncé une réduction de ses effectifs de 6 500 employés et une baisse de ses investissements à hauteur de 7 milliards de dollars. Le PDG Ben van Beurden a néanmois fait savoir aux investisseurs que la société restait fidèle à ses plans dans les eaux au large des côtes de l’Arctique de l’Alaska, les qualifiant de « plan à long terme ».

Un premier forage commence au large de l’Alaska

Sur place, les deux plateformes de la flotte pétrolière de Shell (le Kulluk et le Transocean Polar Pioneer), partis de Seattle il y a quelques semaines, ont déjà commencé le forage de son premier puits. Selon les autorisations accordées au pétrolier, le forage de la zone supérieure du puits Burger J, celle ne contenant pas d’hydrocarbures, peut commencer en l’absence du Fennica. Il faudra attendre le navire pour aller plus loin, car il transporte du matériel de secours en cas de marée de noire. Une telle catastrophe est malheureusement à craindre. « D’après une étude d’évaluation d’impact menée par le gouvernement américain lui-même, les probabilités pour qu’au moins une marée noire importante se produise en Arctique sont de 75% », s’inquiète Greenpeace.

A son arrivée, dans quelques jours, le Fennica commencera à forer la partie supérieure du puits Burger J, l’un des 6 puits identifiés dans le plan d’exploration de Shell. Shell annonce qu’un deuxième puits, le Burger V, pourrait être foré d’ici la fin de l’année. 

Greenpeace retarde le Fennica

L’action a été fortement médiatisée : Greenpeace avait orchestré un barrage humain, grâce à 13 activistes suspendus dans de petits hamacs au pont Saint-John à Portland. Des dizaines d’autres étaient rassemblées dans des kayaks empêchant ainsi le bateau de quitter le port. Les activistes ont finalement été délogés par la police ce jeudi. La justice fédérale avait imposé à l’organisation une amende de 2500 dollars pour chaque heure passée à bloquer le bateau du pétrolier Shell.

L’action de Greenpeace n’aura donc réussi qu’à retarder le Fennica. Ce bateau avait fait escale quelques jours à Portland pour effectuer des réparations sur sa coque, après avoir  heurté un objet inconnu près des Îles Aléoutiennes, au sud-ouest de l’Alaska, plus tôt ce mois-ci. Ce bateau contient une pièce de forage essentielle pour forer sur toute la profondeur du puits.

Un travail en milieu hostile

Les ONG redoutent que ces forages mettent en danger l’écosystème du cercle Arctique, dans le pôle Nord. « Températures glaciales, conditions climatiques extrêmes et éloignement géographique constituent de sérieux obstacles aux opérations de forage et de dépollution dans les eaux glacées de l’Arctique », assure Greenpeace. « Or le navire de forage de Shell, le Kulluk, s’était échoué sur les côtes de l’Alaska lors de la dernière campagne de Shell dans la région. Et si le Fennica a pris du retard sur la route de la mer des Tchouktches, c’est parce qu’il a dû retourner à Portland pour subir d’importantes réparations et colmater une entaille d’un mètre de long dans sa coque», s’inquiète l’association.

Mi-juin, des militants en kayak avaient déjà tenté de bloquer une plateforme pétrolière de Shell à Seattle pour l’empêcher de mener des explorations pétrolières dans l’Arctique. Ces manifestations font suite à l’autorisation donnée à Shell par le président Barack Obama le 11 mai pour forer dans l’Arctique. Greenpeace appelle les internautes à signer une pétition en ligne demandant à Barack Obama de retirer son autorisation de forage, affirmant qu’« il n’est pas trop tard ».

Par Matthieu Combe, journaliste scientifique

Et aussi dans les
ressources documentaires :

Le biosourcé se développe fortement aux Etats-Unis

Les 7 principaux secteurs de produits biosourcés participant à l’économie américaine sont l’agriculture et la sylviculture, le bioraffinage, les produits chimiques biosourcés, les enzymes, les bouteilles et emballages en bioplastiques, les produits de la forêt et les textiles. Le rapport se cantonne aux produits biosourcés et n’inclut pas les biocarburants ou d’autres sources énergétiques, l’élevage, l’alimentation ou encore les produits pharmaceutiques.

Les 369 milliards de dollars générés dans l’économie par l’industrie des produits biosourcés se décomposent en ventes directes, indirectes et induites. Les 126 milliards de dollars de ventes directes réalisées par l’industrie des produits biosourcés génèrent 126 milliards de dollars en ventes indirectes et 117 milliards de dollars en ventes induites. 

Le programme BioPreferred référence 20 000 produits pour une préférence des produits biosourcés dans les achats publics américains. « Le gouvernement fédéral dépensant environ 445 milliards de dollars chaque année en biens et services, cela constitue une opportunité incroyable d’augmenter la vente et l’utilisation de produits biosourcés », rappellent les auteurs de l’étude. Ces chiffres sont donc largement orientés à la hausse. 

L’industrie des produits biosourcés crée directement 1,5 millions d’emplois. Les auteurs estiment que chaque emploi dans l’industrie des bioproduits génère 1,64 emplois dans d’autres secteurs de l’économie. Ces 2,5 millions d’emplois induits se répartissent en 1,1 millions d’emplois dans les industries connexes et 1,4 millions d’emplois dans l’achat de biens et de services. 

Les Etats présentant la plus grande concentration d’activités industrielles en lien avec les produits biosourcés sont le Mississippi, l’Oregon, le Maine, le Wisconsin, l’Idaho, l’Alabama, la Caroline du Nord, l’Arkansas et le Dakota du Sud. 

Réduire l’impact environnemental ?

Peu d’analyses de cycle de vie ont été menées sur les produits biosourcés, notent les auteurs. Leurs principaux bienfaits environnementaux sont la réduction d’utilisation de pétrole et la réduction des émissions de gaz à effet de serre associées et la séquestration du carbone. Mais des analyses supplémentaires devront être menées concernant l’impact de cette industrie sur l’eau et l’usage des sols. 

« Il existe deux principaux mécanismes par lesquels l’utilisation de produits biosourcés réduit la consommation de pétrole. Tout d’abord, il y a un remplacement direct de matières premières chimiques traditionnellement issues de raffineries de pétrole brut par des matières premières chimiques désormais obtenues par bioraffineries […] Le second type de substitution du pétrole se fait grâce à l’utilisation accrue de matériaux biosourcés naturels comme substituts de matériaux synthétiques (à base de pétrole) qui ont été largement utilisés pendant de nombreuses années ». Les auteurs de l’étude estiment que ces deux mécanismes contribuent de façon égale à hauteur de 150 millions de gallons de pétrole d’économies chaque année, pour un total de 300 millions de gallons (environ 1,1 millions de m3). « Ceci équivaut à retirer 200 000 voitures de la route », ont-ils calculé.  

Par Matthieu Combe, journaliste scientifique

Et aussi dans les
ressources documentaires :

L’avenir d’AREVA au cœur des discussions parlementaires

Garantir la pérennité d’AREVA, telle est la feuille de route donnée par le Président de la république. Un véritable challenge tant la situation est alarmante. Comme nous l’écrivions en juin, AREVA c’est 4.8 milliards de pertes et des milliers de suppressions d’emplois annoncées. La situation est tout simplement dramatique. Les causes sont connues, AREVA n’a pas sombré en un jour. Entre les retards accumulés sur le chantier de l’EPR finlandais (9 ans de retard tout de même !) et l’acquisition désastreuse et suspecte d’UraMin, ces mines africaines inexploitables pour 2 milliards d’euros, AREVA est plongée dans la tourmente : 99 millions d’euros de pertes nettes en 2012 et 494 millions en 2013. Jusqu’à ce chiffre astronomique de 4.8 milliards en 2014. 

EDF à la rescousse… mais pas trop !

Mais l’heure n’est plus aux critiques du passé, les dérives sont telles que l’urgence est à l’action. L’Etat, actionnaire majoritaire à hauteur de 87% ne peut plus faire l’autruche. Parmi les solutions envisagées, le rachat par EDF des réacteurs nucléaires, l’Etat ne cachant pas sa volonté de donner les rennes à EDF de la filiale Areva NP. Mais cette prise de pouvoir par EDF vient d’être remise en cause par le rapport d’information  sur les perspectives de développement d’AREVA et l’avenir de la filière nucléaire déposé à l’assemblée nationale le 8 juillet. Ses co-auteurs, les députés Marc Goua et Hervé Mariton, se disent « […] pleinement favorables au renforcement des synergies entre les deux groupes industriels dans les activités de conception, gestion de projets et commercialisation des réacteurs neufs d’EDF et d’AREVA. » mais « [… ] s’interrogent sur les conséquences d’une prise de participation majoritaire d’EDF au sein d’AREVA NP ». D’après eux, cela pourrait avoir des conséquences désastreuses sur le plan commercial : « Il est en effet possible que les exploitants et ensembliers concurrents d’EDF hésitent à renforcer le carnet de commande du nouvel AREVA NP, qui deviendrait théoriquement concurrent de ses propres clients ».

Vers une pérennisation des activités

Le secteur du nucléaire souffre. Entre la catastrophe de Fukushima qui a donné un coup d’arrêt à la filière à l’échelle mondiale et  la diversification des ressources d’énergie engagée par les Etats, le marché s’est effondré. Avant toute chose, les rapporteurs proposent qu’AREVA se désengage de ses activités liées aux énergies renouvelables car non rentables pour se recentrer sur le cœur de métier du géant de l’atome, à savoir les réacteurs nucléaires. Plus précisément, le groupe devra impérativement améliorer la compétitivité de  l’EPR et développer en parallèle une gamme de réacteurs «  de moyenne puissance ». 

La loi sur la transition énergétique ne mets pas forcément en péril l’avenir de la filière nucléaire en France 

Un vent d’optimisme flotte autour de ce rapport.  Alors que la loi prévoit d’abaisser la part de l’énergie nucléaire de 75% actuellement à 50% à horizon 2025, les députés avancent un scénario pourtant favorable. Imaginez qu’au lieu de baisser, la consommation d’électricité augmente tellement que l’on ne puisse se passer des centrales. Auquel cas non seulement il n’y aura pas de fermeture de site, mais en plus il faudra renouveler le parc, soit environ 30 réacteurs d’ici 2050. Une hypothèse peu crédible mais à laquelle les co-rapporteurs veulent croire, invitant les autorités à une grande vigilance quant aux conséquences de cette loi.

Lire le rapport complet ici

Par Audrey Loubens

La digitalisation exige-t-elle un renforcement de la sécurité ?

La plupart des applications actuelles ont été développées à l’heure où le Cloud et l’Internet des Objets n’existaient pas encore, si bien que les solutions informatiques existantes sont rarement adaptées aux contraintes d’aujourd’hui. Même si la plupart des entreprises cherchent avant tout à simplifier leurs processus via de nouveaux dispositifs techniques, elles ne veulent et ne peuvent pas opérer cette simplification au détriment de la sécurité.
Les entreprises font aujourd’hui face à trois difficultés :

  • Comment digitaliser ses produits en dépit des raccourcissements drastiques des cycles de production ?
  • Comment réussir à connecter l’informatique d’entreprise, les processus opérationnels et ses partenaires dans un écosystème global ?
  • Comment garantir dans de telles conditions un niveau de sécurité suffisant pour un coût acceptable ?

La pression de l’innovation via la consumérisation

La dynamique de l’innovation connaît aujourd’hui une croissance tout aussi importante dans les domaines du B2B que du B2C. Les constructeurs automobiles, par exemple, travaillent aujourd’hui davantage en collaboration avec les assureurs afin de proposer à leurs clients une offre conjointe et disposer ainsi d’un avantage concurrentiel indiscutable. Pour y parvenir, ils doivent réciproquement intégrer rapidement et de manière sécurisée leursnouveaux partenaires dans leur propre écosystème.

En outre, les entreprises font face à une pression technologique croissante et doivent s’efforcer de rester à la pointe de la technologie pour séduire les générations technophiles. Les banques, par exemple, pour être toujours à la pointe de la relation client, se doivent d’innover et rendre leurs services disponibles sur tous types de terminaux, y compris les plus récents, comme l’Apple Watch, tout en garantissant un niveau de sécurité optimal.

Complexité et visibilité globale de la sécurité informatique

Avoir une vue d’ensemble de la sécurité informatique revêt une importance croissante à mesure qu’une entreprise introduit de nouveaux processus numériques. Y parvenir est une condition préalable indispensable au succès de la digitalisation. En effet, afin de rendre possible l’utilisation de nouveaux dispositifs tels que les terminaux mobiles et les réseaux sociaux, le système d’information doit permettre un degré de collaboration et d’innovation plus élevé et se trouve davantage vulnérable aux attaques. Plus le système est complexe, plus il requiert de machines et d’applications, diminuant ainsi la visibilité sur l’infrastructure. Le défi consiste alors à garantir un niveau de sécurité optimal, quel que soit le degré de complexité de l’infrastructure.

Contrôle et transparence

Les responsables informatiques sont tenus d’appréhender et de contrôler en permanence les flux de données émanant de chaque transaction. Sans contrôle, une telle démarche est inenvisageable. Atteindre une transparence absolue des processus est l’étape la plus importante de la numérisation. Les attaques pouvant provenir aussi bien de l’intérieur que de l’extérieur, il est également essentiel de protéger le système interne. Pour ce faire, la solution est de passer par une plate-forme de gestion centrale qui surveille tous les flux de données.

À quel moment l’informatique connectée est-elle sécurisée ?

Les entreprises ont besoin de technologies de chiffrement adaptées et d’une stratégie de gestion d’identité complète afin de sécuriser les processus de digitalisation. Outre des systèmes informatiques fiables, il leur faut un nouveau degré de transparence. Une gestion de données fiable et gérant le big data ne saurait plus se concevoir sans transfert géré de fichiers, alertes en temps réel et processus d’escalade. Prenez l’exemple de coopération entre les constructeurs automobiles et les assureurs. Si toutes les règles de communications techniques entre chacun des partenaires connectés respectent les normes de conformité, alors plus rien ne s’oppose à une gestion sécurisée des données numériques.

Par Stéphane Castellani, API Management Business Line Executive Europe chez Axway

Et aussi dans les
ressources documentaires :

Polytechnique recrute pour la 2ème promotion de son « accélérateur » maison

Lancé en avril 2015, l’incubateur de l‘école a fonctionné à merveille. Si bien qu’il vient de déménager dans un nouveau bâtiment : La Fibre Entrepreneur – Drahi X – Novation Center. Il s’agit d’un espace de 2500m² qui regroupe l’incubateur, l’accélérateur X-Up, un espace de prototypage, un espace de co-working ainsi qu’un autre dédié à l’évènementiel.

La campagne de recrutement pour accueillir de nouveaux projets est en cours et est ouverte à tous, la sélection se faisant sur dossier. Les groupes retenus pourront s’installer dans les locaux et bénéficier  d’un accompagnement de 6 mois renouvelable une fois. Un délai jugé suffisant pour créer son entreprise et lever des fonds. La première promotion a encadré 4 projets dont Echy, la start-up fabricant un produit permettant d’apporter la lumière du soleil à l’intérieur des bâtiments via des fibres optiques, PriceMatch, qui a mis au point un algorithme à destination des hôteliers afin qu’ils puissent optimiser leur politique tarifaire en temps réel ou encore Auxivia, qui développe des produits connectés adaptés aux besoins des seniors comme un verre capable de prévenir la déshydratation.

X-Up propose un accompagnement complet et de plusieurs natures. Tout d’abord il s’agit de capitaliser sur l’expérience. Ainsi, chaque porteur de projet peut compter sur le soutien de mentors spécifiques sur les aspects techniques, business et développement. Deuxièmement, X-Up propose des formations et des ateliers. Troisièmement, un fab-lab est à disposition 24h/24, idéal pour mettre au point les prototypes à moindre coût. Enfin, entrer dans X-Up c’est bénéficier de tout le réseau Polytechnique au sens large.

Pour postuler à la deuxième promotion lancée le 1er octobre : contacter le Pôle Entrepreneuriat et Innovation.

Par Audrey Loubens

Découverte d’un nouveau système exoplanétaire avec trois « super terres »

Situé dans la constellation de Cassiopée, ce système exoplanétaire (en dehors du système solaire, NDLR) est composé de trois super terres – exoplanète ayant une masse comprise entre 1 et 10 fois celle de la Terre – d’une planète géante et de leur étoile commune, un peu plus froide que notre soleil.

Ce nouveau système est relativement proche de nous, à une distance de 21 années-lumière de la Terre. En comparaison, l’étoile la plus proche de notre soleil est à trois années-lumière et la seconde à six années-lumière.

« Lorsque les premières mesures indiquèrent qu’une des planètes orbitait autour de l’étoile en trois jours, nous avons immédiatement demandé à la Nasa du temps d’observation avec le télescope spatial américain Spitzer », explique l’astronome Ati Motalebi, coauteure de l’article.

Coup de chance, l’exoplanète passe bien entre son étoile hôte et la Terre, occasionnant le phénomène dit de transit, une mini-éclipse. Le phénomène du transit est une aubaine pour les chercheurs, à qui il permet d’estimer le rayon de la planète grâce à l’ombre projetée sur l’étoile par l’éclipse. Le rayon est indispensable au calcul de la densité et à la définition de la composition de l’atmosphère.

Il résulte de toutes ces mesures que la planète est 4,5 fois plus massive que la Terre, avec un diamètre 1,6 plus grand. Sa densité est proche de celle de notre Terre et elle est de composition terrestre. « C’est de loin la planète de composition terrestre la plus proche de nous », note le communiqué.

La planète tourne autour de son étoile en 3 jours. « Elle est donc très proche de l’étoile », précise à l’AFP Stéphane Udry, astronome à l’Observatoire de Genève. « La température (sur la planète) est d’environ 700 degrés kelvin (427 Celsius, 800 Fahrenheit). C’est probablement un monde de lave fondue … pas compatible avec la vie. »

Les astronomes espèrent un jour pouvoir observer des transits des deux autres super terres, définir leur densité et donc si elles sont rocheuses ou gazeuses, ou une combinaison des deux.

« Pouvoir définir la composition de trois super terres dans un même système proche fournirait une source d’information hors du commun sur la formation des systèmes planétaires et la composition de leurs membres, en particulier des super terres », s’enthousiasme Stéphane Udry.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

La chimie coûte très cher aux systèmes de santé européens

« L’impact sanitaire des polluants chimiques de l’environnement peut sembler évasif et c’est un concept difficile à saisir, estime Tracey Woodruff, professeur à l’université de Californie à San Francisco, dans l’éditorial d’avril du JCEM. Nous manquons de données exhaustives sur la manière dont les substances chimiques présentes dans notre vie quotidienne – dans la nourriture, l’eau, l’air et les produits d’usage courant – touchent notre santé. ». Mais 4 articles publiés dans ce numéro commencent à faire la lumière sur le prix payé pour faire face aux impacts sanitaires des produits chimiques présents dans l’environnement.

Les auteurs ont calculé le fardeau économique créé par 7 familles de produits chimiques. En considérant les troubles de la reproduction masculine, les problèmes neurocomportementaux, l’obésité et le diabète qu’ils favorisent dans toute l’Europe, les auteurs estiment que les impacts sanitaires dus à ces pollutions chimiques représentent un coût médian de 157 milliards d’euros. Soit 1,3 % du produit intérieur brut européen. La partie haute de l’estimation dépasse même les 260 milliards d’euros annuels. Ces estimations comprennent les frais de santé, de prise en charge des salariés, les mortalités précoces… 

Une estimation difficile et certainement sous-estimée

« Pour quantifier le fardeau sur la santé de certains produits chimiques industriels, les articles de ce numéro du JCEM intégrent trois éléments clés : la relation entre l’exposition et les impacts sanitaires, la prévalence de l’exposition, et le coût monétaire pour chaque cas de maladie. Chacun de ces éléments est basé sur des méthodes qui évoluent. L’élément principal est que le calcul des auteurs à 157 milliards d’euros pourrait ne représenter que le sommet de l’iceberg du véritable fardeau des produits chimiques retrouvés dans l’environnement », prévient Tracey Woodruff. Car nous ne pouvons pas évaluer l’impact que de ce que nous ne savons pas mesurer. Les technologies actuelles ne permettent de quantifier dans le corps d’une personne que 7 % des 4 800 produits chimiques les plus produits au monde. Les auteurs rappellent que les molécules non mesurées ont sans doute, pour certains, un impact négatif sur la santé humaine, puisqu’elles ont des structures chimiques similaires aux produits toxiques déjà détectables.

L’impact sanitaire des produits chimiques industriels n’est pas près de diminuer si nous ne nous attaquons pas rapidement au problème. Dans le monde, la production chimique devrait continuer d’augmenter rapidement, à un taux de 3,4 % par an jusqu’en 2030. 70 000 à 100 000 produits chimiques sont commercialisés dans le monde. Près de 5 000 sont produits à plus de 1 million de tonnes par an. Pendant ce temps, le projet de stratégie européenne en matière de perturbateurs endocriniens est toujours bloqué à Bruxelles.

  • Aller plus loin

Les 4 études sont acccessibles gratuitement

Par Matthieu Combe, journaliste scientifique

L’Homme gardera un rôle clef dans la conduite des voitures autonomes (expert)

Les voitures robotisées ont toutes déjà un conducteur de sécurité à bord qui peut intervenir en cas de défaillance. « Sur l’autoroute, les voitures autonomes seront plus sures, faciliteront le trafic et utiliseront moins d’énergie », explique Luc Steels. « Sur les longs trajets, la concentration et la capacité de réaction du conducteur diminue, il y aura donc moins d’accidents avec les véhicules autonomes », complète-t-il.

« Dans dix ans toutes les voitures pourront être autonomes. En termes de technologies c’est largement faisable » affirme le chercheur de l’Université Pompeu Fabra de Barcelone et ex-MIT.

Plus de 20 voitures autonomes conçues par Google sont actuellement testées sur les routes californiennes. Une dizaine d’accidents mineurs se sont produits depuis le début du projet il y a six ans, mais elles n’ont été à l’origine d’aucune de ces collisions, affirme sur son blog Chris Urmson, chef du programme des voitures autonomes chez Google.

Un débat s’est ouvert dans la communauté scientifique sur les dangers de la robotique, notamment dans l’industrie de l’armement. Luc Steels a signé la lettre ouverte écrite par des milliers de scientifiques à l’ONU pour demander l’interdiction des « robots tueurs » car « les décisions concernant vie et mort doivent rester dans les mains de l’humain. »

Cependant le chercheur insiste sur les avancés permises grâce aux algorithmes mathématiques: « Il ne faut pas jeter le bébé avec l’eau du bain. Les technologies de l’intelligence artificielle sont très utiles et performantes si elles laissent une place à l’intuition humaine ».

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Transformer les ressources en réserves : pétrole et gaz non conventionnels

La quantité dans le monde de pétrole non conventionnel est élevée. Bien que la base des  ressources et des réserves soit similaire à celle du pétrole conventionnel, il existe potentiellement plus de ressources en attente de solutions technologiques. Les ressources en pétrole lourd et sablonneux sont largement concentrées au Canada et au Venezuela. Les opérations minières d’extraction des réserves peu profondes connaissent une augmentation significative. Beaucoup de gisements plus profonds sont exploités en utilisant  de la vapeur pour réduire la viscosité. Du fait de la consommation intense d’énergie et de l’empreinte carbone associée à de tels projets, beaucoup de ces développements sont contraint de déployer des solutions de capture et de stockage de carbone (CSC), à savoir des processus par lequel le CO2 est capturé à sa source d’émission et généralement injecté par la suite dans des sites souterrains pour le stockage géologique à long terme.

L’utilisation de gaz non conventionnel – tight gaz, le gaz de schiste et le méthane de houille – a connu une croissance substantielle aux États-Unis et au Canada, tirée principalement par la nécessité de réduire la dépendance sur l’importation de carburant. La technologie a été au centre de cette croissance.

L’élaboration de puits verticaux et horizontaux, ainsi que la création de fractures hydrauliques pour maximiser et orienter le flux de gaz, a apporté des résultats. Cependant, l’équilibre financier de ces développements reste très sujet aux prix du gaz à l’échelle locale. D’autres réductions de coûts sont possibles grâce à l’amélioration du forage et des techniques d’achèvement, ainsi qu’une meilleure compréhension des phénomènes d’écoulement dans les réservoirs sensibles au stress. Transmettre cette expérience et les connaissances acquises à d’autres parties du monde où l’exploration de ces ressources en est encore à ses balbutiements constitue une énorme opportunité.

Avec la demande croissante de gaz naturel, des perspectives sont à l’étude concernant le gaz aigre (gaz contaminé avec du CO2 ou de sulfure d’hydrogène). L’enjeu de cette l’évolution est la capacité à séparer les contaminants et de disposer d’eux d’une manière respectueuse de l’environnement. Le Moyen-Orient, le Kazakhstan et l’Asie du Sud-Est ont mis à l’étude le développement d’importants volumes de ces ressources.

Les hydrates de méthane offrent un énorme potentiel de source de gaz de méthane et sont considérés comme étant la source la plus abondante de gaz d’hydrocarbures sur terre.

Cependant, les défis techniques à relever pour exploiter cette ressource dans un rapport coût-efficacité satisfaisant et respectueux de l’environnement sont encore en cours d’analyse. Une production significative de cette ressource à court et à moyen terme n’est pas envisageable, c’est pourquoi les prévisions de ressources ne comprennent généralement pas la production de méthane.

Traduit par S.L

Et aussi dans les
ressources documentaires :

Une transition énergétique mondiale est-elle possible ?

L’électricité est la forme finale d’énergie qui connaît la croissance la plus rapide, ce qui n’empêche pas ce secteur de contribuer plus que tout autre à la réduction de la part des combustibles fossiles dans le mix énergétique mondial. Afin de répondre à la demande croissante d’électricité, une capacité totale de près de 7 200 gigawatts (GW) supplémentaires est nécessaire, alors que 40 % du parc actuel de centrales électriques doit être remplacé d’ici à 2040 en raison de son vieillissement. Les énergies renouvelables connaissent un développement rapide dans de nombreux pays, et représentent un tiers de la production mondiale d’électricité à l’horizon 2040.

Des signaux de prix adéquats doivent être envoyés afin de garantir des investissements opportuns dans de nouvelles capacités de génération thermique, qui sont nécessaires pour  assurer le maintien d’une fourniture d’électricité fiable en accord avec les investissements réalisés dans les énergies renouvelables. Dans certains cas, des réformes du marché ou de la tarification de l’électricité s’imposent. Dans la majorité des pays, l’utilisation de technologies ayant un coût d’investissement important et les prix élevés des combustibles fossiles conduisent à une augmentation des coûts moyens de la fourniture d’électricité et du prix payé par le consommateur final. Néanmoins, l’amélioration de l’efficacité énergétique au stade de l’utilisation finale permet de réduire la part du revenu des ménages dépensée en factures d’électricité.

Les technologies d’énergies renouvelables représentent un élément essentiel du pilier « sources à faibles émissions de carbone » de l’approvisionnement énergétique mondial. Elles gagnent rapidement du terrain, grâce à des subventions qui s’élèvent à 120 milliards de dollars en 2013 au niveau mondial. Bénéficiant de baisses de coûts rapides et d’un soutien continu, les énergies renouvelables représentent près de la moitié de la hausse totale  de  production d’électricité jusqu’en 2040. Dans le même temps, l’utilisation  de biocarburant fait plus que tripler pour atteindre  4,6 mb/j, et celle des énergies renouvelables pour le chauffage est multipliée par plus de deux. C’est dans les pays de l’OCDE que la part des énergies renouvelables dans la production d’électricité augmente le plus,  atteignant 37 %. Leur  augmentation correspond à la hausse nette totale de l’approvisionnement électrique de l’OCDE.

Mais la production à partir de sources d’énergies renouvelables croît deux fois plus dans les pays hors OCDE, au premier rang desquels on retrouve la Chine, l’Inde, l’Amérique latine et l’Afrique. Globalement, l’énergie éolienne occupe la plus grosse part de la hausse de production basée sur les énergies renouvelables (34 %), suivie de l’hydroélectricité (30 %) et du solaire (18 %). Si l’éolien et le solaire PV voient leur part quadrupler dans le mix énergétique mondial, leur intégration du point de vue technique et commercial devient plus complexe, l’éolien comptant pour 20 % de la production totale d’électricité de l’Union européenne et le solaire PV pour 37 % du pic estival de la demande au Japon.

Le nucléaire : des décisions subordonnées à un ensemble complexe de conditions

Les politiques relatives au nucléaire restent un volet essentiel des stratégies énergétiques nationales, même dans les pays qui se sont engagés à abandonner progressivement cette technologie et qui doivent proposer des alternatives. Dans notre scénario central, la capacité  mondiale d’électricité d’origine nucléaire croît de près de 60 %, passant de 392 GW en 2013 à plus de 620 GW en 2040. Néanmoins, après avoir connu un pic il y a près de vingt ans, sa part dans la production mondiale d’électricité n’augmente plus que de 1 %, pour atteindre 12 %. Ceci reflète les défis qui se posent aux nouvelles centrales thermiques de tous types sur les marchés concurrentiels de l’électricité, ainsi que toutes les difficultés d’ordre économique, technique et politique spécifiques au nucléaire.

La  croissance se concentre sur les marchés dont le prix de l’approvisionnement en électricité est régulé, sur ceux où les opérateurs bénéficient d’un soutien de l’État ou bien sur ceux dont les gouvernements prennent des mesures pour faciliter des investissements privés. La Chine représente 45 % de la croissance de la production d’électricité d’origine nucléaire jusqu’en 2040, alors que la part cumulée de l’Inde, de la Corée du Sud et de la Russie se monte à 30 %. Cette production augmente de 16 % aux États-Unis, elle connaît un regain au Japon (sans pour autant retrouver les niveaux connus avant l’accident de Fukushima Daiichi), mais elle chute de 10 % dans l’Union européenne.

Malgré les défis auxquels il se trouve confronté,le nucléaire reste une option technologique future envisageable pour certains pays, en raison de ses caractéristiques spécifiques. En contribuant à la diversification des technologies de production d’électricité utilisées dans le mix énergétique, les centrales nucléaires peuvent rendre le système plus fiable. Pour les pays importateurs d’énergie, le recours au nucléaire peut leur permettre de devenir moins dépendants des approvisionnements étrangers et moins vulnérables aux fluctuations des prix des combustibles sur les marchés internationaux. Dans un scénario « Nucléaire faible » qui prévoit une chute de 7 % de la capacité mondiale par rapport à la valeur actuelle, les indicateurs de sécurité énergétique ont tendance à se détériorer dans les pays utilisant le nucléaire. Ainsi, dans ce scénario, la part de la consommation énergétique satisfaite par des ressources domestiques baisse de 13 points au Japon, de 6 points en Corée du Sud et de 4 points dans l’Union européenne par rapport à notre scénario central.

Le nucléaire est l’une des rares options disponibles à grande échelle qui permette de réduire  les  émissions  de  dioxyde  de  carbone  tout  en  fournissant  ou  en  remplaçant d’autres formes de production de base. On estime que depuis 1971, il a évité le rejet de 56 gigatonnes de CO2, soit près de deux ans d’émissions mondiales totales aux taux actuels.

En 2040, le nucléaire permet d’éviter près de 50 % des émissions annuelles en Corée du Sud, 12 % de celles prévues au Japon, 10 % aux États-Unis, 9 % en Union européenne et 8 % en Chine. Le coût moyen pour faire baisser le niveau des émissions par le recours à de nouvelles capacités nucléaires dépend du mix énergétique en place et du prix des combustibles remplacés. Il varie donc sur une échelle allant de niveaux très bas à plus de 80 dollars/tonne.

Des  434 réacteurs  opérationnels à  la  fin  2013,  200 seront  mis  à  l’arrêt  d’ici  à  2040, principalement en Europe, aux États-Unis, en Russie et au Japon. Les difficultés à compenser le déficit de production consécutif sont particulièrement aigües en Europe. Plusieurs années avant l’expiration des licences d’exploitation des centrales nucléaires, les opérateurs doivent commencer à planifier soit le développement de capacités alternatives, soit  la  poursuite de  l’exploitation  des  centrales nucléaires  existantes. Pour  faciliter  ce processus, les gouvernements doivent présenter clairement leur approche quant aux extensions de licence et fournir des détails sur les mesures réglementaires impliquées, bien avant les fermetures éventuelles de centrales. Nous estimons à 100 milliards de dollars le coût   du   démantèlement  des   centrales   nucléaires   mises   hors   service   avant   2040. Cependant, des incertitudes de taille subsistent concernant ces coûts, en raison de l’expérience encore relativement limitée en matière de démantèlement des réacteurs et de réhabilitation des sites pour d’autres utilisations. Les régulateurs et les opérateurs doivent continuer de s’assurer que les fonds adéquats sont provisionnés en vue de ces futures dépenses.

Les  préoccupations du  public  relatives  à  l’électricité  d’origine  nucléaire  doivent  être prises en compte. L’expérience récente a montré que l’opinion publique sur le nucléaire pouvait évoluer rapidement et jouer un rôle déterminant pour l’avenir de cette technologie sur certains marchés. La sûreté est la préoccupation majeure, particulièrement en ce qui concerne les réacteurs en exploitation, la gestion des déchets radioactifs et la prévention de la prolifération des armes nucléaires. La confiance dans les compétences et l’indépendance des organes de surveillance réglementaire est essentielle, en particulier avec l’extension du déploiement du nucléaire : dans notre scénario central, le nombre de pays ayant recours à l’électricité d’origine nucléaire passe de 31 à 36, les nouveaux-venus étant plus nombreux que les pays sortant progressivement du nucléaire. Le total cumulé de combustible nucléaire usé double, pour atteindre plus de 700 000 tonnes sur la période considérée. Mais  à  ce  jour,  aucun  pays  n’a  ouvert de  centre  de  stockage permanent permettant d’isoler les déchets hautement radioactifs à longue durée de vie produits par les réacteurs à usage commercial. Tout pays ayant produit des déchets radioactifs devrait être tenu de développer une solution de stockage permanente.

De l’électricité pour façonner l’avenir de l’Afrique subsaharienne

Ceux qui n’ont pas accès aux services énergétiques modernes souffrent de la forme la plus extrême d’insécurité énergétique. On estime qu’en Afrique subsaharienne, 620 millions de personnes sont privées d’accès à l’électricité. Pour les autres, l’approvisionnement est souvent insuffisant, aléatoire et parmi les plus chers au monde. Dans la région, près de 730 millions de personnes recourent à l’utilisation de la biomasse solide pour la cuisson. Or, utilisée en intérieur avec des foyers peu efficaces, elle provoque

une pollution de l’air à l’origine de près de 600 000 décès prématurés par an en Afrique. L’Afrique subsaharienne représente 13 % de la population mondiale, mais seulement 4 % de la demande énergétique mondiale (plus de la moitié étant de la biomasse solide). La région est riche en ressources énergétiques, qui restent très peu exploitées. Près de 30 % des découvertes de pétrole et de gaz réalisées dans le monde ces cinq dernières années ont été faites en Afrique subsaharienne, qui est également dotée d’énormes ressources d’énergies renouvelables, en particulier solaires et hydroélectriques, mais également éoliennes et géothermiques.

Le système énergétique subsaharien est amené à se développer rapidement, mais de nombreux défis énergétiques existants ne seront que partiellement relevés. D’ici à 2040, la région voit son économie quadrupler, sa population presque multipliée par deux et sa demande énergétique croître de près de 80 %. Sa capacité de  production d’électricité quadruple et près de la moitié de cette croissance est issue des énergies renouvelables, qui alimentent de manière croissante les systèmes énergétiques autonomes et les mini-réseaux dans les zones rurales. Près d’un milliard de personnes accèdent à l’électricité, mais plus d’un demi-milliard en sont toujours privées en 2040. Grâce à la production du Nigeria, de l’Angola et d’un nombre de plus petits producteurs, l’Afrique subsaharienne reste un centre important d’approvisionnement en pétrole au niveau mondial, même si une part croissante de la production est consommée dans la région. Cette région devient en outre un acteur important du marché gazier, avec le développement des grandes découvertes offshore le long de la côte est du Mozambique et de la Tanzanie et la hausse de la production au Nigeria et ailleurs.

Le secteur énergétique d’Afrique subsaharienne a la capacité de faire plus pour aider une croissance inclusive. Dans un cas de figure « Siècle de l’Afrique », trois mesures appliquées au secteur de l’énergie pourraient générer un gain de 30 % pour l’économie subsaharienne d’ici à 2040, soit l’équivalent d’une décennie supplémentaire de croissance des revenus par habitant, à condition de s’accompagner de réformes plus générales de la gouvernance :

  • Développer le secteur de l’électricité : par des investissements supplémentaires pour réduire les coupures de courant de moitié et assurer un accès universel à l’électricité dans les zones urbaines.
  • Approfondir la coopération régionale : en développant les marchés et en libérant une plus grande part du potentiel hydroélectrique du continent.
  • Mieux gérer les ressources énergétiques et les revenus tirés de l’énergie : en adoptant des processus plus efficaces et transparents de financement des améliorations essentielles aux infrastructures d’Afrique.

Grâce à un système énergétique plus moderne et intégré, les ressources sont utilisées de manière plus efficace et l’énergie est mise à la disposition d’une plus grande partie des zones les plus démunies de l’Afrique subsaharienne. Une action concertée d’amélioration du fonctionnement du secteur énergétique subsaharien est nécessaire pour que le 21ème siècle devienne le Siècle de l’Afrique.

Source : Agence Internationale de l’Energie

Et aussi dans les
ressources documentaires :

Ressources fossiles et réalité géopolitique : tension maximale

Le scénario proposé à travers l’édition du World Energy outlook 2014 scénario prévoit une augmentation de la demande énergétique mondiale de 37 % d’ici à 2040. Cependant, les développements liés à la croissance démographique et économique mondiale présentent une intensité énergétique moins élevée que par le passé. Ainsi, dans le scénario central, la hausse de la demande mondiale connaît un ralentissement significatif : après s’être maintenue à plus de 2 % par an pendant les vingt dernières années, elle passe à 1 % par an après 2025, en raison des choix politiques et des prix pratiqués ainsi que d’une réorientation structurelle de l’économie mondiale vers les services et les secteurs industriels légers.

La répartition mondiale de la demande énergétique connaît une transformation plus radicale : si la consommation d’énergie est essentiellement stable dans la majeure partie de l’Europe, ainsi qu’au Japon, en Corée du Sud et en Amérique du Nord, elle augmente dans le reste de l’Asie (60 % du total mondial), ainsi qu’en Afrique, au Moyen-Orient et en Amérique latine. Un jalon est franchi au début des années 2030, lorsque la Chine devient le plus grand pays consommateur de pétrole alors que les États-Unis voient leur consommation d’or noir retomber à des niveaux oubliés depuis des décennies. Mais, entretemps, l’Inde, l’Asie du Sud-Est, le Moyen-Orient et l’Afrique subsaharienne deviennent les moteurs de croissance de la demande énergétique mondiale.

À l’horizon 2040, le mix énergétique mondial se divise en quatre parts d’importance presque égale : le pétrole, le gaz, le charbon et les sources d’énergie à faibles émissions de carbone. Les ressources ne sont pas une contrainte pendant cette période, mais ces quatre piliers doivent relever chacun des défis différents. Les choix de politiques et les évolutions de marché entraînent une baisse de la part des combustibles fossiles, qui représentent un peu moins des trois quarts de la demande énergétique primaire en 2040.

Mais ceci ne suffit pas à enrayer l’augmentation des émissions de dioxyde de carbone (CO2) liées à l’énergie, qui augmentent d’un cinquième, menant à une trajectoire de hausse de la température moyenne mondiale de 3,6°C à long terme. Le Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC) estime que pour limiter cette hausse à 2°C – l’objectif adopté au niveau international pour prévenir les répercussions les plus graves et les plus étendues du changement climatique – le monde ne devra pas émettre plus d’environ 1 000 gigatonnes de CO2 (à compter de 2014). Notre scénario central prévoit l’épuisement de ce budget à l’horizon 2040. Or, les émissions ne vont pas cesser soudainement une fois ce seuil atteint. Pour respecter l’objectif de 2°C, il est donc nécessaire de prendre des mesures d’urgence afin de mener le système énergétique sur une voie plus sûre.

La sécurité énergétique : une question de plus en plus préoccupante

L’image à court terme d’un marché pétrolier bien fourni ne doit pas cacher les défis à venir, car l’approvisionnement est de plus en plus dépendant d’un nombre relativement restreint de producteurs. La demande de pétrole évolue différemment selon les régions ; ainsi, pour chaque baril de pétrole qui n’est plus consommé dans les pays de l’OCDE, deux barils supplémentaires le sont dans les pays non-membres de l‘OCDE. L’augmentation de la consommation de pétrole pour le transport et la pétrochimie entraîne une hausse continue de la demande, qui passe de 90 millions de barils par jour (mb/j) en 2013 à 104 mb/j en 2040, même si les prix élevés et de nouvelles mesures politiques freinent peu à peu cette hausse de consommation globale qui s’approche d’un plateau.

Afin de répondre à la demande prévue, 900 milliards de dollars d’investissements par an seront nécessaires dans les années 2030 pour les secteurs pétrolier et gazier amont. Mais de nombreuses incertitudes demeurent quant à la réalisation de ces investissements en temps et en heure, surtout à partir du début des années 2020, lorsque les États-Unis voient leur production de pétrole de réservoir compact plafonner, puis leur production totale de pétrole commencer à baisser. De nombreux facteurs pourraient provoquer un manque d’investissements comparé aux besoins : le développement des gisements brésiliens en eaux profondes qui est complexe  et nécessite des capitaux importants, le développement du pétrole de réservoir compact aux Etats-Unis difficile à reproduire à une échelle identique en dehors de l’Amérique du Nord, les questions non-résolues qui affectent la croissance de la production des sables bitumeux canadiens, les sanctions qui restreignent l’accès de la Russie aux technologies et aux marchés de capitaux, et, surtout, les défis politiques et sécuritaires en Irak. La situation au Moyen-Orient est très préoccupante, car de nombreux pays dépendent de plus en plus de cette région pour satisfaire leurs besoins croissants en pétrole. Ceci est particulièrement vrai pour les pays d’Asie, destination des deux tiers des barils de brut importés dans le monde en 2040.

La demande de gaz naturel augmente de plus de moitié et connaît la croissance la plus rapide de tous les combustibles fossiles. D’autre part, un marché mondial du gaz naturel liquéfié (GNL) de plus en plus flexible permet de réduire les risques de rupture d’approvisionnement. Si la Chine et le Moyen-Orient sont les principaux moteurs de la hausse de la demande mondiale de gaz, ce combustible prend également la première place dans le mix énergétique de l’OCDE vers 2030, dû notamment à l’adoption par les États-Unis de nouvelles réglementations limitant les émissions liées au secteur de l’électricité. Contrairement au pétrole, la production de gaz augmente presque partout (à l’exception notable de l’Europe), et le gaz non conventionnel représente près de 60 % de la hausse de la production mondiale. La principale incertitude (hormis pour l’Amérique du Nord) est de savoir si le gaz peut être proposé à des prix intéressants pour les consommateurs tout en atteignant un niveau suffisant pour attirer les investissements de grande ampleur nécessaires à son approvisionnement. Cette question est au cœur des réglementations nationales de nombreux marchés émergents hors OCDE, notamment en Inde et au Moyen-Orient, et soulève des préoccupations sur le marché international. Les besoins en importations seront amenés à s’intensifier dans une grande partie de l’Asie et en Europe.

Néanmoins, les inquiétudes relatives à la sécurité de l’approvisionnement futur en gaz sont en partie dissipées par l’augmentation du nombre de fournisseurs internationaux, la multiplication par près de trois des sites de liquéfaction dans le monde et la part grandissante de GNL qu’il est possible de réorienter afin de répondre aux besoins à court terme de marchés régionaux toujours plus interconnectés.

Alors que le charbon est abondant et que son approvisionnement est assuré, sa consommation future sera limitée par des mesures de lutte contre la pollution et de réduction des émissions de CO2. La demande mondiale de charbon augmente de 15 % jusqu’en 2040, mais près des deux tiers de cette hausse se concentrent sur les dix prochaines années. La demande chinoise de charbon se stabilise juste au-dessus de 50 % de la consommation mondiale, puis elle retombe après 2030. La demande baisse au sein de l’OCDE, y compris aux États-Unis, où l’utilisation de charbon pour la production d’électricité chute de plus d’un tiers. L’Inde dépasse les États-Unis pour devenir le deuxième consommateur mondial de charbon avant 2020, et par la suite, détrône la Chine pour devenir le premier pays importateur. Les faibles prix actuels du charbon ont contraint les producteurs du monde entier à réduire leurs coûts, mais l’abandon des unités de production coûteuses et l’augmentation de la demande devraient entraîner une hausse des prix suffisamment importante pour attirer de nouveaux investissements.

La Chine, l’Inde, l’Indonésie et l’Australie représentent à elles seules plus de 70 % de la production mondiale de charbon à l’horizon 2040, ce qui souligne l’importance de l’Asie sur les marchés du charbon. L’adoption de centrales à charbon plus efficaces et, à plus long terme, de technologies de capture et stockage de carbone pourrait garantir une transition sans heurts vers un système énergétique à faibles émissions de carbone. Et ceci, tout en réduisant les risques que les capacités de production électrique doivent être abandonnées avant le recouvrement des coûts d’investissement.

Des prix et des politiques appropriés pour un mix énergétique plus efficace

L’efficacité énergétique est un outil essentiel pour diminuer la pression qui s’exerce sur l’approvisionnement énergétique. Elle peut en outre partiellement réduire l’impact des disparités régionales des prix sur la compétitivité. Dans de nombreux pays, les questions d’efficacité énergétique connaissent un regain d’attention, le secteur des transports se trouvant en première ligne. Aujourd’hui, plus des trois quarts des ventes mondiales de voitures sont soumis à des normes d’efficacité, et la demande de pétrole pour les transports ne devrait augmenter que d’un quart, alors que le nombre de véhicules légers et de poids lourds en circulation dans le monde fait plus que doubler d’ici 2040.

On estime que les nouveaux efforts d’efficacité mis en œuvre permettent de réduire la croissance de la demande totale de pétrole de 23 mb/j en 2040, soit plus que la production de pétrole actuelle cumulée de l’Arabie Saoudite et de la Russie. D’autre part, les mesures liées principalement aux secteurs de la production d’électricité et de l’industrie réduisent la hausse de la demande de gaz de 940 milliards de mètres cubes, une valeur supérieure à la production actuelle de gaz de l’Amérique du Nord. En plus de réduire la facture des importations d’énergie et l’impact environnemental, les mesures en faveur de l’efficacité énergétique peuvent en partie apaiser les craintes de certaines régions dépendantes des importations d’énergie, qui voient leurs industries énergivores souffrir d’un désavantage compétitif en raison de prix relativement élevés du gaz naturel et de l’électricité. Mais les disparités régionales des prix de l’énergie sont amenées à perdurer, et l’Amérique du Nord en particulier reste une région où les coûts demeurent relativement faibles jusqu’en 2040. La somme moyenne déboursée pour une unité d’énergie aux États-Unis devrait même devenir inférieure à celle dépensée en Chine au cours des années 2020.

En 2013, les subventions allouées aux combustibles fossiles représentaient 550 milliards de dollars, soit plus de quatre fois la somme des subventions aux énergies renouvelables, ce qui freine les investissements en faveur de l’efficacité énergétique et des énergies renouvelables. Au Moyen-Orient, près de 2 mb/j de pétrole brut et de produits pétroliers sont utilisés pour la production d’électricité, alors qu’en l’absence de subventions, les principales technologies d’énergie renouvelable seraient compétitives face aux centrales au fioul. En Arabie Saoudite, on estime actuellement à 16 ans la durée nécessaire pour compenser la différence de prix à l’achat d’une voiture deux fois plus efficace que la moyenne actuelle grâce à des dépenses inférieures en carburant. Cette durée serait ramenée à 3 ans si l’essence n’était pas subventionnée. Réformer les subventions aux énergies fossiles n’est pas simple, et il n’existe pas de formule unique garantissant la réussite. Néanmoins, comme le montrent nos études de cas sur l’Égypte, l’Indonésie et le Nigeria, il est essentiel : d’être clair sur les objectifs et les calendriers de réformes, d’évaluer soigneusement leurs effets, de rechercher des moyens de les atténuer (si besoin), de procéder à des consultations approfondies et de communiquer clairement à toutes les étapes du processus.

Source : Agence internationale de l’énergie

Et aussi dans les ressources documentaires :

Combustibles fossiles : quelle disponibilité ?

En tenant compte de la mise en place effective des engagements et des promesses émis par les gouvernements actuels pour lutter contre le changement climatique et d’autres défis liés à l’énergie, la demande énergétique mondiale en 2035 devrait augmenter malgré tout de 40 % – avec une contribution des combustibles fossiles se maintenant à 75 %. La demande

Au cours des prochaines décennies devrait provenir principalement des besoins en énergie des pays émergents comme la Chine et l’Inde. L’utilisation du charbon, du gaz et du pétrole pour alimenter les besoins en énergie des secteurs de l’industrie, des bâtiments et des transports est vouée à augmenter. Bien que le souci de l’environnement aujourd’hui ait conduit à une utilisation croissante et significative d’options énergétiques à faible émission carbonique, celles-ci ne sont pas encore déployées assez largement pour répondre à la demande actuelle ou future de l’énergie.

Au cours des deux dernières décennies, la part globale de la production d’électricité à partir de ressources non fossile a diminué de 37 % (en 1990) à 33 % (en 2010); en revanche, la part de la production d’énergie au charbon a augmenté de 37 % à 42 %. Les combustibles fossiles continueront à fournir la majorité de l’énergie dont le monde a besoin pour l’avenir, mais y a-t-il suffisamment de ressources pour répondre à la demande ?

Compte tenu des fluctuations majeures subies par les marchés de l’énergie au cours des sept dernières années – notamment la crise économique mondiale – l’étude annuelle « Les Ressources en Réserves » évalue la disponibilité des combustibles fossiles et enquête sur les technologies de pointe nécessaires pour les trouver, les produire et en alimenter les marchés, tout en évitant dans la mesure du possible les impacts négatifs sur l’environnement. Cette nouvelle édition souligne aussi la nécessité de mettre en place des approches stratégiques spécifiques à chaque type de carburant.

Les combustibles fossiles sont présents dans de nombreuses régions du monde de façon abondante et en quantités suffisantes de manière à satisfaire les besoins dans un contexte de demande croissante. Cependant, la plupart d’entre eux sont encore classés en tant que « ressources » et non encore de « réserve ». Cette distinction est importante car elle détermine un certain degré d’accessibilité des marchés aux combustibles fossiles.

Les ressources font référence à des volumes qui ne sont pas encore complètement caractérisés, ou bien qui présentent des difficultés techniques ou un coût onéreux à l’extraction. Par exemple, là où les technologies qui permettant leur extraction dans un environnement sain et rentable n’ont pas encore été développées.

Les réserves représentent des volumes qui sont produits dans un système économique viable, utilisant des techniques actuelles; leur extraction est souvent associée à un projet qui est déjà bien défini ou en cours. Comme ces réserves accessibles sont épuisées, il est nécessaire d’exploiter à présent des ressources dont l’extraction est plus exigeante techniquement.

Transformer les ressources en réserves

L’enjeu principal du secteur est donc de transformer ces ressources en réserves. Cette reclassification repose en grande partie sur l’application de solutions technologiques de pointe, elle-même fortement dépendante du prix du carburant. Des prix élevés de carburant ont pour effet de stimuler le développement de tests sur des solutions plus sophistiquées, et in fine engendre un accroissement des réserves.

L’exploration et l’extraction de ces ressources de manière rentable et environnementalement responsable, nécessitera l’investissement dans de nouvelles solutions innovantes.

Les combustibles fossiles, aussi collectivement appelés hydrocarbures, incluent le pétrole, le gaz et le charbon.

Toute source de pétrole et de gaz qui nécessite des techniques de production significativement différentes de celles utilisées dans le cas des réservoirs caractérisés « classiques » est considérée automatiquement comme non conventionnelle. Un résumé rapide des réserves et ressources d’hydrocarbures connues présente l’offre potentielle :

  • Les réserves connues de pétrole dites conventionnelles sont estimées à environ 1,3 mille milliards de dollars de barils, tandis que les ressources pétrolières récupérables représentent environ 2,7 mille milliards de barils. Globalement, la quantité dans réserves connues a augmenté modestement depuis 1990, malgré la croissance de la consommation. Le ratio global réserves/production, basé sur des niveaux de consommation actuel, se situe autour de 40 à 45 ans. Si les ressources sont converties avec succès en réserves, cette période sera prolongée.
  • Les réserves connues de pétrole dites non conventionnelles sont estimées à environ 400 milliards de barils (MB), avec des ressources récupérables estimées à 3,2 mille milliards de barils.
  • Les réserves connues de gaz dites conventionnelles sont estimées à environ 220 mille milliards de mètres cube (TCM) – l’équivalent d’environ 1,4 mille milliards de barils de pétrole – avec des ressources récupérables de 460 TCM.
  • Les réserves de gaz dites non conventionnelles sont très difficiles à évaluer, en raison de l’hétérogénéité des formations rocheuses. Les ressources récupérables restantes (Hors hydrates de méthane) sont estimées à 330 TCM.
  • Les réserves de charbon sont élevées, avec des réserves connues en houille estimées à 730 gigatonnes (Gt) (l’équivalent d’environ 3,6 mille milliards de barils de pétrole [MMB]), et les réserves connues de lignite estimées à 280 Gt (environ 0,7 MMB). Les ressources récupérables restantes de houille et de lignite sont estimées respectivement autour de 18 et de 4 mille milliards de tonnes.

Développer les réserves de combustibles fossiles n’est pas chose aisée. Dans le but d’évaluer le potentiel de rentabilité, les producteurs commencent par évaluer le rapport entre le coût du développement et l’intensité de l’émission de carbone (soit la quantité de dioxyde de carbone (CO2) émise pour chaque unité d’énergie produite) du carburant devant être produit.

Le gaz naturel dit conventionnel représente ainsi généralement le plus faible coût par unité d’énergie et la plus faible intensité de carbone. Les développements de la production de gaz dit non conventionnels représentent généralement une faible intensité de carbone et divergent essentiellement dans le coût du développement. Les développements portants sur du pétrole non conventionnels en revanche (tels que le bitume, la gazéification du charbon et du pétrole schistes) sont plus coûteux et présentent des intensités d’émission de carbone plus élevées. Le charbon présente l’intensité d’émission de carbone la plus élevée parmi les combustibles fossiles.

L’utilisation croissante des énergies fossiles au cours des dernières années a été rendue possible grâce aux impressionnants progrès de la technologie. L’effort de production futur sera encore plus exigeant en matière d’innovations technologiques pour permettre d’augmenter le niveau de production des sources nouvelles et existantes tout en répondant de manière appropriée aux défis environnementaux d’aujourd’hui.

Traduit par S.L

Source : http://www.iea.org/Textbase/npsum/resources2013SUM.pdf

Et aussi dans les ressources documentaires :

Transformer les ressources en réserves : pétrole et gaz conventionnels

On dénombre plusieurs exemples où les progrès technologiques ont rendu possible l’extension de la durée d’exploitation un champ de pétrole par rapport à ce qui était prévu initialement.

Afin d’assurer l’avenir de la production de pétrole, il faudra augmenter la production des champs bruns (champs déjà en production) en employant des techniques améliorées de récupération assistée des hydrocarbures (RAH). A la fin de leur cycle de vie estimé, la plupart des champs contiennent encore d’importants volumes de pétrole. Les progrès technologiques permettent de faire en sorte qu’une plus grande fraction de ces volumes soit ramenée à la surface. Par exemple, en moyenne, environ 50% des volumes de pétrole présents dans les réservoirs originaux pourrait être récupéré en utilisant la dernière technologie de pointe.

Une augmentation de 1% dans le taux de récupération moyen engendrerai un volume additionnel de plus de 80 MB, ou autrement dit une augmentation de 6% des réserves mondiales de pétrole. Au cours des 20 dernières années, le taux moyen de récupération du plateau continental norvégien a connu une amélioration significative : de 34% à environ 46% aujourd’hui. Cela a été en grande partie permis par l’utilisation de technologies de forage horizontal / multilatéral, d’amélioration de l’acquisition sismique, de techniques sismiques à quatre dimensions et d’amélioration des installations sous-marines. Grâce aux derniers développements rapides dans les domaines intelligents (domaines qui utilisent toute une gamme de solutions technologiques), des taux de récupération encore plus élevés pourraient être atteints.

Si les changements observés en Norvège étaient réalisés dans tous les bassins du monde, cela conduirai à un doublement des réserves connues actuelles. Une croissance similaire pourrait être atteinte par l’adoption de techniques de RAH sur une échelle beaucoup plus large. Actuellement, il existe un nombre important de pilotes testant des techniques de RAH, en particulier celles qui utilisent des méthodes chimiques et l’injection de CO2. Les exemples sont nombreux à travers le monde, en Chine, en Russie, au Moyen-Orient, en Amérique du Nord et en l’Argentine.

En dépit de ces efforts, considérant la complexité de la mise en œuvre des technologies de RAH, mener à maturité les projets existants conduira à une diminution des niveaux de production dans les pays non membres de l’Organisation des pays exportateurs de pétrole (OPEP), et à une augmentation de la production de pétrole conventionnel de la part des pays de l’OPEP.

Le gaz naturel est appelé à jouer un rôle croissant pour répondre à la demande mondiale de l’énergie, en particulier dans la production d’électricité et de chauffage. Alors qu’il y a quelques décennies le gaz était souvent boudé (trop éloigné pour alimenter les marchés de manière financièrement viable) et considéré comme un produit de substitution peu attractif par rapport au pétrole, beaucoup de projets de gaz sont maintenant activement relancés.

Dans la plupart des cas, le principal défi historique était l’acheminement du gaz jusqu’au marché consommateur. Aujourd’hui cependant, le gaz naturel liquéfié (GNL) offre une solution rentable dans de nombreux cas. Le gaz naturel liquéfié peut être transporté sous sa forme liquide au sein de plus gros transporteurs et, couplé avec des possibilités accrues de  regazéification à proximité de l’utilisateur final il rend le transport de gaz vers les marchés rentable.

Le Qatar et l’Iran au Moyen-Orient en particulier, ont vu une augmentation significative de leur capacité. Les derniers développements technologiques portent vers des options offshores flottantes de GNL (liquéfaction sur un bateau), dont le premier dispositif va être construit au large nord-ouest de l’Australie. Au Qatar, la première usine de liquéfaction du gaz à grande échelle est déjà en construction.

Les lieux d’extraction des hydrocarbures dits conventionnels se limitent maintenant aux eaux ultra-profondes dans l’Arctique. A la complexité d’exploration et de production dans ces endroits s’ajoute l’impératif de ne pas nuire à cet environnement fragile et primitif. Dans ces endroits souvent éloignés, des opérations telles que l’acheminement sous-marin et la compression sont nécessaires pour permettre le transfert par pipeline vers les lointaines installations. Les pays qui explorent de plus en plus la production en eau profonde sont le Brésil et Afrique de l’Ouest. Bon nombre des technologies développées pour les eaux profondes pourrait éventuellement être utilisé dans les régions arctiques. Les autres défis à relever en Arctique sont la protection des installations contre les dangers liés à la glace et l’extension de la saison de forage.

A l’avenir, les technologies qui permettent les liaisons très longues, du champ d’exploitation à la côte où sont situés les points de collecte rendront possibles d’autres évolutions.

La technologie continue d’évoluer à un rythme rapide. Les développements actuels, concentrés autour de la mer de Barents et du versant nord de l’Alaska, sont décrites dans cette édition.

Traduit par S.L

Et aussi dans les
ressources documentaires :

Transformer les ressources en réserves : le cas du charbon

La production de charbon a connu une forte augmentation au cours de la dernière décennie, avec des projections montrant une tendance haussière confirmée pour les dix prochaines années. Ces augmentations sont engendrées principalement par la croissance économique dans les économies émergentes, notamment la Chine et l’Inde.

Les impératifs environnementaux exigent qu’à long terme, les émissions de CO2 provenant de l’utilisation de combustibles fossiles diminuent; ce qui vise principalement le charbon, le combustible fossile contenant la plus forte teneur en carbone. Si les questions environnementales peuvent être résolues, il existe des ressources de charbon suffisantes pour satisfaire la demande projetée pendant de nombreuses décennies. L’objectif de réduction des émissions de carbone pourrait être atteint par :

  • Le développement de technologies visant à améliorer l’efficacité de l’utilisation du charbon ;

  • L’utilisation de CSC (capture et stockage du CO2)

Plus ces deux options seront efficaces, moins la pression sera forte sur la nécessité de passer à des solutions moins génératrices d’émission de carbone.

Une technologie en constant développement

Se diriger vers l’utilisation de filons de charbon toujours plus minces, plus profonds et moins uniformes pose un certain nombre de défis pour l’exploitation minière, qui sont tous susceptibles de conduire à une augmentation du coût de production. De façon alternative, on peut imaginer le déclenchement d’un mouvement vers l’exploitation des abondantes réserves de charbon moins profondes mais de qualité inférieure.

La technologie est en constant développement, offrant des opportunités, pour ceux qui maîtrise les techniques de pointe de l’exploitation minière de les exporter vers des régions où ces techniques doivent encore être déployées.

Les améliorations futures, par exemple, porteront sur la poursuite du développement de la gazéification souterraine du charbon, où le charbon est gazéifié in situ pour produire de l’énergie en utilisant des technologies avancées. Des techniques de pointe controversées de cycle de vapeur et de gazéification intégrée à cycle combiné (GICC) avec des turbines à gaz sont en cours d’élaboration. D’autres développements de technologies CSC rentables et économes en énergie seront essentiels à l’utilisation future du charbon.

Traduit par S.L

Et aussi dans les
ressources documentaires :

Energies fossiles et environnement : le mariage forcé

Les combustibles fossiles dominent l’approvisionnement en énergie primaire mondiale. Les ressources sont suffisantes et accessibles pour que cela continue ainsi au cours du 21ième siècle. Les implications sociétales, en particulier le souhait d’un avenir écologiquement durable, posera la question de leur utilisation sur le long terme. Dans ces conditions, les progrès technologiques joueront un rôle absolument déterminant afin de veiller à ce que l’utilisation de combustibles fossiles reste abordable et propre.

Dans certaines régions, des solutions technologiques innovantes ont conduit à une augmentation importante des quantités exploitables dans les réserves. Il y a une formidable opportunité d’élargir l’application de ces solutions de pointe grâce à l’échange de connaissances tout en les déployant avec rigueur. L’innovation provient souvent de l’application de la technologie existante à un nouvel environnement.

Une certaine flexibilité dans l’utilisation de combustibles fossiles peut aider à relever certains défis environnementaux. Par exemple, le passage du charbon au gaz pour la production d’électricité ou bien l’utilisation de combustibles à haute teneur en carbone uniquement dans les situations où l’élimination des émissions de carbone et l’intégration avec des carburants renouvelables sont possibles sans perte d’efficacité.

Une chose est claire : les ressources de combustibles fossiles sont disponibles et en quantité suffisante pour répondre à la demande croissante d’énergie. L’enjeu porte désormais sur la technologie, les prix et les dispositifs qui feront en sorte qu’il est économiquement rentable de transformer les ressources de la planète en réserves accessibles et exploitables. La technologie a avancé à pas de géant depuis que la dernière édition de « Ressources en Réserves » (voir ici) a été publiée, mais un effort concerté des secteurs de recherche et développement (R & D) est encore nécessaires pour aller plus loin. Les investissements à grande échelle sur les décennies à venir seront essentiels à cet effort. Les institutions politiques ont un rôle clé à jouer en mettant en place les mesures et les incitations appropriées pour pousser l’industrie à faire les investissements nécessaires.

Recommandations

Une pression politique ferme et coordonnée dans toutes les régions sera nécessaire pour appuyer l’exploitation des combustibles fossiles, tout en répondant avec succès aux défis environnementaux, économiques et techniques qui se posent. En particulier, la teneur en carbone tout au long  des chaînes d’approvisionnement et l’utilisation future de pétrole, gaz et de charbon doivent diminuer.

Une gouvernance forte, avec la mise en place de politiques et d’une législation visant à réduire les émissions de GES provenant de l’exploration, la production et le transport des combustibles fossiles sera indispensable pour guider le développement de technologies plus complexes. La nécessité de poser un cadre est d’autant plus importante qu’il faut veiller tout particulièrement à ce que les opérations dans des milieux fragiles et primitifs soient effectués sans détérioration de l’environnement à long terme.

Le fait de perdurer dans l’utilisation des combustibles fossiles conduira bien sûr, à des émissions de GES. Dans cette perspective, les gouvernements doivent prendre des mesures pour inciter à l’amélioration des équipements dans les secteurs de l’énergie et à des optimisations auprès des consommateurs finaux. Les efforts peuvent être orientés, par exemple, sur l’efficacité énergétique des véhicules, sur le développement de processus industriels moins gourmands en carbone, et sur des gains d’efficacité concernant les technologies de production d’énergie. La diffusion des bonnes pratiques nécessite également un soutient politique.

Afin que des réductions significatives des émissions de GES soient atteintes dans les secteurs de l’industrie et d’énergie, les solutions CSC sont indispensables (en particulier au sein des gros bassins de ressources). Les mesures politiques pour accélérer le développement du CSC, de réduire ses coûts de capital et d’exploitation, et de créer un environnement réglementaire favorable sont nécessaires. Des mesures incitatives et attractives doivent être déployées si le déploiement à grande échelle de CSC doit devenir une réalité à long terme.

Traduit par S.L

Source : http://www.iea.org/Textbase/npsum/resources2013SUM.pdf

Et aussi dans les
ressources documentaires :

Rêvons un peu : l’eau pour tous en 2050

En 2050, l’humanité a atteint un niveau de développement ou tout le monde a accès à l’eau, en quantité suffisante. La qualité et la durabilité de l’eau sont également assurées, outils nécessaires à un développement serein des populations.

La population, elle, est protégée de la pollution et des maladies d’origine hydrique ainsi que des catastrophes liées à l’eau. La question de l’accès à l’eau n’est plus une problématique réservée au genre féminin. De ce côté-là aussi, l’accès à l’eau facilité l’inclusion sociale des femmes dans de nombreuses régions du monde.

Il y a moins de guerres. Les écosystèmes s’en trouvent mieux protégés et les économies locales et nationales sont plus robustes, sachant que les risques liés à la disponibilité des ressources en eau ont été pris en compte dans la planification à long terme pour la réduction de la pauvreté et le développement économique.

L’attitude et les normes ont changé suite à un travail éducatif de fond et aux évolutions engagées par nos institutions ; l’avènement des progrès scientifiques et techniques et les leçons tirées des erreurs passées sont l’illustration des nouveaux rapports de l’homme à l’eau.

L’accès à l’eau, l’assainissement et l’hygiène ont été rendus possibles à une si large échelle par le déploiement massif d’infrastructures hydrauliques en milieu urbain. Mais ce n’est pas tout. La technologie de purification de l’eau à petite échelle – décentralisée – dans les régions éloignées, a permis d’améliorer de façon évidente les conditions de santé et donc les conditions de vie en général.

Les innovations technologiques jouent une part prépondérante dans ce changement de paradigme : elles ont permis de réduire les consommations d’eau sur des postes très gourmands : par exemple en permettant la mise en place de circuits d’assainissement « sans eau », qui permettent de fournir de l’énergie et des produits divers à partir d’excréments humains, tout en éliminant la pollution de l’eau douce. 

L’homme a réussi à bâtir un équilibre entre les eaux extraites du sous-sol et celles y retournant – milieux aquifères, écosystèmes aquatiques – assurant leur stabilité dans le temps.

Les eaux usées provenant des activités humaines sont toutes traitées pour être au maximum réutilisées et recyclées. Les circuits de traitement de l’eau assure une réutilisation et un relargage dans l’environnement des eaux traitées qui permet un dimensionnement des cycles suffisant pour une consommation raisonnée et pérenne.

La demande en eau par habitant et par unité de productivité est nettement inférieure à ce qu’elle était en 2015, dans les secteurs industriels, énergétiques et agricoles, permettant à la « ressource eau » d’être partagée plus équitablement. 

La réduction de la concurrence entre les principaux consommateurs d’eau a également contribué à accroître leur performance économique à long terme, et de réguler leurs usages.

Les usages liés à l’eau dans l’agriculture se sont répandus à travers le monde : Que ce soit en agriculture pluviale, irriguée, les méthodes les plus innovantes sont désormais maîtrisées au sens large.

En fait, l’agriculture dans son ensemble est moins vulnérable à la variabilité des précipitations en raison de l’adoption généralisée de l’agro-technologie de pointe, des techniques d’irrigation très efficaces, d’une faible réutilisation des eaux usées, et d’un art avancé de la conservation des sols et des eaux.

La demande en eau pour les usages domestiques de tous les jours est atteinte grâce à l’utilisation de technologies efficaces et équitables, les tarifs adéquats sont en place.

Les techniques de production d’énergie adoptées sont majoritairement très économes en eau, et l’avènement des énergies renouvelables, très économiques à ce niveau-là, est très cohérent avec l’objectif final en matière d’accès à l’eau. Ainsi, la mise en place de centrale hydro-électriques en Afrique sub-saharienne et en Asie du sud-est, grâce à une efficacité améliorée et à la disponibilité en haut pérennisée, a permis d’apporter l’élect ricité à des millions de personnes qui n’en bénéficiaient pas.

Au niveau industriel, l’implémentation dans les process d’une politique de régulation des usages de l’eau, ajoutée aux progrès technologiques, permet d’économiser de plus en plus la consommation de l’eau pour l’industrie. Le développement des entreprises s’en trouve dopé.

La gestion environnementale basée sur la notion de résilience est largement adoptée à travers le monde. Les interventions de l’homme vont donc dans ce sens : protection des réserves en eau, des berges, des bassins versants, promotion des usages raisonnés de l’eau pour les agriculteurs et les acteurs de l’industrie. Et surveillance. Surveillance des consommations, et des impacts des usages sur l’environnement. A ce stade, nos sociétés ont réussi à casser le lien entre une croissance économique basée – entre autres – sur la consommation d’eau et la dégradation de l’environnement.

L’eau est devenue un facteur clé pour tous les secteurs qui l’utilisent comme une ressource. Cela peut être à travers le fonctionnement optimal des chaînes de production par exemple. Ce changement de paradigme a permis de développer un management de la demande en eau très précis.

Des mesures comme le stockage de l’eau de pluie et la réutilisation des eaux usées sont monnaie courante. Les marchés mondiaux et les flux commerciaux sont surveillés par un système de certification mondial de l’eau qui assure que les produits « gourmands » en eau sont exportés à partir de zones relativement peu ou pas exposées à un quelconque stress hydrique.

La valeur économique de l’eau a été reconnue et toutes les externalités – liées à la ressource eau – liées à la vie des entreprises sont désormais  à sa charge et sous sa responsabilité juridique. Des mécanismes de régulation explicites, transparents et équitables sont en place pour répondre à la répartition de l’eau, la distribution, l’accès et la gestion…

Les ressources aquifères sont gérées de manière collaborative entre les multiples états impliqués, conduisant à une amélioration de la qualité de l’eau et de l’environnement en général, de fait, mais aussi des relations entre états par rebond. La capacité de ces derniers à collaborer pour améliorer l’usage d’une ressource commune en est la preuve !

Plus globalement, le rôle de l’eau dans les sous-tend tous les aspects du développement durable est devenu largement reconnu. Il est désormais universellement admis que l’eau est une ressource naturelle essentielle primaire sur lequel presque toutes les activités sociales et économiques et les fonctions des écosystèmes dépendent. 

Cela n’a pas été facile.

Traduit par S.L

Source : ONU

Google: DeepStereo transforme les photos en vidéos fluides

Deepstereo, c’est le nom de ce nouvel algorithme étonnant. Dans un article, les chercheurs de Google expliquent comment leur algorithme peut créer une nouvelles vue de la façade d’une maison à partir de seulement deux images en entrée, montrant la façade de deux angles différents. Il permet aussi de transformer une série de simples photos en vidéo fluide, comblant les vides entre les photos en recréant les images manquantes.

L’algorithme analyse les pixels des différentes vues d’une scène et produit les pixels de la vue inconnue. « Notre système est en mesure de générer de manière plausible des pixels selon la couleur, la profondeur et les textures précédentes apprises automatiquement à partir des données d’entraînement », expliquent les auteurs. Pour ce faire, il crée un espace en 3D en se servant des images 2D existantes comme plan de référence. Il va ensuite combler les vides en se basant sur les couleurs et les profondeurs des photos d’origine. (DeepStereo peut travailler sur 96 plans de profondeur). Le rendu des objets ou sujets en mouvement est assez bon : il peut reconstituer des voitures, des piétons… Ils apparaissent néanmoins d’une manière floue qui évoque le flou lié au mouvement.

Les données d’entraînement découlent de l’apprentissage automatique de leur algorithme (deep learning). Pour ce faire, les ingénieurs ont nourri le système avec une large quantité de séquences d’images issues de Google Street View. En retirant une image de chacune des séquences, les techniciens ont pu entraîner Deepstereo à la reconstituer à partir de 5 autres images de la séquence. « Globalement, notre modèle produit des résultats convaincants, qui sont difficiles à distinguer immédiatement des images originales. Le modèle peut traiter une variété de surfaces traditionnellement difficiles, y compris les arbres et le verre », se félicitent les ingénieurs de Google. « Les principaux bénéfices de notre approche sont son universalité (nous exigeons seulement des ensembles d’images figées et nous pouvons facilement appliquer notre méthode à des domaines différents), et des résultats de haute qualité sur des scènes traditionnellement difficiles », préviennent-ils. Il est ainsi applicable aux collections d’images d’intérieur ou d’extérieur.

Les limites de l’algorithme Deepstereo

Le système n’est pourtant pas encore parfait. « Les objets visibles dans nos résultats comprennent une légère perte de résolution et la disparition des structures minces au premier plan. En plus, les objets partiellement cachés tendent à apparaître floutés dans l’image de sortie ». Cela provient du fait que DeepStereo ne peut pas traiter plus de cinq images de référence à la fois, limitant la précision et la résolution. Evidemment, le modèle est incapable de reconstituer des surfaces qui n’apparaissent dans aucune des images d’entrée.

Le travail de l’algorithme est extrêmement gourmand en ressources pour assurer sa puissance de calcul. Il faut environ 12 minutes sur une station de travail multicore pour rendre une image de 512 × 512 pixels. Pour le moment, les ressources demandées sont donc trop élevées pour en faire, par exemple, une application pour smartphone accessible à tous. Cependant, le système actuel n’exploite pas le modèle de façon optimale. Grâce à une meilleure implémentation, « ces temps pourraient certainement être réduits à queques minutes ou même quelques secondes », préviennent les ingénieurs. Dans cette optique, on peut imaginer que Google pourrait réfléchir à proposer une application grand public permettant de créer des photos ou vidéos à partir de photos d’archives.

Cet algorithme pourrait également avoir des applications en cinématographie, réalité virtuelle ou pour la stabilisation d’images. On songe aussi à une application évidente pour Google : l’algorithme pourrait permettre de se promener dans Google Street View en vidéo, comme si vous y étiez !

Deepstereo, des images en vidéo

Par Matthieu Combe, journaliste scientifique
 

Et aussi dans les
ressources documentaires :

Et aussi dans l’actualité :

Le gras devrait être considéré comme la sixième saveur, selon des chercheurs

Cette nouvelle saveur devrait être appelée « oleogustus » du latin Oleo, huileux et gustus pour goût, ont expliqué ces scientifiques de l’Université Purdue (Indiana), dont l’étude est publiée dans la revue britannique Chemical Sense.

« La plupart des graisses que nous consommons se trouvent sous la forme de triglicérides, des molécules formées d’acide gras », explique Richard Mattes, professeur de science de la nutrition à l’Université Purdue et principal auteur de ces travaux.

« Les triglycérides donnent des textures agréables aux aliments comme surtout l’onctuosité mais ne sont pas vraiment des stimulants gustatifs », précise-t-il dans un communiqué.

Pour tenter de cerner la saveur unique de ces acides gras, ces chercheurs ont fait appel à une centaine de participants à qui ils ont demandé de classer le goût par rapport aux saveurs de base.

Ils ont tous estimé que le goût des graisses était unique et différent de ceux des autres échantillons testés, certains le jugeant amer, irritant voire déplaisant.

« Le goût de ces acides gras lui-même n’est pas plaisant et quand leur concentration est élevée dans des aliments, il y a un phénomène de rejet par la personne qui les consomme comme si la nourriture était rance », relève le professeur Mattes qui étudie les mécanismes et les fonctions du goût.

Mais poursuit-il, à faibles doses, le goût de ces acides gras peut améliorer la saveur tout comme des substances amères peuvent donner une touche exquise au vin, au café ou au chocolat.

Outre cette étude, ce scientifique analyse avec son équipe des données, provenant d’un millier de participants, portant sur la génétique de la saveur du gras.

La découverte sur le goût unique des acides gras pourrait aider l’industrie agroalimentaire à produire des substituts à ces substances. Jusqu’à présent, ces produits de substitution ne reproduisent que la structure des gras, mais pas leur saveur, expliquent les chercheurs.

La biologie moléculaire a montré que le salé et l’acide étaient très proches l’un de l’autre et se distinguaient fondamentalement du sucré et de l’amer.

Les récepteurs du sucré et de l’amer sont en effet très différents de ceux de l’acide et du salé, expliquent les scientifiques. Les premiers font partie des récepteurs couplés aux protéines dites G (RCPG) dont la découverte a valu le prix Nobel de chimie aux américains Robert Lefkowitz et Brian Kobilka en 2012.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

EDF s’entend avec Areva pour prendre le contrôle de son activité réacteurs

Cette cession, qui valorise l’ensemble de la division à 2,7 milliards d’euros, devrait donc rapporter quelque 2 milliards d’euros au spécialiste du nucléaire en grande difficulté financière, qui confirme qu’il aura besoin parralèlement d’une augmentation de capital « significative » pour combler ses besoins de financement d’ici à 2017, qu’il évalue à « environ 7 milliards d’euros ».

« EDF et Areva ont signé le 30 juillet un protocole d’accord » qui prévoit notamment « un contrôle majoritaire » par le premier d’Areva NP, qui regroupe les activités de construction et de services aux réacteurs, a expliqué EDF dans un communiqué, à l’occasion de la publication de ses résultats semestriels.

Areva conservera « un maximum de 25% » de l’entité, tandis qu’EDF envisage in fine une participation « de 51% à 75% », avec « potentiellement la participation d’autres partenaires minoritaires », ajoute EDF.

« Les parties se sont mises d’accord sur un prix indicatif » qui valorise Areva NP à 2,7 milliards d’euros et pourra encore « faire l’objet d’un ajustement », précise le groupe.

L’objectif est de réaliser l’opération « courant 2016 », indique Areva dans un communiqué distinct.

abb/fpo/jag

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Histoire insolite : Jack l’aiguilleur

L’histoire commençe par un accident tragique, qui arriva à James « Jumper » Wide, un employé des chemins de fer du Cap. Il était aiguilleur dans la gare de Uitenhage, et son travail consistait à activer des leviers pour s’assurer que les trains se retrouvent sur les bons rails. Mais Wide avait une mauvaise habitude, à laquelle il devait son surnom : il s’amusait à sauter de wagon en wagon pour traverser les voies. Un jour, il rata son coup, et perdit ses deux jambes en passant sous un train.
Déterminé à retrouver son emploi, Wide se fabriqua lui-même des prothèses en bois pour tenir debout, ainsi qu’un petit trolley qui lui permettait de passer par la voie ferrée pour se déplacer entre la gare et son domicile. La compagnie des chemins de fer accepta qu’il reprenne son poste, mais Wide savait qu’il lui faudrait de l’aide pour pallier son handicap.

Un matin, alors qu’il visitait le marché de Uitenhage, la solution se présenta à lui sous la forme d’une scène improbable : un singe était en train de conduire un chariot à bœufs à travers les étals. Fortement impressionné, Wide plaida sa cause auprès du propriétaire pour racheter l’animal, un babouin du nom de Jack. Et c’est ainsi que commença la collaboration la plus incroyable de l’histoire des chemins de fer.

Au début, Jack ne faisait que pousser le trolley de son maître, mais très vite, celui-ci comprit que son compagnon simiesque était doté d’une intelligence hors du commun, et il l’entraina à activer les aiguillages. Quand un train arrivait, le conducteur donnait un certain nombre de coups de sifflet, et Jack savait quel levier il devait actionner en conséquence. Il avait même appris à apporter la clé du dépôt de charbon aux conducteurs qui avaient besoin de s’approvisionner. Sous la supervision de Wide, Jack devint l’aiguilleur en second de la gare d’Uitenhage, et il ne faisait jamais aucune erreur.

Cependant, en voyant un singe aux manettes, une usagère signala la situation aux autorités ferroviaires, qui licencièrent James Wide sur le champ. Mais à nouveau, celui-ci plaida tant et si bien que des inspecteurs de la compagnie furent envoyés pour attester des compétences de Jack. Ils demandèrent à un conducteur de train de donner différents signaux sonores, pour voir si le babouin était capable de faire les manœuvres correspondantes, et Jack passa tous les tests haut la main. Non seulement Wide récupéra son travail, mais en plus, son fidèle assistant devint le premier singe officiellement employé par les chemins de fer (selon certaines sources, il recevait 20 cents par jour et une demi bouteille de bière par semaine).
Jack devint une légende vivante, que même les dignitaires locaux venaient voir en action. Il accomplit sa tâche d’aiguilleur à la gare d’Uitenhage pendant 9 ans, avant de succomber à une tuberculose en 1890. Son crâne est aujourd’hui conservé à l’Albany Museum de Grahamstown, au Cap Oriental.

Plus d’infos :

Source : Blog Axolot

Et aussi dans les
ressources documentaires :