Avec son futur bouton d’achat, Google veut se lancer dans le e-commerce

Seuls les utilisateurs de mobiles et de tablettes sont pour le moment concernés. Lors de leurs recherches de produits, ils peuvent voir en haut de page le bouton « Achat » à côté desdits produits, sponsorisés. Ce clic les envoie sur une page où ils finalisent l’opération, en précisant l’adresse d’expédition, le moyen de paiement, et en choisissant diverses caractéristiques produit.

À priori, aucun dividende ne devrait être reversé à Google par les entreprises qui bénéficieront de ce nouveau système d’achat. Toutefois, on peut s’imaginer qu’il faudra être dans les bonnes grâces du moteur de recherche pour faire partie des résultats affichés en haut (entendre, avoir versé sa dîme).

Google assoit sa domination sur l’Internet

La firme de Mountain View marche-t-elle sur les plates-bandes des sites de commerce en ligne type Amazon ou Ebay ? Actuellement, lorsque le consommateur effectue sa recherche sur Google, il est automatiquement redirigé vers un site commerçant où il peut finaliser son acte d’achat. Ici, le bouton « Achat » court-circuite cette étape puisqu’il redirige vers une page conçue par Google. Il n’est donc plus nécessaire d’aller sur Amazon ou un indépendant par exemple.

Selon diverses études, un pourcentage croissant d’utilisateurs ne se servait plus de Google pour son shopping mais traînait plutôt sur des sites de commerces. Une tendance qu’à du sentir et vouloir inverser Google.

Mais ce qu’il y a de gênant là-dedans, déontologiquement, c’est que Google s’accapare une place toujours plus dominante au sein de l’Internet. Certains ne se sont d’ailleurs pas empêchés de faire remarquer sa position monopolistique. Et à ce sujet, on ne sait qu’elle sera la réaction de la Commission européenne si cette fonctionnalité vient à arriver jusqu’à nous.

Si l’expérimentation s’avère concluante, Google devrait démocratiser cette nouvelle fonction en fin d’année voire en début 2016.

Par Sébastien Tribot

Et aussi dans les
ressources documentaires :

Le pentaquark, la particule subatomique découverte au LHC

Car avant cela, les scientifiques n’avaient que de fortes présomptions sur son existence. Le physicien américain Murray Gell­Mann avait bien théorisé leur existence, et d’ailleurs reçu le prix Nobel de Physique en 1969 « pour ses contributions et ses découvertes concernant la classification des particules élémentaires et leurs interactions », mais voilà, de cette époque à aujourd’hui, on accusait aucune observation concrète de cette particule.

La réhabilitation du Grand collisionneur de Hadron du Cern (LHC) a changé la donne; plus précisément l’expérience Large Hadron Collider Beauty (LHCb) qui consiste à traquer « les différences qui existent entre matière et antimatière grâce à l’étude d’un type de particule appelé  » quark beauté  » ou  » quark b ».

Le pentaquark, pour vous le présenter, est une particule composée de cinq quarks,­ les constituants fondamentaux des protons et des neutrons. En réalité, il est constitué de quatre quarks réunis en deux couples de diquarks et d’un antiquark. Il fait partie de la famille des baryons exotiques. D’après Guy Wilkinson, porte­parole de LHCb, ce n’est pas une particule ordinaire. En effet, « l’étude de ses propriétés pourrait nous permettre de mieux comprendre comment est constituée la matière ordinaire, c’est­à­dire les protons et les neutrons dont nous sommes tous composés. »

Comment s’y sont pris les chercheurs de LHCb ? Ils ont désintégré un baryon appelé Lambda b en trois autres particules et se sont aperçu, lors de l’étude du spectre de masse de deux d’entre elles, que leur production passait par des états intermédiaires. C’est en tentant de trouver une explication à ces signaux qu’ils sont parvenus à la conclusion qu’ils devaient être des états pentaquark, « formés de deux quarks u, d’un quark d, d’un quark c et d’un antiquark c. »

Si son observation a été possible, après cinquante ans de recherches, c’est en raison des nombreuses données qu’a pu obtenir le LHC couplées à la performance des détecteurs. Notamment, le LHCb, se différencie des autres détecteurs par un nombre élevé d’angles d’observation.

Le pentaquark est donc devenu officiellement une nouvelle catégorie de particules. Désormais, le travail des physiciens sera de comprendre la manière dont sont liés les quarks à l’intérieur des pentaquarks. Deux hypothèses sont actuellement envisagées. Que les quarks soient liés étroitement en est une. Qu’ils le soient faiblement est la seconde. Pour en être sûr, de nouvelles études vont devoir être effectuées. En attendant, les pentaquarks sont probablement encore loin de tout nous avoir révélé.

Par Sébastien Tribot

Et aussi dans les
ressources documentaires :

Le premier médicament produit par une imprimante 3D approuvé aux Etats-Unis

La firme basée dans l’Ohio précise dans un communiqué sur son site internet que son système d’impression en 3D peut produire des doses pouvant aller jusqu’à 1.000 milligrammes par comprimé.

Une porte parole de la FDA (Food and Drug Administration), Sandy Walsh a confirmé mardi dans un courriel à l’AFP qu’il s’agissait bien du premier médicament produit par une imprimante 3D dont l’agence approuve la mise sur le marché. Elle précise également que ce traitement, le Spritam (Levetiracetam), est déjà commercialisé depuis de nombreuses années sous d’autres formes pour traiter l’épilepsie.

Aprecia, qui n’est pas cotée en bourse, prévoit de distribuer le Spritam dans le courant du premier trimestre 2016.

La FDA avait déjà approuvé la commercialisation de matériels médicaux dont des prothèses fabriquées à l’aide d’imprimantes 3D.

Aprecia a également indiqué dans son communiqué qu’il envisageait de développer d’autres médicaments en recourant à la technologie 3D au cours des prochaines années.

La médecine utilise de plus en plus l’impression 3D pour produire des implants sur mesure pour des patients souffrant de pathologies rares ou ayant subi certaines blessures.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

NIWeek 2015, day1 : le résumé en vidéo

Le premier keynote de la NIWEEK s’est attardé sur l’Internet des Objets industriels. L’Internet des Objets est le concept selon lequel toute chose – homme ou machine – peut être connectée, mise en réseau, et fournir de l’intelligence. L’interdépendance croissante entre ces appareils nécessite des outils de plus en plus sophistiqués pour garantir non seulement la qualité d’un produit, mais également celle des informations transmises.

Après une présentation du contexte de ce premier keynote, Richar Keromen, ingénieur RF et tests chez National Instruments, nous présente différentes applications utilisateurs dévoilées lors de cette première journée.

  • L’internet des objets industriels, par National Instruments

 

Applications présentées lors du keynote 1

 

Guy Sauner, directeur du département aéronautique chez Clemessy, est monté sur scène pour présenter la version 2 de l’Iron bird.

L’Iron Bird permet de simuler le fonctionnement d’un avion dans sa totalité. Cela permet de tester la bonne marche de tous les éléments de l’avion et de ses capteurs.

Matériel National Instruments utilisé pour développer cette application : PXI, Verystand

 

  • Samsung et la 5G

Samsung travaille à l’amélioration de la bande passante sur la 5G. Voici comment :

Matériel National Instruments utilisé pour développer cette application : LabView communication design suite

 

 

  • Firefly Equipement : Maintenance préventive des machines agricoles

L’entreprise Firefly produit des machines agricoles connectées : Concrètement, les machines sont connectées – via internet – ce qui permet de contrôler l’état du parc en temps réel via des capteurs et de connaître la position, par exemple, de ces machines, pour améliorer l’efficacité de leur usage.

Matériel National Instruments utilisé pour développer cette application : CompactRIO

 

  • Rendez-vous demain pour une synthèse du second Keynote de la NIWEEK 2015, que vous pouvez regarder en streaming à partir de 15 h heure française en suivant ce lien : http://www.ni.com/niweek/livestream/

Par Pierre Thouverez

Revivez en vidéos la conférence risque chimique 2015

Nous vous proposons de découvrir les interventions filmées des différents experts au sujet notamment des innovations en toxicologie, du développement de modèles prédictifs pour le risque chimique mais aussi des outils existants et en devenir pour améliorer le diagnostic et la gestion du risque chimique.

Le risque chimique : innovation en toxicologie

Par Alain Simonnard (INRS, France)

 

Développement de modèles prédictifs pour le risque chimique

Par D. Mathieu (Commissariat à l’énergie atomique et aux énergies alternatives – CEA – France)

 

La toxicologie d’un point de vue différent : un monde d’abréviations

Par Marc Baril (Université de Montréal, Ecole de Santé publique – Canada)

 

Outils existants et en devenir pour améliorer diagnostic et gestion du risque chimique

Par D. Drolet (American Industrial Association – AIHA – Montréal, Canada)

 

Portée et limites des modèles informatiques dans l’évaluation du risque chimique

Par David Vernez (Institute for work and health – IST – Lausanne, Suisse)

 

Transport et dépôt de particules dans les voies aériennes supérieures

Par Y. Hoarau (Strasbourg University – Strasbourg, France)

http://www.inrs-risque-chimique2015.fr/accueil/

Mise en évidence des mécanismes de toxicité des nanomatériaux

Par Hakan Wallin (National Research Centre for the Working Environment – NRCWE – Copenhagen, Danemark)

(en anglais)

Source : inrs-risque-chimique2015

Et aussi dans les
ressources documentaires :

Tout ce que vous risquez à ne pas dormir assez

Nous dormons de moins en moins. En un demi-siècle, nous avons perdu 1h30 de sommeil ! D’après le sondage de l’Institut national du sommeil et de la vigilance (Insv) réalisé en 2011, la nuit moyenne n’était déjà que de 6h58 en semaine et 7h50 le week-end. Insuffisant ! Les causes de cette diminution du temps de sommeil sont multiples : multiplication des écrans (tablette, ordinateurs, smartphone) avec un usage nocturne, obsession de la performance qui associe le sommeil à une perte de temps… Sauf que dormir est loin d’être une perte de temps. C’est même une étape essentielle de notre journée. 

Difficultés cognitives 

Pendant que l’on dort, notre cerveau en profite pour renouveler les synapses, trier les informations collectées dans la journée et ainsi mémoriser. Sans un bon sommeil, impossible d’apprendre et de progresser. Mais les conséquences ne s’arrêtent pas là. Le cerveau a besoin de se reposer. Si votre mode de vie ne le lui permet pas, il va trouver un moyen détourné d’accéder au repos sans votre aide. Face à la fatigue, des neurones sont capables de cesser toute activité alors même que vous êtes réveillé. De quoi expliquer une altération des performances intellectuelles, un déficit d’attention et une somnolence qui empêche de se concentrer sur une tâche. Des troubles similaires à l’absorption d’alcool : 18h sans dormir équivaut à 0.5g d’alcool dans le sang, 24h sans dormir et c’est comme si vous aviez 1g d’alcool dans le sang !

Cette somnolence en journée est une des principales causes d’accidents de la route. D’après la National Sleep Foundation, moins de 6 heures de sommeil multiplie par 3 le risque d’accident de la route. Si cela ne vous convainc toujours pas de la nécessité de dormir suffisamment, sachez qu’une étude a prouvé qu’une nuit écourtée est synonyme de perte de masse cérébrale.

Augmentation du stress

Les émotions négatives et toutes les informations associées sont traitées la nuit. Cette gestion des émotions est essentielle au bien-être et une dégradation du sommeil empêche ce traitement. D’où une forte irritabilité…

Prédisposition à l’obésité

Voilà un volet moins connu. Pourtant le manque de sommeil fait grossir. Comment ? L’hormone de la satiété, la leptine, est sécrétée pendant la nuit. Moins on dort, moins on en sécrète. A contrario, la gréline qui est l’hormone de faim est sécrétée le jour. Privé d’un sommeil suffisant, le sentiment de faim est plus important tandis que celui de satiété diminue. De quoi nous faire manger en plus grande quantité que nécessaire.

Fragilité immunitaire

Lorsque vous dormez, le corps en profite pour sécréter des hormones comme nous venons de le voir pour celles impliquées dans la régulation de l’appétit. Il sécrète aussi des cytokines, des peptides synthétisés par les cellules du système immunitaire. Leur diminution fragilise l’organisme qui tend à tomber malade plus souvent. Une étude a permis de chiffrer à 7 le nombre d’heures minimum de sommeil en deçà duquel le risque d’attraper un rhume est multiplié par 3.

Graves troubles de santé

Une tendance à attraper un rhume est acceptable et gérable. En revanche, ne pas dormir assez de façon récurrente peut amener à des troubles beaucoup plus importants. Ainsi, dormir moins de 6h par nuit augmente de 48% le risque de maladies cardio-vasculaires et multiplie par 4 le risque de faire un AVC. Un manque de sommeil pourrait aussi favoriser le développement de tumeurs.

Diminution du nombre de spermatozoïdes

La quantité de spermatozoïdes s’est effondrée en quelques années, passant de 73.6 millions/ml à 49.9 millions/ml, sans que cela soit forcément lié à une diminution de la fertilité. Mais manquer de sommeil aggrave la situation en diminuant la concentration de spermatozoïdes de 29% ! 

Le sommeil est une composante essentielle de notre fonctionnement. Sans une quantité suffisante d’heures de sommeil, c’est tout notre organisme qui est en souffrance. Pourtant, près d’un français sur trois se plaint d’un manque de sommeil. Pour être en pleine forme, favorisez un bon repos et prenez le temps de bien dormir.

Par Audrey Loubens
 

Conquête spatiale : les Émirats arabes unis dans la course vers Mars

Après l’annonce de la création de l’agence spatiale des Émirats arabes unis (UAESA) il y a plus d’un an, on en sait un peu plus concernant le programme de la mission Hope. On sait désormais qu’elle souhaite lancer une sonde spatiale à l’horizon 2020 afin que celle-ci, puisse, une fois placée en orbite martienne un an plus tard, étudier l’atmosphère de la planète rouge sous toutes ses coutures : sa dynamique quotidienne et annuelle, le climat des différentes couches, les éléments qui la composent ainsi que leurs proportions et, en dernier lieu, le mécanisme de fuite dans l’espace de l’hydrogène et l’oxygène. Hope complémentera les données déjà récupérées, notamment par la sonde de la Nasa Maven, ou celle de l’Inde Mars Orbiter Mission.

Cette étude devrait conduire les scientifiques à appréhender son évolution et celle de l’atmosphère terrestre puisque certains éléments indiquent que Mars, il y a très longtemps, aurait fortement ressemblé à la Terre.

Une fois qu’elle aura parcouru les 60 millions de kilomètres qui séparent Mars de la Terre, la sonde devrait effectuer l’observation de Mars entre deux et quatre ans, temps durant lequel elle est censée transmettre pas moins de 100 gigabits de données aux chercheurs de l’UAESA ainsi qu’à diverses institutions (universités et organisations) dans le monde.

Retrouver un éclat scientifique au niveau mondial

Il s’agit d’un défi extrêmement motivant bien sûr, mais c’est aussi un moyen de montrer au monde, en devenant le neuvième pays à se lancer dans l’exploration de Mars, qu’elle en a encore sous le pied. Il signe le retour des EAU au premier plan de la recherche scientifique. Et quoi qu’on en dise c’est forcément un peu un symbole, sur le plan politique, national et international. Comme l’a dit le chef de projet Omran Sharaf pour le site The Guardian, « si nous pouvons atteindre Mars, tous les défis pour la nation devraient être faisables ». Le nom de la mission n’est pas anodin non plus. Hope signifie espoir en anglais. Or, selon l’émir Mohammed : « sans espoir, il n’y a pas d’avenir, pas de succès, pas de vie ». 

Pour finir – faut-il y voir un signe ? – l’arrivée de la sonde, attendue pour 2021, interviendrait un demi-siècle après l’indépendance du pays. La création de l’état fédéral des Émirats arabes unis remonte en effet à 1971, et la rédaction de la première constitution un an plus tard.

5,44 milliards de dollars auraient dores et déjà été investi d’après les dires de cheikh Mohammed Bin Rachid Al-Maktoum, actuel souverain de Dubaï et également vice-président des EAU. Mais la question n’est pas de savoir si ces fonds seront suffisants, mais de savoir si le temps dont se sont impartis les EAU est suffisamment réaliste pour faire aboutir ce projet. Car en cinq ans, devront être construites de nombreuses infrastructures comme la piste de lancement et des stations de suivis. À ce sujet, des pourparlers seraient en cours avec la Russie pour acheter la plateforme de tir flottante Sea Launch. Enfin, la sonde elle-même, de la taille d’une voiture et comprenant un équipement technologique dernier cri (spectromètres à infrarouge et ultraviolet), est à bâtir entièrement. 

Si la sonde parvient comme convenu à se mettre en orbite autour de Mars, cela ferait des Émirats arabes unis le premier pays arabe à envoyer un tel engin dans l’espace. 2020 serait donc une nouvelle date à inscrire dans les livres d’histoire.

Par Sébastien Tribot

Et aussi dans les
ressources documentaires :

USA : le petit robot autostoppeur retrouvé démembré

Bras et jambes faits de frites bleue de piscine sortant d’un corps cylindrique, gants jaunes avec un pouce levé en permanence: fait de bric et de broc, hitchBOT a été conçu au Canada par des chercheurs universitaires pour découvrir si les robots pouvaient faire confiance aux humains. Il a rapidement eu sa réponse une fois arrivé aux Etats-Unis.

« Oh, mon corps a été endommagé », a confié le robot sur son site. « J’imagine que, parfois, de mauvaises choses arrivent aux gentils robots! Mon voyage doit prendre fin pour le moment mais mon amour pour les humains ne s’éteindra jamais », a-t-il poursuivi, pas rancunier.

Après avoir parcouru plus de 6.000 kilomètres au Canada sans encombres il y a un an et visité une partie de l’Allemagne et des Pays-Bas, hitchBOT n’a pu parcourir que 480 kilomètres aux Etats-Unis, en deux semaines environ, avant d’être démembré par des inconnus.

Couché sur le flanc dans des feuilles mortes et de vieux mouchoirs en papier, ses deux bras arrachés jetés derrière lui mais ses célèbres bottes jaune en plastique toujours aux pieds, il a été retrouvé dans une rue de Philadelphie, en Pennsylvanie, selon une photo circulant sur internet.

Aucune plainte n’a été déposée, a précisé la police, indiquant qu’elle n’ouvrirait pas d’enquête.

A Philadelphie, où 33 meurtres ont été enregistrés rien que le mois dernier, un collectif technologique, The Hacktory, envisage de réparer le robot.

« Si nous avons l’aval des créateurs pour réparer ou remplacer des pièces de hitchBOT, nous serions heureux de le faire (…) nous pourrions aussi construire un hitchBOT2 qui partirait dans son propre voyage », ont-ils écrit sur leur blog.

Peu avant sa « mort », samedi, hitchBOT confiait rêver de sa prochaine destination, la Californie, qu’il ne verra finalement pas avant un moment. Deux jeunes automobilistes avaient peu après posté sur Twitter un « selfie » montrant le robot assis sur leur siège arrière, ses yeux lumineux rouge allumés.

Après avoir appris son triste sort, l’un d’eux s’est indigné sur Twitter: « Merci Philly (Philadelphie, ndlr). Purée, vous avez tué @hitchBOT Je suis trop en colère là », avant d’assurer qu’il avait obtenu et était en train d’étudier la vidéo de surveillance des lieux où « il a été tué ».

Les inventeurs de hitchBOT, des chercheurs de l’université Ryerson de Toronto, ont eux adopté un ton plus apaisé pour tenter de consoler ses admirateurs.

« Nous savons que de nombreux fans de hitchBOT vont être déçus mais nous voulons leur assurer que cette superbe expérience n’est pas terminée », ont-ils écrit sur leur site www.hitchbot.me.

Les chercheurs disent n’avoir « aucune intention » de porter plainte « ou de retrouver les gens qui ont vandalisé hitchBOT », dont l’assemblage, fait de pièces trouvées dans des quincailleries et autres magasins non-spécialisés, avait coûté environ 1.000 dollars.

« Nous nous concentrerons désormais sur la question +que peut-on apprendre de tout ça?+ et explorerons la possibilité de futures aventures pour les robots et les humains », ont-ils ajouté. Les chercheurs l’avaient à l’origine conçu pour tenter de répondre à une interrogation: « est-ce que les robots peuvent faire confiance aux humains? ».

Apparemment rassurés par l’apparence sympathique et les bonnes manières du petit robot, les automobilistes eux lui faisaient confiance et avaient jusque-là pris sans rechigner hitchBOT en stop, immortalisant ce moment spécial par de nombreuses photos partagées sur les réseaux sociaux. Son compte Twitter @hitchBOT compte plus de 51.000 abonnés.

Une fois à bord de la voiture, hitchBot prévenait qu’il pouvait avoir un moment passager de fatigue et que le conducteur pourrait facilement le requinquer en le branchant sur la prise de l’allume-cigare. Il en avait besoin pour illuminer son sourire fait de petites diodes rouges et surtout participer aux conversations de ses hôtes, qui l’assaillaient de questions.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Capturer du CO2 est inefficace contre l’acidification des océans (étude)

Retirer chaque année de l’atmosphère, et jusqu’en 2700, l’équivalent de la moitié des émissions actuelles – un niveau très ambitieux – ne permettrait pas de retrouver les conditions d’acidité des océans de l’ère pré-industrielle, indiquent les auteurs des travaux parus dans Nature climate change.

En fait, même si la concentration de CO2 dans l’atmosphère retombait à un niveau similaire à celui d’avant la Révolution industrielle, l’acidification des océans ne pourrait pas suivre le même chemin avant des centaines d’années.

« Les altérations les plus rapides se font à la surface, où les océans sont directement exposés à des concentrations plus élevées de CO2 et à des températures en hausse », explique Sabine Mathesius, l’un des auteurs de l’étude.

Les émissions de CO2 dues aux activités humaines sont capturées à hauteur de 25% par les océans. Cet échange air-atmosphère limite l’effet de serre, mais contribue à une baisse du pH des océans, ce qui a des effets très négatifs sur la biologie marine.

Sous l’effet des courants marins, les masses d’eau acidifiées sont transportées dans les grandes profondeurs pendant des décennies, et même des siècles.

« Une fois dans les grandes profondeurs, l’eau acidifiée n’est plus en contact avec l’atmosphère (…) et va rester acidifiée pendant des siècles », ajoute la chercheuse.

– un ‘changement irréversible’ pendant des siècles –

Par conséquent, « retarder la réduction des émissions de gaz à effet de serre, avec l’intention de capturer plus tard le CO2 de l’atmosphère, ne marcherait pas », estime la scientifique, car les océans subiraient « un changement irréversible » pendant des siècles.

Dans une autre étude, publiée lundi dans Nature communications, des scientifiques démontrent que la capture et le stockage du CO2, une technique qui doit encore faire ses preuves à grande échelle, sera nécessaire mais très insuffisante pour parvenir à limiter le réchauffement à 2°C.

« Par le seul biais d’émissions négatives, il est peu probable que l’objectif de 2°C soit respecté », avancent les scientifiques.

Ces conclusions sont un pied-de-nez aux défenseurs des énergies fossiles qui estiment que la capture et le stockage du carbone à très grande échelle permettra dans le futur de stabiliser, et même baisser, la concentration de CO2 dans l’atmosphère.

Les auteurs de l’étude estiment toutefois que la capture et le stockage du carbone devront être développés, parallèlement à des efforts drastiques de réduction des émissions.

Pour limiter la hausse du thermomètre mondial à 2°C, l’objectif que s’est fixé la communauté internationale, il faudrait selon eux capturer des quantités de CO2 plus importantes que celles émises, pour avoir des émissions négatives de l’ordre de 0,5 à 3 gigatonnes par an.

Cette performance devrait être associée à des capacités de stockage comprises entre 50 et 250 gigatonnes, estiment les auteurs de l’étude.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Les objectifs de l’ONU pour 2030 coûteront au moins 3.500 milliards de dollars par an

Les 193 pays membres des Nations unies ont adopté dimanche un très ambitieux programme pour remplir ces objectifs d’ici 2030.

« Les chiffres généralement évoqués vont de 3.500 à 5.000 milliards de dollars par an, année après année », a indiqué à la presse l’ambassadeur kenyan à l’ONU Macharia Kamau, dont le pays a co-présidé les négociations avec l’Irlande.

« Cela semble un chiffre astronomique », a-t-il reconnu, estimant qu’il s’agissait d’un programme « certes ambitieux mais pas impossible à réaliser ».

A titre de comparaison, les PIB des Etats-Unis et de la France représentent respectivement quelque 17.000 milliards de dollars et 3.000 milliards de dollars.

Il a souligné l’importance qu’aura la contribution du secteur privé — « un réservoir de milliers de milliards de dollars » — pour compléter l’aide publique au développement.

Son collègue irlandais David Donoghue compte sur « le sens de la responsabilité collective » des 193 pays et « l’influence de leurs pairs » pour inciter les Etats à tenir leurs « engagements politiques », même si ceux-ci ne sont pas juridiquement contraignants.

Le programme, intitulé « Transformer notre monde, programme de développement durable d’ici 2030 » doit être adopté formellement par les dirigeants mondiaux les 26 et 27 septembre à New York, en marge de la session annuelle de l’Assemblée générale de l’ONU.

Il comprend 17 Objectifs de développement durable déclinés en 169 « cibles », dont le premier est « d’éliminer la pauvreté sous toutes ses formes et partout dans le monde ». D’autres concernent la santé, « l’accès de tous à une éducation de qualité », la réduction des inégalités, l’égalité des sexes ou la bonne gouvernance.

Les pays ont aussi promis de « prendre d’urgence des mesures pour lutter » contre le changement climatique, notamment en concluant un « accord ambitieux » lors de la conférence climatique prévue fin novembre à Paris.

Selon le secrétaire général adjoint aux affaires économiques de l’ONU Wu Hongbo, 300 indicateurs — deux par « cible » environ — devront être définis par les experts de l’ONU pour évaluer les progrès accomplis.

Pour le secrétaire général de l’ONU Ban Ki-moon, ces objectifs « représentent une +liste des choses à faire+ pour la planète et ses habitants ».

S’adressant à la presse, il a qualifié le programme « d’audacieux, ambitieux et réformateur » et s’est félicité de la coïncidence avec le 70e anniversaire des Nations unies, célébré cette année.

« La mise en oeuvre et le suivi », a-t-il cependant averti, « seront essentiels » pour juger du succès de cette initiative.

Celle-ci avait été lancée dès 2012 et précédée par des Objectifs du Millénaire pour le développement valables jusqu’à fin 2015.

Les négociateurs ont bataillé toute la semaine dernière pour résoudre les dernières divergences. Celle-ci portaient sur le changement climatique, l’évaluation des résultats pays par pays, la bonne gouvernance et les droits des femmes (notamment les droits sexuels et reproductifs). Sur ce dernier point, l’Iran et le Nigeria devraient émettre des réserves lors du passage du document devant l’Assemblée générale, ce qui ne bloquera cependant pas son adoption.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Prévoir les hivers européens en décryptant 1 000 ans d’histoire climatique

De nombreux travaux sont en cours pour prévoir l’Oscillation Nord Atlantique (NAO), d’une saison à l’autre. Ces variations de circulation de l’air autour de l’Océan Atlantique Nord impactent le climat de l’hémisphère nord, et plus particulièrement de l’Europe, en hiver. Prévoir la NAO permettrait donc d’anticiper les conditions climatiques hivernales de l’Europe (précipitations, températures…). Mais pour évaluer la possibilité d’une prévision de la NAO sur une dizaine d’années, il est essentiel d’étudier sa variabilité passée à plus long terme (millénaire).

Bien renseignées depuis le début du XIXème siècle, les variations de la NAO ne peuvent qu’être estimées à partir de mesures indirectes sur la période du dernier millénaire. Une première étude suggérait que, pendant la période médiévale, la NAO était « bloquée » en phase positive : c’est-à-dire que la différence de pression atmosphérique entre les Açores et l’Islande était toujours plus forte que la moyenne (cf. figure). Quand la NAO est en phase positive, les tempêtes hivernales sont dirigées vers le centre et le nord de l’Europe, où les hivers sont alors doux et humides, tandis que les hivers du sud de l’Europe et du Groenland sont plus froids et secs.

Cette anomalie de la circulation atmosphérique était jusque-là proposée comme une explication des conditions climatiques douces de l’Europe centrale et de l’Europe du nord pendant la période médiévale.

Quand la différence de pression entre l’anticyclone des Açores (A) et la dépression d’Islande (D) est plus faible que d’habitude (NAO -), la trajectoire des tempêtes se déplace vers le Sud de l’Europe. © Pablo Ortega

Quand la différence de pression entre l’anticyclone des Açores (A) et la dépression d’Islande (D) est plus forte que d’habitude (NAO +), la trajectoire des tempêtes se déplace vers le Nord de l’Europe. © Pablo Ortega

 

Une nouvelle méthode d’estimation, consolidée par les simulations

Dans la présente étude, les chercheurs ont construit une nouvelle estimation des variations de la NAO au cours du dernier millénaire, avec une résolution plus fine (année par année). Pour cela, ils ont pris en compte 48 enregistrements climatiques, issus d’archives naturelles autour de l’Océan Atlantique.

Ils ont également dû utiliser une nouvelle approche statistique, qui permet d’évaluer la fiabilité de leur estimation : en appliquant cette méthode à six simulations du climat du dernier millénaire, ils ont montré que la combinaison de différents enregistrements climatiques provenant de différentes régions (et en particulier l’utilisation des carottes de glace du Groenland) permet d’estimer de manière plus fiable la NAO.
La nouvelle estimation ne montre pas de NAO positive de manière persistante pendant la période médiévale, comme imaginé jusque-là, mais des phases positives prédominantes aux XIIIème et XIVème siècles. Elle remet donc en cause l’hypothèse selon laquelle ce seul phénomène serait à l’origine des anomalies climatiques de la période médiévale.

Cette anomalie de la circulation atmosphérique était jusque-là proposée comme une explication des conditions climatiques douces de l’Europe centrale et de l’Europe du nord pendant la période médiévale.  

L’impact des éruptions volcaniques

Surtout, les climatologues identifient une réponse quasi-systématique de la NAO après les éruptions volcaniques majeures : deux ans après chacune des onze éruptions les mieux connues du dernier millénaire, la NAO devient presque systématiquement positive. C’est un phénomène qui avait été observé après l’éruption du volcan Pinatubo, en 1991, et qui est donc confirmé sur un ensemble d’évènements. Bien que ce mécanisme ne soit pas encore complètement compris, cela constitue une piste pour prévoir les conséquences d’une éruption volcanique majeure sur le climat européen en hiver.

Cette étude a été financée par l’Agence nationale de la recherche (projet « Groenland » du programme CEPS, Changements environnementaux planétaires et sociétés).

  • Références : ​ »A model-tested North Atlantic Oscillation reconstruction for the past millennium », Pablo Ortega et. al., Nature, Juillet 2015, DOI: 10.1038/nature14518.

Et aussi dans les
ressources documentaires :

Qui veut la peau de la carte SIM ?

Gemalto fulmine. Le premier producteur de carte SIM et détenteur du système d’exploitation associé a vu son cours en bourse chuter suite à l’annonce des deux géants des télécoms.

La volonté d’Apple et de Samsung de ne plus utiliser de carte SIM « physique» est une terrible nouvelle pour de nombreux acteurs du secteur. Quel est l’objectif derrière cette démarche ? Ne plus dépendre des opérateurs, ni plus ni moins. En créant une carte SIM virtuelle universelle, l’américain et le coréen priveront les opérateurs des données clients qui transitent actuellement obligatoirement par eux grâce à la carte SIM dans son format actuel, et surtout ils mettront fin au lien opérateur/client puisque le propriétaire d’un appareil doté d’une eSIM pourra le choisir et en changer  à partir de son appareil.

D’après le Financial Times, cela fait plusieurs mois que l’eSIM se prépare. Celle-ci pourrait être soudée directement à la carte-mère du téléphone par exemple. Apple a commencé à tester le principe sur ses iPad Air 2 aux Etats-Unis et en Angleterre, mais en conservant le format amovible de sa eSIM. Les utilisateurs peuvent choisir le meilleur forfait disponible et changer d’opérateur en fonction du contexte, lors d’un voyage à l’étranger ou de nouveaux besoins. A première vue, cette eSIM est donc un avantage pour les clients puisqu’elle offre la flexibilité dans le choix des  opérateurs/forfaits. En revanche, à la moindre panne de la carte SIM, c’est le téléphone dans son entier qu’il faut changer et plus simplement la carte. Au-delà de cet aspect financier, les fabricants ambitionnent aussi être en meilleure position pour négocier avec les opérateurs la vente des appareils mobiles. 

Autant d’indices qui laissent à penser que la réflexion est assez avancée du côté des fabricants, bien qu’en apparence les négociations avec certains opérateurs soient toujours en cours. Il se murmure même qu’en cas d’accord, les eSIM pourraient être mises sur le marché dès 2016.

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

Le casque à réalité augmentée HoloLens se destine aux entreprises

Voilà, l’information est lâchée : les lunettes à réalité augmentée auront dans un premier temps vocation à offrir de nouvelles applications aux professionnels. Bien que cela puisse en décevoir quelques-uns (on pense évidemment aux gamers), Satya Nadella a jugé qu’un usage professionnel était une manne bien plus intéressante et prometteuse.

Dans cette perspective, Microsoft compte octroyer cinq bourses de 100 000 dollars à des projets universitaires avec, bien sûr, l’idée sous-jacente d’inciter les développeurs à créer de nouvelles applications et l’envie déclarée « de mieux comprendre le rôle et les applications possibles de l’informatique holographique dans la société » et d’encourager la recherche dans un but plus vaste encore. Ces équipes recevront deux kits de développement HoloLens. Seuls les chercheurs américains officiants au sein d’instituts à but non lucratif peuvent prétendre à une candidature, qui se terminera le 5 septembre.

A aussi été conclu un accord avec la NASA pour envoyer des casques aux astronautes à bord de l’ISS dans le but de les épauler dans les tâches complexes. Ils pourront, grâce à elles, effectuer par exemple des réparations en profitant des conseils venant de l’équipe à Terre. Les HoloLens pourraient servir également les équipes de la NASA à explorer virtuellement la planète rouge.

Un viseur jugé trop petit

Présenté en janvier 2015, HoloLens, semblait ouvrir une nouvelle ère dans la communication, le travail collaboratif, l’enseignement, et la visualisation de  données, au moyen des interactions avec les objets virtuels à l’intérieur d’un environnement réel. On pense notamment aux outils holographiques destinés aux étudiants en médecine et à l’imagerie médicale en général.

Toutefois, la vidéo de présentation dévoilée dernièrement par Microsoft, censée démontrer les possibilités du casque, semble avoir quelque peu déçu à cause d’un champ de vision pour les hologrammes jugé trop étriqué. Ils ne seraient visibles que dans un petit espace rectangulaire. Une limite pouvant frustrer l’utilisateur, obligé dans certains cas à bouger la tête pour parcourir un objet de grandes dimensions. Apparemment, il ne serait pas prévu dans le futur d’élargir de manière significative cette surface d’affichage. Peut-être est-ce d’ailleurs une des raisons qui a fait que le jeu n’est pas la priorité de la firme de Redmond.

Le casque, considéré comme étant à mi-chemin entre feu les Google Glass et l’Oculus Rift n’a pas encore de date de commercialisation ni de prix, mais selon le New York Times, il devrait être assez élevé, en tout cas bien plus qu’une Xbox One vendue à 399 dollars.

Par Sébastien Tribot

Et aussi dans les
ressources documentaires :

Le secteur européen de l’énergie cherche à surmonter la crise

En 2014, le chiffre d’affaires global des 25 premiers énergéticiens européens – dont l’activité principale est l’électricité ou le gaz, à l’exclusion des pétroliers – a baissé de 5,6 % pour atteindre 636 milliards d’euros. Il avait déjà baissé de 2,6 % en 2013. 19 des 25 opérateurs ont ainsi enregistré une baisse de leur chiffre d’affaires. Les énergéticiens européens sont néanmoins parvenus à limiter la casse en faisant de nombreuses économies. Ils subissent ainsi « qu’une » baisse de 4 % de leur marge brute d’exploitation, passant de 20,5 % à 16,8 % entre 2010 et aujourd’hui. La bande des quatre « E » (EON, Engie, Enel et EDF) domine le secteur européen de l’électricité et du gaz naturel, avec un chiffre d’affaires de plus de 330 milliards d’euros. Plus largement, douze opérateurs ont enregistré un chiffre d’affaires supérieur à 15 milliards d’euros en 2014.

Le secteur électrique et gazier connait de plein fouet la crise depuis 2010. La demande diminue : la consommation d’électricité a reculé de 2 % en Europe en 2014 et celle de gaz naturel a chuté d’environ 10 % à cause d’un hiver doux et de la morosité de la conjoncture économique. Les prix de gros de l’électricité s’effondrent sur tous les marchés spot européens (-13 % en Allemagne, -20 % en France, -17 % en Italie…), notamment en raison des surcapacités de production. Le prix de gros du gaz naturel connait une baisse similaire, en moyenne de l’ordre de 15 %, à cause d’une moindre utilisation des centrales thermiques au gaz au profit du charbon. 

Des actions drastiques pour surmonter la crise

Les 25 premiers énergéticiens européens ont plutôt bien incorporé la crise à leurs décisions. Pour limiter la baisse de leur marge brute d’exploitation, ils ont lancé des programmes de réduction des coûts pour se désendetter et rencentrer leur coeur de métier. Ils cessent des actifs, ferment de centrales, diminuent les investissements.  

Au total, ce sont près de 60 milliards d’euros de dépréciations d‘actifs qui ont été passées par les énergéticiens européens au cours des trois dernières années. Ces dépréciations confirment la perte de valeur, entre autres, de nombreux cycles combinés au gaz. « Les fermetures et mises sous cocon d’unités de production d’origine thermique se poursuivent. RWE et Engie ont ainsi mis sous cocon annuel ou saisonnier 2 375 MW et 1 341 MW de centrales gaz respectivement en 2014 », rappellent les auteurs .

Pour contrer ces pertes, au cours des cinq dernières années, les 25 opérateurs analysés ont cédé pour 90 milliards d’euros d’actifs. Dans ce domaine, l’opération de l’opérateur allemand EON. est radicale. En 2016, il se séparera de ses actifs de production d’électricité d’origine nucléaire, charbon et gaz, de ses activités de négoce et d’exploration pour se recentrer exclusivement sur les activités liées à la transition énergétique : énergies renouvelables, réseaux, commercialisation…. 

Grâce à ces revues d’actifs et à de vastes plans de cession, ces opérateurs sont parvenus à réduire avec succès leur endettement. Fin 2014, ils étaient endettés à hauteur de 271 milliards d’euros dont 137 milliards d’euros cumulés pour les cinq leaders du secteur EON, Engie, Enel, EDF et RWE. La stratégie de désendettement des opérateurs a porté ses fruits : en deux ans, l’endettement total a reculé de plus de 50 milliards d’euros.

Mais pour faire face à la crise, les énergéticiens européens diminuent aussi leurs investissements industriels. Ceux-ci sont passés de 73 milliards d’euros en 2010 à moins de 60 milliards d’euros en 2014 (-18 %). Cette baisse dans les investissements devrait continuer sur le court-terme. « Cette contraction des investissements tombe au plus mal à l’heure où la Commission européenne a chiffré à 2 000 milliards d’euros les investissements à engager au cours de la prochaine décennie », pour développer les smartgrids les interconnexions, accompagner la transition énergétique (développer la sûreté nucléaire et les énergies renouvelables, regrettent les experts. « L’Europe s’est engagée dans un processus de transformation lourde de son indus- trie énergétique avec des ambitions élevées, mais ses principaux acteurs n’en ont pas nécessairement les moyens », préviennent-ils. 

Où trouver l’investissement ?

Les smartgrids et l’efficacité énergétique active attirent les géants du numérique intéressés par les objets connectés, notamment Google et Apple. Ils seraient à même d’apporter une part de l’investissement nécessaire, estiment les auteurs. Le développement du marché passera ainsi certainement par des collaborations accrues entre les énergéticiens leaders et ces leaders du numérique. D’autant plus que les dépenses en recherche et développement de ces groupes est sans commune mesure avec nos chers énergéticiens. En 2014, Google a ainsi dépensé 4,6 milliards d’euros en R&D et Apple 4,4 milliards d’euros, lorsque le top 10 des énergéticiens n’y consacrait au total que 1,3 milliard d’euros. Ils disposent en plus de moyens financiers colossaux. Apple a enregistré deux fois plus de bénéfice net (26,4 milliards d’euros) au cours du premier semestre 2015 que les 25 énergéticiens européens en 2014. Si ces investissements ne sont pas directement consacrés à l’énergie, les nouveautés qui en découlent peuvent, pour certaines, s’appliquer au domaine de l’énergie, analysent les auteurs. 

Il n’y a pas que Google et Apple qui pourraient redessiner le marché et les énergéticiens commencent déjà à faire appel à de nouveaux investisseurs, extérieurs au monde de l’énergie. « La menace de remise en cause de la chaîne de valeur de l’énergie avec l’interposition de nouveaux acteurs entre les fournisseurs d’énergie et les consommateurs est réelle, jugent les auteurs. D’autant que de nombreux autres acteurs sont attirés : Bouygues Telecom, Schneider Electric, Somfy… pour ne citer que quelques entreprises françaises ».

Par Matthieu Combe, journaliste scientifique

Et aussi dans les
ressources documentaires :

Une céramique stocke et destocke de la chaleur à foison

Aucun matériau connu jusqu’à présent ne peut stocker de l’énergie thermique pendant longtemps, car celle-ci se disspipe naturellement et lentement au fil du temps.  Mais un nouveau matériau découvert par le groupe de recherche du professeur Ohkoshi à l’Université de Tokyo bat en brêche ce principe : il peut stocker l’énergie thermique pendant une longue période et le relâcher au moment exact souhaité.

L’énergie thermique accumulée peut provenir de toute source directe de chaleur, mais aussi en faisant passer un courant électrique à travers le matériau ou en l’exposant à la lumière. Quelle que soit la source utilisée, le matériau rendra l’énergie sous forme de chaleur. 

Comment stocker/destocker de la chaleur ?

Ce matériau, du pentoxyde de trititane (Ti3O5) peut absorber et libérer une grande quantité d’énergie thermique (230 kJ.L-1). L’énergie thermique stockée est grande, représentant environ 70% de la chaleur latente de fusion de l’eau – c’est-à-dire la chaleur échangée avec le milieu extérieur lors du passage de la glace à l’état gazeux – et environ 10 % de la chaleur latente de vaporisation de l’eau.

Selon les chercheurs, cette propriété est due à sa structure cristalline, composée uniquement d’atomes d’oxygène et de titane. Lorsque le matériau est exposé à de la chaleur, il utilise l’énergie reçue pour faire une « transition de phase solide-solide » durant laquelle il change de structure cristalline (passage du beta-pentoxyde de tritane au lambda-pentoxyde de tritane). Sa particularité est de rester stable dans cette nouvelle structure, même quand on cesse de le chauffer, et ce dans une large plage de températures, piégeant ainsi la chaleur reçue. Pour destocker la chaleur, il suffit d’appliquer sur lui une pression de 600 bars à température ambiante. Cela peut être obtenu facilement avec une petite presse mécanique. En libérant la chaleur accumulée, le matériau retrouve alors sa structure cristalline de base. Voici une nouvelle façon de fabriquer de la chaleur à la demande ! Biensûr, la chaleur dégagée dépasse de loin l’énergie mécanique (pression) appliquée.

De nombreuses applications « green »

Selon les auteurs, le pentoxyde de trititane est un simple oxyde de titane composé d’éléments abondants et est respectueux de l’environnement. Les chercheurs pensent que ce matériau a de nombreuses applications potentielles pour réduire le gaspillage énergétique, notamment en récupérant la chaleur de process où elle est habituellement libérée dans l’atmosphère, sans aucune forme de valorisation. Ce nouveau matériau pourrait ainsi être utilisé pour valoriser les « déchets » de chaleur industrielle, la chaleur libérée par les engins mécaniques (moteurs) et électroniques (composants) ou stocker la chaleur issue des systèmes de production d’énergie thermique solaire. Ce matériau présente également des perpectives d »utilisation pour des dispositifs électroniques de pointe tels que des feuilles sensibles à la pression, les coussins chauffants réutilisables, les sondes de conductivité sensibles à la pression, la RAM résistante (ReRAM) et la mémoire optique.

  • Aller plus loin

Référence de l’étude : H. Tokoro, M. Yoshikiyo, K. Imoto, A. Namai, T. Nasu, K. Nakagawa, N. Ozaki, F. Hakoe, K. Tanaka, K. Chiba, R. Makiura, K. Prassides, and S. Ohkoshi, « External stimulation-controllable heat-storage ceramics », Nature Communications 6, Article number:7037

Par Matthieu Combe, journaliste scientifique

Et aussi dans les
ressources documentaires :

Shell commence à forer au large de l’Alaska

Shell avait mis en suspens ses explorations en Alaska en 2013, suite à une série d’incidents et de défaillances techniques. Mais le groupe annonce avoir commencé ses opérations de forage sur un puits d’exploration ce jeudi autour de 17 heures en Alaska (vendredi à 3h, heure française). Cela intervient alors que le brise-glace finlandais de 116 mètres de long, le Fennica, quittait le port de Portland, après avoir été bloqué pendant 40 heures par des écologistes de Greenpeace. 

Ce même jour, Shell a annoncé une réduction de ses effectifs de 6 500 employés et une baisse de ses investissements à hauteur de 7 milliards de dollars. Le PDG Ben van Beurden a néanmois fait savoir aux investisseurs que la société restait fidèle à ses plans dans les eaux au large des côtes de l’Arctique de l’Alaska, les qualifiant de « plan à long terme ».

Un premier forage commence au large de l’Alaska

Sur place, les deux plateformes de la flotte pétrolière de Shell (le Kulluk et le Transocean Polar Pioneer), partis de Seattle il y a quelques semaines, ont déjà commencé le forage de son premier puits. Selon les autorisations accordées au pétrolier, le forage de la zone supérieure du puits Burger J, celle ne contenant pas d’hydrocarbures, peut commencer en l’absence du Fennica. Il faudra attendre le navire pour aller plus loin, car il transporte du matériel de secours en cas de marée de noire. Une telle catastrophe est malheureusement à craindre. « D’après une étude d’évaluation d’impact menée par le gouvernement américain lui-même, les probabilités pour qu’au moins une marée noire importante se produise en Arctique sont de 75% », s’inquiète Greenpeace.

A son arrivée, dans quelques jours, le Fennica commencera à forer la partie supérieure du puits Burger J, l’un des 6 puits identifiés dans le plan d’exploration de Shell. Shell annonce qu’un deuxième puits, le Burger V, pourrait être foré d’ici la fin de l’année. 

Greenpeace retarde le Fennica

L’action a été fortement médiatisée : Greenpeace avait orchestré un barrage humain, grâce à 13 activistes suspendus dans de petits hamacs au pont Saint-John à Portland. Des dizaines d’autres étaient rassemblées dans des kayaks empêchant ainsi le bateau de quitter le port. Les activistes ont finalement été délogés par la police ce jeudi. La justice fédérale avait imposé à l’organisation une amende de 2500 dollars pour chaque heure passée à bloquer le bateau du pétrolier Shell.

L’action de Greenpeace n’aura donc réussi qu’à retarder le Fennica. Ce bateau avait fait escale quelques jours à Portland pour effectuer des réparations sur sa coque, après avoir  heurté un objet inconnu près des Îles Aléoutiennes, au sud-ouest de l’Alaska, plus tôt ce mois-ci. Ce bateau contient une pièce de forage essentielle pour forer sur toute la profondeur du puits.

Un travail en milieu hostile

Les ONG redoutent que ces forages mettent en danger l’écosystème du cercle Arctique, dans le pôle Nord. « Températures glaciales, conditions climatiques extrêmes et éloignement géographique constituent de sérieux obstacles aux opérations de forage et de dépollution dans les eaux glacées de l’Arctique », assure Greenpeace. « Or le navire de forage de Shell, le Kulluk, s’était échoué sur les côtes de l’Alaska lors de la dernière campagne de Shell dans la région. Et si le Fennica a pris du retard sur la route de la mer des Tchouktches, c’est parce qu’il a dû retourner à Portland pour subir d’importantes réparations et colmater une entaille d’un mètre de long dans sa coque», s’inquiète l’association.

Mi-juin, des militants en kayak avaient déjà tenté de bloquer une plateforme pétrolière de Shell à Seattle pour l’empêcher de mener des explorations pétrolières dans l’Arctique. Ces manifestations font suite à l’autorisation donnée à Shell par le président Barack Obama le 11 mai pour forer dans l’Arctique. Greenpeace appelle les internautes à signer une pétition en ligne demandant à Barack Obama de retirer son autorisation de forage, affirmant qu’« il n’est pas trop tard ».

Par Matthieu Combe, journaliste scientifique

Et aussi dans les
ressources documentaires :

Le biosourcé se développe fortement aux Etats-Unis

Les 7 principaux secteurs de produits biosourcés participant à l’économie américaine sont l’agriculture et la sylviculture, le bioraffinage, les produits chimiques biosourcés, les enzymes, les bouteilles et emballages en bioplastiques, les produits de la forêt et les textiles. Le rapport se cantonne aux produits biosourcés et n’inclut pas les biocarburants ou d’autres sources énergétiques, l’élevage, l’alimentation ou encore les produits pharmaceutiques.

Les 369 milliards de dollars générés dans l’économie par l’industrie des produits biosourcés se décomposent en ventes directes, indirectes et induites. Les 126 milliards de dollars de ventes directes réalisées par l’industrie des produits biosourcés génèrent 126 milliards de dollars en ventes indirectes et 117 milliards de dollars en ventes induites. 

Le programme BioPreferred référence 20 000 produits pour une préférence des produits biosourcés dans les achats publics américains. « Le gouvernement fédéral dépensant environ 445 milliards de dollars chaque année en biens et services, cela constitue une opportunité incroyable d’augmenter la vente et l’utilisation de produits biosourcés », rappellent les auteurs de l’étude. Ces chiffres sont donc largement orientés à la hausse. 

L’industrie des produits biosourcés crée directement 1,5 millions d’emplois. Les auteurs estiment que chaque emploi dans l’industrie des bioproduits génère 1,64 emplois dans d’autres secteurs de l’économie. Ces 2,5 millions d’emplois induits se répartissent en 1,1 millions d’emplois dans les industries connexes et 1,4 millions d’emplois dans l’achat de biens et de services. 

Les Etats présentant la plus grande concentration d’activités industrielles en lien avec les produits biosourcés sont le Mississippi, l’Oregon, le Maine, le Wisconsin, l’Idaho, l’Alabama, la Caroline du Nord, l’Arkansas et le Dakota du Sud. 

Réduire l’impact environnemental ?

Peu d’analyses de cycle de vie ont été menées sur les produits biosourcés, notent les auteurs. Leurs principaux bienfaits environnementaux sont la réduction d’utilisation de pétrole et la réduction des émissions de gaz à effet de serre associées et la séquestration du carbone. Mais des analyses supplémentaires devront être menées concernant l’impact de cette industrie sur l’eau et l’usage des sols. 

« Il existe deux principaux mécanismes par lesquels l’utilisation de produits biosourcés réduit la consommation de pétrole. Tout d’abord, il y a un remplacement direct de matières premières chimiques traditionnellement issues de raffineries de pétrole brut par des matières premières chimiques désormais obtenues par bioraffineries […] Le second type de substitution du pétrole se fait grâce à l’utilisation accrue de matériaux biosourcés naturels comme substituts de matériaux synthétiques (à base de pétrole) qui ont été largement utilisés pendant de nombreuses années ». Les auteurs de l’étude estiment que ces deux mécanismes contribuent de façon égale à hauteur de 150 millions de gallons de pétrole d’économies chaque année, pour un total de 300 millions de gallons (environ 1,1 millions de m3). « Ceci équivaut à retirer 200 000 voitures de la route », ont-ils calculé.  

Par Matthieu Combe, journaliste scientifique

Et aussi dans les
ressources documentaires :

L’avenir d’AREVA au cœur des discussions parlementaires

Garantir la pérennité d’AREVA, telle est la feuille de route donnée par le Président de la république. Un véritable challenge tant la situation est alarmante. Comme nous l’écrivions en juin, AREVA c’est 4.8 milliards de pertes et des milliers de suppressions d’emplois annoncées. La situation est tout simplement dramatique. Les causes sont connues, AREVA n’a pas sombré en un jour. Entre les retards accumulés sur le chantier de l’EPR finlandais (9 ans de retard tout de même !) et l’acquisition désastreuse et suspecte d’UraMin, ces mines africaines inexploitables pour 2 milliards d’euros, AREVA est plongée dans la tourmente : 99 millions d’euros de pertes nettes en 2012 et 494 millions en 2013. Jusqu’à ce chiffre astronomique de 4.8 milliards en 2014. 

EDF à la rescousse… mais pas trop !

Mais l’heure n’est plus aux critiques du passé, les dérives sont telles que l’urgence est à l’action. L’Etat, actionnaire majoritaire à hauteur de 87% ne peut plus faire l’autruche. Parmi les solutions envisagées, le rachat par EDF des réacteurs nucléaires, l’Etat ne cachant pas sa volonté de donner les rennes à EDF de la filiale Areva NP. Mais cette prise de pouvoir par EDF vient d’être remise en cause par le rapport d’information  sur les perspectives de développement d’AREVA et l’avenir de la filière nucléaire déposé à l’assemblée nationale le 8 juillet. Ses co-auteurs, les députés Marc Goua et Hervé Mariton, se disent « […] pleinement favorables au renforcement des synergies entre les deux groupes industriels dans les activités de conception, gestion de projets et commercialisation des réacteurs neufs d’EDF et d’AREVA. » mais « [… ] s’interrogent sur les conséquences d’une prise de participation majoritaire d’EDF au sein d’AREVA NP ». D’après eux, cela pourrait avoir des conséquences désastreuses sur le plan commercial : « Il est en effet possible que les exploitants et ensembliers concurrents d’EDF hésitent à renforcer le carnet de commande du nouvel AREVA NP, qui deviendrait théoriquement concurrent de ses propres clients ».

Vers une pérennisation des activités

Le secteur du nucléaire souffre. Entre la catastrophe de Fukushima qui a donné un coup d’arrêt à la filière à l’échelle mondiale et  la diversification des ressources d’énergie engagée par les Etats, le marché s’est effondré. Avant toute chose, les rapporteurs proposent qu’AREVA se désengage de ses activités liées aux énergies renouvelables car non rentables pour se recentrer sur le cœur de métier du géant de l’atome, à savoir les réacteurs nucléaires. Plus précisément, le groupe devra impérativement améliorer la compétitivité de  l’EPR et développer en parallèle une gamme de réacteurs «  de moyenne puissance ». 

La loi sur la transition énergétique ne mets pas forcément en péril l’avenir de la filière nucléaire en France 

Un vent d’optimisme flotte autour de ce rapport.  Alors que la loi prévoit d’abaisser la part de l’énergie nucléaire de 75% actuellement à 50% à horizon 2025, les députés avancent un scénario pourtant favorable. Imaginez qu’au lieu de baisser, la consommation d’électricité augmente tellement que l’on ne puisse se passer des centrales. Auquel cas non seulement il n’y aura pas de fermeture de site, mais en plus il faudra renouveler le parc, soit environ 30 réacteurs d’ici 2050. Une hypothèse peu crédible mais à laquelle les co-rapporteurs veulent croire, invitant les autorités à une grande vigilance quant aux conséquences de cette loi.

Lire le rapport complet ici

Par Audrey Loubens

La digitalisation exige-t-elle un renforcement de la sécurité ?

La plupart des applications actuelles ont été développées à l’heure où le Cloud et l’Internet des Objets n’existaient pas encore, si bien que les solutions informatiques existantes sont rarement adaptées aux contraintes d’aujourd’hui. Même si la plupart des entreprises cherchent avant tout à simplifier leurs processus via de nouveaux dispositifs techniques, elles ne veulent et ne peuvent pas opérer cette simplification au détriment de la sécurité.
Les entreprises font aujourd’hui face à trois difficultés :

  • Comment digitaliser ses produits en dépit des raccourcissements drastiques des cycles de production ?
  • Comment réussir à connecter l’informatique d’entreprise, les processus opérationnels et ses partenaires dans un écosystème global ?
  • Comment garantir dans de telles conditions un niveau de sécurité suffisant pour un coût acceptable ?

La pression de l’innovation via la consumérisation

La dynamique de l’innovation connaît aujourd’hui une croissance tout aussi importante dans les domaines du B2B que du B2C. Les constructeurs automobiles, par exemple, travaillent aujourd’hui davantage en collaboration avec les assureurs afin de proposer à leurs clients une offre conjointe et disposer ainsi d’un avantage concurrentiel indiscutable. Pour y parvenir, ils doivent réciproquement intégrer rapidement et de manière sécurisée leursnouveaux partenaires dans leur propre écosystème.

En outre, les entreprises font face à une pression technologique croissante et doivent s’efforcer de rester à la pointe de la technologie pour séduire les générations technophiles. Les banques, par exemple, pour être toujours à la pointe de la relation client, se doivent d’innover et rendre leurs services disponibles sur tous types de terminaux, y compris les plus récents, comme l’Apple Watch, tout en garantissant un niveau de sécurité optimal.

Complexité et visibilité globale de la sécurité informatique

Avoir une vue d’ensemble de la sécurité informatique revêt une importance croissante à mesure qu’une entreprise introduit de nouveaux processus numériques. Y parvenir est une condition préalable indispensable au succès de la digitalisation. En effet, afin de rendre possible l’utilisation de nouveaux dispositifs tels que les terminaux mobiles et les réseaux sociaux, le système d’information doit permettre un degré de collaboration et d’innovation plus élevé et se trouve davantage vulnérable aux attaques. Plus le système est complexe, plus il requiert de machines et d’applications, diminuant ainsi la visibilité sur l’infrastructure. Le défi consiste alors à garantir un niveau de sécurité optimal, quel que soit le degré de complexité de l’infrastructure.

Contrôle et transparence

Les responsables informatiques sont tenus d’appréhender et de contrôler en permanence les flux de données émanant de chaque transaction. Sans contrôle, une telle démarche est inenvisageable. Atteindre une transparence absolue des processus est l’étape la plus importante de la numérisation. Les attaques pouvant provenir aussi bien de l’intérieur que de l’extérieur, il est également essentiel de protéger le système interne. Pour ce faire, la solution est de passer par une plate-forme de gestion centrale qui surveille tous les flux de données.

À quel moment l’informatique connectée est-elle sécurisée ?

Les entreprises ont besoin de technologies de chiffrement adaptées et d’une stratégie de gestion d’identité complète afin de sécuriser les processus de digitalisation. Outre des systèmes informatiques fiables, il leur faut un nouveau degré de transparence. Une gestion de données fiable et gérant le big data ne saurait plus se concevoir sans transfert géré de fichiers, alertes en temps réel et processus d’escalade. Prenez l’exemple de coopération entre les constructeurs automobiles et les assureurs. Si toutes les règles de communications techniques entre chacun des partenaires connectés respectent les normes de conformité, alors plus rien ne s’oppose à une gestion sécurisée des données numériques.

Par Stéphane Castellani, API Management Business Line Executive Europe chez Axway

Et aussi dans les
ressources documentaires :

Polytechnique recrute pour la 2ème promotion de son « accélérateur » maison

Lancé en avril 2015, l’incubateur de l‘école a fonctionné à merveille. Si bien qu’il vient de déménager dans un nouveau bâtiment : La Fibre Entrepreneur – Drahi X – Novation Center. Il s’agit d’un espace de 2500m² qui regroupe l’incubateur, l’accélérateur X-Up, un espace de prototypage, un espace de co-working ainsi qu’un autre dédié à l’évènementiel.

La campagne de recrutement pour accueillir de nouveaux projets est en cours et est ouverte à tous, la sélection se faisant sur dossier. Les groupes retenus pourront s’installer dans les locaux et bénéficier  d’un accompagnement de 6 mois renouvelable une fois. Un délai jugé suffisant pour créer son entreprise et lever des fonds. La première promotion a encadré 4 projets dont Echy, la start-up fabricant un produit permettant d’apporter la lumière du soleil à l’intérieur des bâtiments via des fibres optiques, PriceMatch, qui a mis au point un algorithme à destination des hôteliers afin qu’ils puissent optimiser leur politique tarifaire en temps réel ou encore Auxivia, qui développe des produits connectés adaptés aux besoins des seniors comme un verre capable de prévenir la déshydratation.

X-Up propose un accompagnement complet et de plusieurs natures. Tout d’abord il s’agit de capitaliser sur l’expérience. Ainsi, chaque porteur de projet peut compter sur le soutien de mentors spécifiques sur les aspects techniques, business et développement. Deuxièmement, X-Up propose des formations et des ateliers. Troisièmement, un fab-lab est à disposition 24h/24, idéal pour mettre au point les prototypes à moindre coût. Enfin, entrer dans X-Up c’est bénéficier de tout le réseau Polytechnique au sens large.

Pour postuler à la deuxième promotion lancée le 1er octobre : contacter le Pôle Entrepreneuriat et Innovation.

Par Audrey Loubens

Découverte d’un nouveau système exoplanétaire avec trois « super terres »

Situé dans la constellation de Cassiopée, ce système exoplanétaire (en dehors du système solaire, NDLR) est composé de trois super terres – exoplanète ayant une masse comprise entre 1 et 10 fois celle de la Terre – d’une planète géante et de leur étoile commune, un peu plus froide que notre soleil.

Ce nouveau système est relativement proche de nous, à une distance de 21 années-lumière de la Terre. En comparaison, l’étoile la plus proche de notre soleil est à trois années-lumière et la seconde à six années-lumière.

« Lorsque les premières mesures indiquèrent qu’une des planètes orbitait autour de l’étoile en trois jours, nous avons immédiatement demandé à la Nasa du temps d’observation avec le télescope spatial américain Spitzer », explique l’astronome Ati Motalebi, coauteure de l’article.

Coup de chance, l’exoplanète passe bien entre son étoile hôte et la Terre, occasionnant le phénomène dit de transit, une mini-éclipse. Le phénomène du transit est une aubaine pour les chercheurs, à qui il permet d’estimer le rayon de la planète grâce à l’ombre projetée sur l’étoile par l’éclipse. Le rayon est indispensable au calcul de la densité et à la définition de la composition de l’atmosphère.

Il résulte de toutes ces mesures que la planète est 4,5 fois plus massive que la Terre, avec un diamètre 1,6 plus grand. Sa densité est proche de celle de notre Terre et elle est de composition terrestre. « C’est de loin la planète de composition terrestre la plus proche de nous », note le communiqué.

La planète tourne autour de son étoile en 3 jours. « Elle est donc très proche de l’étoile », précise à l’AFP Stéphane Udry, astronome à l’Observatoire de Genève. « La température (sur la planète) est d’environ 700 degrés kelvin (427 Celsius, 800 Fahrenheit). C’est probablement un monde de lave fondue … pas compatible avec la vie. »

Les astronomes espèrent un jour pouvoir observer des transits des deux autres super terres, définir leur densité et donc si elles sont rocheuses ou gazeuses, ou une combinaison des deux.

« Pouvoir définir la composition de trois super terres dans un même système proche fournirait une source d’information hors du commun sur la formation des systèmes planétaires et la composition de leurs membres, en particulier des super terres », s’enthousiasme Stéphane Udry.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

La chimie coûte très cher aux systèmes de santé européens

« L’impact sanitaire des polluants chimiques de l’environnement peut sembler évasif et c’est un concept difficile à saisir, estime Tracey Woodruff, professeur à l’université de Californie à San Francisco, dans l’éditorial d’avril du JCEM. Nous manquons de données exhaustives sur la manière dont les substances chimiques présentes dans notre vie quotidienne – dans la nourriture, l’eau, l’air et les produits d’usage courant – touchent notre santé. ». Mais 4 articles publiés dans ce numéro commencent à faire la lumière sur le prix payé pour faire face aux impacts sanitaires des produits chimiques présents dans l’environnement.

Les auteurs ont calculé le fardeau économique créé par 7 familles de produits chimiques. En considérant les troubles de la reproduction masculine, les problèmes neurocomportementaux, l’obésité et le diabète qu’ils favorisent dans toute l’Europe, les auteurs estiment que les impacts sanitaires dus à ces pollutions chimiques représentent un coût médian de 157 milliards d’euros. Soit 1,3 % du produit intérieur brut européen. La partie haute de l’estimation dépasse même les 260 milliards d’euros annuels. Ces estimations comprennent les frais de santé, de prise en charge des salariés, les mortalités précoces… 

Une estimation difficile et certainement sous-estimée

« Pour quantifier le fardeau sur la santé de certains produits chimiques industriels, les articles de ce numéro du JCEM intégrent trois éléments clés : la relation entre l’exposition et les impacts sanitaires, la prévalence de l’exposition, et le coût monétaire pour chaque cas de maladie. Chacun de ces éléments est basé sur des méthodes qui évoluent. L’élément principal est que le calcul des auteurs à 157 milliards d’euros pourrait ne représenter que le sommet de l’iceberg du véritable fardeau des produits chimiques retrouvés dans l’environnement », prévient Tracey Woodruff. Car nous ne pouvons pas évaluer l’impact que de ce que nous ne savons pas mesurer. Les technologies actuelles ne permettent de quantifier dans le corps d’une personne que 7 % des 4 800 produits chimiques les plus produits au monde. Les auteurs rappellent que les molécules non mesurées ont sans doute, pour certains, un impact négatif sur la santé humaine, puisqu’elles ont des structures chimiques similaires aux produits toxiques déjà détectables.

L’impact sanitaire des produits chimiques industriels n’est pas près de diminuer si nous ne nous attaquons pas rapidement au problème. Dans le monde, la production chimique devrait continuer d’augmenter rapidement, à un taux de 3,4 % par an jusqu’en 2030. 70 000 à 100 000 produits chimiques sont commercialisés dans le monde. Près de 5 000 sont produits à plus de 1 million de tonnes par an. Pendant ce temps, le projet de stratégie européenne en matière de perturbateurs endocriniens est toujours bloqué à Bruxelles.

  • Aller plus loin

Les 4 études sont acccessibles gratuitement

Par Matthieu Combe, journaliste scientifique

L’Homme gardera un rôle clef dans la conduite des voitures autonomes (expert)

Les voitures robotisées ont toutes déjà un conducteur de sécurité à bord qui peut intervenir en cas de défaillance. « Sur l’autoroute, les voitures autonomes seront plus sures, faciliteront le trafic et utiliseront moins d’énergie », explique Luc Steels. « Sur les longs trajets, la concentration et la capacité de réaction du conducteur diminue, il y aura donc moins d’accidents avec les véhicules autonomes », complète-t-il.

« Dans dix ans toutes les voitures pourront être autonomes. En termes de technologies c’est largement faisable » affirme le chercheur de l’Université Pompeu Fabra de Barcelone et ex-MIT.

Plus de 20 voitures autonomes conçues par Google sont actuellement testées sur les routes californiennes. Une dizaine d’accidents mineurs se sont produits depuis le début du projet il y a six ans, mais elles n’ont été à l’origine d’aucune de ces collisions, affirme sur son blog Chris Urmson, chef du programme des voitures autonomes chez Google.

Un débat s’est ouvert dans la communauté scientifique sur les dangers de la robotique, notamment dans l’industrie de l’armement. Luc Steels a signé la lettre ouverte écrite par des milliers de scientifiques à l’ONU pour demander l’interdiction des « robots tueurs » car « les décisions concernant vie et mort doivent rester dans les mains de l’humain. »

Cependant le chercheur insiste sur les avancés permises grâce aux algorithmes mathématiques: « Il ne faut pas jeter le bébé avec l’eau du bain. Les technologies de l’intelligence artificielle sont très utiles et performantes si elles laissent une place à l’intuition humaine ».

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Transformer les ressources en réserves : pétrole et gaz conventionnels

On dénombre plusieurs exemples où les progrès technologiques ont rendu possible l’extension de la durée d’exploitation un champ de pétrole par rapport à ce qui était prévu initialement.

Afin d’assurer l’avenir de la production de pétrole, il faudra augmenter la production des champs bruns (champs déjà en production) en employant des techniques améliorées de récupération assistée des hydrocarbures (RAH). A la fin de leur cycle de vie estimé, la plupart des champs contiennent encore d’importants volumes de pétrole. Les progrès technologiques permettent de faire en sorte qu’une plus grande fraction de ces volumes soit ramenée à la surface. Par exemple, en moyenne, environ 50% des volumes de pétrole présents dans les réservoirs originaux pourrait être récupéré en utilisant la dernière technologie de pointe.

Une augmentation de 1% dans le taux de récupération moyen engendrerai un volume additionnel de plus de 80 MB, ou autrement dit une augmentation de 6% des réserves mondiales de pétrole. Au cours des 20 dernières années, le taux moyen de récupération du plateau continental norvégien a connu une amélioration significative : de 34% à environ 46% aujourd’hui. Cela a été en grande partie permis par l’utilisation de technologies de forage horizontal / multilatéral, d’amélioration de l’acquisition sismique, de techniques sismiques à quatre dimensions et d’amélioration des installations sous-marines. Grâce aux derniers développements rapides dans les domaines intelligents (domaines qui utilisent toute une gamme de solutions technologiques), des taux de récupération encore plus élevés pourraient être atteints.

Si les changements observés en Norvège étaient réalisés dans tous les bassins du monde, cela conduirai à un doublement des réserves connues actuelles. Une croissance similaire pourrait être atteinte par l’adoption de techniques de RAH sur une échelle beaucoup plus large. Actuellement, il existe un nombre important de pilotes testant des techniques de RAH, en particulier celles qui utilisent des méthodes chimiques et l’injection de CO2. Les exemples sont nombreux à travers le monde, en Chine, en Russie, au Moyen-Orient, en Amérique du Nord et en l’Argentine.

En dépit de ces efforts, considérant la complexité de la mise en œuvre des technologies de RAH, mener à maturité les projets existants conduira à une diminution des niveaux de production dans les pays non membres de l’Organisation des pays exportateurs de pétrole (OPEP), et à une augmentation de la production de pétrole conventionnel de la part des pays de l’OPEP.

Le gaz naturel est appelé à jouer un rôle croissant pour répondre à la demande mondiale de l’énergie, en particulier dans la production d’électricité et de chauffage. Alors qu’il y a quelques décennies le gaz était souvent boudé (trop éloigné pour alimenter les marchés de manière financièrement viable) et considéré comme un produit de substitution peu attractif par rapport au pétrole, beaucoup de projets de gaz sont maintenant activement relancés.

Dans la plupart des cas, le principal défi historique était l’acheminement du gaz jusqu’au marché consommateur. Aujourd’hui cependant, le gaz naturel liquéfié (GNL) offre une solution rentable dans de nombreux cas. Le gaz naturel liquéfié peut être transporté sous sa forme liquide au sein de plus gros transporteurs et, couplé avec des possibilités accrues de  regazéification à proximité de l’utilisateur final il rend le transport de gaz vers les marchés rentable.

Le Qatar et l’Iran au Moyen-Orient en particulier, ont vu une augmentation significative de leur capacité. Les derniers développements technologiques portent vers des options offshores flottantes de GNL (liquéfaction sur un bateau), dont le premier dispositif va être construit au large nord-ouest de l’Australie. Au Qatar, la première usine de liquéfaction du gaz à grande échelle est déjà en construction.

Les lieux d’extraction des hydrocarbures dits conventionnels se limitent maintenant aux eaux ultra-profondes dans l’Arctique. A la complexité d’exploration et de production dans ces endroits s’ajoute l’impératif de ne pas nuire à cet environnement fragile et primitif. Dans ces endroits souvent éloignés, des opérations telles que l’acheminement sous-marin et la compression sont nécessaires pour permettre le transfert par pipeline vers les lointaines installations. Les pays qui explorent de plus en plus la production en eau profonde sont le Brésil et Afrique de l’Ouest. Bon nombre des technologies développées pour les eaux profondes pourrait éventuellement être utilisé dans les régions arctiques. Les autres défis à relever en Arctique sont la protection des installations contre les dangers liés à la glace et l’extension de la saison de forage.

A l’avenir, les technologies qui permettent les liaisons très longues, du champ d’exploitation à la côte où sont situés les points de collecte rendront possibles d’autres évolutions.

La technologie continue d’évoluer à un rythme rapide. Les développements actuels, concentrés autour de la mer de Barents et du versant nord de l’Alaska, sont décrites dans cette édition.

Traduit par S.L

Et aussi dans les
ressources documentaires :

Transformer les ressources en réserves : le cas du charbon

La production de charbon a connu une forte augmentation au cours de la dernière décennie, avec des projections montrant une tendance haussière confirmée pour les dix prochaines années. Ces augmentations sont engendrées principalement par la croissance économique dans les économies émergentes, notamment la Chine et l’Inde.

Les impératifs environnementaux exigent qu’à long terme, les émissions de CO2 provenant de l’utilisation de combustibles fossiles diminuent; ce qui vise principalement le charbon, le combustible fossile contenant la plus forte teneur en carbone. Si les questions environnementales peuvent être résolues, il existe des ressources de charbon suffisantes pour satisfaire la demande projetée pendant de nombreuses décennies. L’objectif de réduction des émissions de carbone pourrait être atteint par :

  • Le développement de technologies visant à améliorer l’efficacité de l’utilisation du charbon ;

  • L’utilisation de CSC (capture et stockage du CO2)

Plus ces deux options seront efficaces, moins la pression sera forte sur la nécessité de passer à des solutions moins génératrices d’émission de carbone.

Une technologie en constant développement

Se diriger vers l’utilisation de filons de charbon toujours plus minces, plus profonds et moins uniformes pose un certain nombre de défis pour l’exploitation minière, qui sont tous susceptibles de conduire à une augmentation du coût de production. De façon alternative, on peut imaginer le déclenchement d’un mouvement vers l’exploitation des abondantes réserves de charbon moins profondes mais de qualité inférieure.

La technologie est en constant développement, offrant des opportunités, pour ceux qui maîtrise les techniques de pointe de l’exploitation minière de les exporter vers des régions où ces techniques doivent encore être déployées.

Les améliorations futures, par exemple, porteront sur la poursuite du développement de la gazéification souterraine du charbon, où le charbon est gazéifié in situ pour produire de l’énergie en utilisant des technologies avancées. Des techniques de pointe controversées de cycle de vapeur et de gazéification intégrée à cycle combiné (GICC) avec des turbines à gaz sont en cours d’élaboration. D’autres développements de technologies CSC rentables et économes en énergie seront essentiels à l’utilisation future du charbon.

Traduit par S.L

Et aussi dans les
ressources documentaires :

Energies fossiles et environnement : le mariage forcé

Les combustibles fossiles dominent l’approvisionnement en énergie primaire mondiale. Les ressources sont suffisantes et accessibles pour que cela continue ainsi au cours du 21ième siècle. Les implications sociétales, en particulier le souhait d’un avenir écologiquement durable, posera la question de leur utilisation sur le long terme. Dans ces conditions, les progrès technologiques joueront un rôle absolument déterminant afin de veiller à ce que l’utilisation de combustibles fossiles reste abordable et propre.

Dans certaines régions, des solutions technologiques innovantes ont conduit à une augmentation importante des quantités exploitables dans les réserves. Il y a une formidable opportunité d’élargir l’application de ces solutions de pointe grâce à l’échange de connaissances tout en les déployant avec rigueur. L’innovation provient souvent de l’application de la technologie existante à un nouvel environnement.

Une certaine flexibilité dans l’utilisation de combustibles fossiles peut aider à relever certains défis environnementaux. Par exemple, le passage du charbon au gaz pour la production d’électricité ou bien l’utilisation de combustibles à haute teneur en carbone uniquement dans les situations où l’élimination des émissions de carbone et l’intégration avec des carburants renouvelables sont possibles sans perte d’efficacité.

Une chose est claire : les ressources de combustibles fossiles sont disponibles et en quantité suffisante pour répondre à la demande croissante d’énergie. L’enjeu porte désormais sur la technologie, les prix et les dispositifs qui feront en sorte qu’il est économiquement rentable de transformer les ressources de la planète en réserves accessibles et exploitables. La technologie a avancé à pas de géant depuis que la dernière édition de « Ressources en Réserves » (voir ici) a été publiée, mais un effort concerté des secteurs de recherche et développement (R & D) est encore nécessaires pour aller plus loin. Les investissements à grande échelle sur les décennies à venir seront essentiels à cet effort. Les institutions politiques ont un rôle clé à jouer en mettant en place les mesures et les incitations appropriées pour pousser l’industrie à faire les investissements nécessaires.

Recommandations

Une pression politique ferme et coordonnée dans toutes les régions sera nécessaire pour appuyer l’exploitation des combustibles fossiles, tout en répondant avec succès aux défis environnementaux, économiques et techniques qui se posent. En particulier, la teneur en carbone tout au long  des chaînes d’approvisionnement et l’utilisation future de pétrole, gaz et de charbon doivent diminuer.

Une gouvernance forte, avec la mise en place de politiques et d’une législation visant à réduire les émissions de GES provenant de l’exploration, la production et le transport des combustibles fossiles sera indispensable pour guider le développement de technologies plus complexes. La nécessité de poser un cadre est d’autant plus importante qu’il faut veiller tout particulièrement à ce que les opérations dans des milieux fragiles et primitifs soient effectués sans détérioration de l’environnement à long terme.

Le fait de perdurer dans l’utilisation des combustibles fossiles conduira bien sûr, à des émissions de GES. Dans cette perspective, les gouvernements doivent prendre des mesures pour inciter à l’amélioration des équipements dans les secteurs de l’énergie et à des optimisations auprès des consommateurs finaux. Les efforts peuvent être orientés, par exemple, sur l’efficacité énergétique des véhicules, sur le développement de processus industriels moins gourmands en carbone, et sur des gains d’efficacité concernant les technologies de production d’énergie. La diffusion des bonnes pratiques nécessite également un soutient politique.

Afin que des réductions significatives des émissions de GES soient atteintes dans les secteurs de l’industrie et d’énergie, les solutions CSC sont indispensables (en particulier au sein des gros bassins de ressources). Les mesures politiques pour accélérer le développement du CSC, de réduire ses coûts de capital et d’exploitation, et de créer un environnement réglementaire favorable sont nécessaires. Des mesures incitatives et attractives doivent être déployées si le déploiement à grande échelle de CSC doit devenir une réalité à long terme.

Traduit par S.L

Source : http://www.iea.org/Textbase/npsum/resources2013SUM.pdf

Et aussi dans les
ressources documentaires :

Rêvons un peu : l’eau pour tous en 2050

En 2050, l’humanité a atteint un niveau de développement ou tout le monde a accès à l’eau, en quantité suffisante. La qualité et la durabilité de l’eau sont également assurées, outils nécessaires à un développement serein des populations.

La population, elle, est protégée de la pollution et des maladies d’origine hydrique ainsi que des catastrophes liées à l’eau. La question de l’accès à l’eau n’est plus une problématique réservée au genre féminin. De ce côté-là aussi, l’accès à l’eau facilité l’inclusion sociale des femmes dans de nombreuses régions du monde.

Il y a moins de guerres. Les écosystèmes s’en trouvent mieux protégés et les économies locales et nationales sont plus robustes, sachant que les risques liés à la disponibilité des ressources en eau ont été pris en compte dans la planification à long terme pour la réduction de la pauvreté et le développement économique.

L’attitude et les normes ont changé suite à un travail éducatif de fond et aux évolutions engagées par nos institutions ; l’avènement des progrès scientifiques et techniques et les leçons tirées des erreurs passées sont l’illustration des nouveaux rapports de l’homme à l’eau.

L’accès à l’eau, l’assainissement et l’hygiène ont été rendus possibles à une si large échelle par le déploiement massif d’infrastructures hydrauliques en milieu urbain. Mais ce n’est pas tout. La technologie de purification de l’eau à petite échelle – décentralisée – dans les régions éloignées, a permis d’améliorer de façon évidente les conditions de santé et donc les conditions de vie en général.

Les innovations technologiques jouent une part prépondérante dans ce changement de paradigme : elles ont permis de réduire les consommations d’eau sur des postes très gourmands : par exemple en permettant la mise en place de circuits d’assainissement « sans eau », qui permettent de fournir de l’énergie et des produits divers à partir d’excréments humains, tout en éliminant la pollution de l’eau douce. 

L’homme a réussi à bâtir un équilibre entre les eaux extraites du sous-sol et celles y retournant – milieux aquifères, écosystèmes aquatiques – assurant leur stabilité dans le temps.

Les eaux usées provenant des activités humaines sont toutes traitées pour être au maximum réutilisées et recyclées. Les circuits de traitement de l’eau assure une réutilisation et un relargage dans l’environnement des eaux traitées qui permet un dimensionnement des cycles suffisant pour une consommation raisonnée et pérenne.

La demande en eau par habitant et par unité de productivité est nettement inférieure à ce qu’elle était en 2015, dans les secteurs industriels, énergétiques et agricoles, permettant à la « ressource eau » d’être partagée plus équitablement. 

La réduction de la concurrence entre les principaux consommateurs d’eau a également contribué à accroître leur performance économique à long terme, et de réguler leurs usages.

Les usages liés à l’eau dans l’agriculture se sont répandus à travers le monde : Que ce soit en agriculture pluviale, irriguée, les méthodes les plus innovantes sont désormais maîtrisées au sens large.

En fait, l’agriculture dans son ensemble est moins vulnérable à la variabilité des précipitations en raison de l’adoption généralisée de l’agro-technologie de pointe, des techniques d’irrigation très efficaces, d’une faible réutilisation des eaux usées, et d’un art avancé de la conservation des sols et des eaux.

La demande en eau pour les usages domestiques de tous les jours est atteinte grâce à l’utilisation de technologies efficaces et équitables, les tarifs adéquats sont en place.

Les techniques de production d’énergie adoptées sont majoritairement très économes en eau, et l’avènement des énergies renouvelables, très économiques à ce niveau-là, est très cohérent avec l’objectif final en matière d’accès à l’eau. Ainsi, la mise en place de centrale hydro-électriques en Afrique sub-saharienne et en Asie du sud-est, grâce à une efficacité améliorée et à la disponibilité en haut pérennisée, a permis d’apporter l’élect ricité à des millions de personnes qui n’en bénéficiaient pas.

Au niveau industriel, l’implémentation dans les process d’une politique de régulation des usages de l’eau, ajoutée aux progrès technologiques, permet d’économiser de plus en plus la consommation de l’eau pour l’industrie. Le développement des entreprises s’en trouve dopé.

La gestion environnementale basée sur la notion de résilience est largement adoptée à travers le monde. Les interventions de l’homme vont donc dans ce sens : protection des réserves en eau, des berges, des bassins versants, promotion des usages raisonnés de l’eau pour les agriculteurs et les acteurs de l’industrie. Et surveillance. Surveillance des consommations, et des impacts des usages sur l’environnement. A ce stade, nos sociétés ont réussi à casser le lien entre une croissance économique basée – entre autres – sur la consommation d’eau et la dégradation de l’environnement.

L’eau est devenue un facteur clé pour tous les secteurs qui l’utilisent comme une ressource. Cela peut être à travers le fonctionnement optimal des chaînes de production par exemple. Ce changement de paradigme a permis de développer un management de la demande en eau très précis.

Des mesures comme le stockage de l’eau de pluie et la réutilisation des eaux usées sont monnaie courante. Les marchés mondiaux et les flux commerciaux sont surveillés par un système de certification mondial de l’eau qui assure que les produits « gourmands » en eau sont exportés à partir de zones relativement peu ou pas exposées à un quelconque stress hydrique.

La valeur économique de l’eau a été reconnue et toutes les externalités – liées à la ressource eau – liées à la vie des entreprises sont désormais  à sa charge et sous sa responsabilité juridique. Des mécanismes de régulation explicites, transparents et équitables sont en place pour répondre à la répartition de l’eau, la distribution, l’accès et la gestion…

Les ressources aquifères sont gérées de manière collaborative entre les multiples états impliqués, conduisant à une amélioration de la qualité de l’eau et de l’environnement en général, de fait, mais aussi des relations entre états par rebond. La capacité de ces derniers à collaborer pour améliorer l’usage d’une ressource commune en est la preuve !

Plus globalement, le rôle de l’eau dans les sous-tend tous les aspects du développement durable est devenu largement reconnu. Il est désormais universellement admis que l’eau est une ressource naturelle essentielle primaire sur lequel presque toutes les activités sociales et économiques et les fonctions des écosystèmes dépendent. 

Cela n’a pas été facile.

Traduit par S.L

Source : ONU

Google: DeepStereo transforme les photos en vidéos fluides

Deepstereo, c’est le nom de ce nouvel algorithme étonnant. Dans un article, les chercheurs de Google expliquent comment leur algorithme peut créer une nouvelles vue de la façade d’une maison à partir de seulement deux images en entrée, montrant la façade de deux angles différents. Il permet aussi de transformer une série de simples photos en vidéo fluide, comblant les vides entre les photos en recréant les images manquantes.

L’algorithme analyse les pixels des différentes vues d’une scène et produit les pixels de la vue inconnue. « Notre système est en mesure de générer de manière plausible des pixels selon la couleur, la profondeur et les textures précédentes apprises automatiquement à partir des données d’entraînement », expliquent les auteurs. Pour ce faire, il crée un espace en 3D en se servant des images 2D existantes comme plan de référence. Il va ensuite combler les vides en se basant sur les couleurs et les profondeurs des photos d’origine. (DeepStereo peut travailler sur 96 plans de profondeur). Le rendu des objets ou sujets en mouvement est assez bon : il peut reconstituer des voitures, des piétons… Ils apparaissent néanmoins d’une manière floue qui évoque le flou lié au mouvement.

Les données d’entraînement découlent de l’apprentissage automatique de leur algorithme (deep learning). Pour ce faire, les ingénieurs ont nourri le système avec une large quantité de séquences d’images issues de Google Street View. En retirant une image de chacune des séquences, les techniciens ont pu entraîner Deepstereo à la reconstituer à partir de 5 autres images de la séquence. « Globalement, notre modèle produit des résultats convaincants, qui sont difficiles à distinguer immédiatement des images originales. Le modèle peut traiter une variété de surfaces traditionnellement difficiles, y compris les arbres et le verre », se félicitent les ingénieurs de Google. « Les principaux bénéfices de notre approche sont son universalité (nous exigeons seulement des ensembles d’images figées et nous pouvons facilement appliquer notre méthode à des domaines différents), et des résultats de haute qualité sur des scènes traditionnellement difficiles », préviennent-ils. Il est ainsi applicable aux collections d’images d’intérieur ou d’extérieur.

Les limites de l’algorithme Deepstereo

Le système n’est pourtant pas encore parfait. « Les objets visibles dans nos résultats comprennent une légère perte de résolution et la disparition des structures minces au premier plan. En plus, les objets partiellement cachés tendent à apparaître floutés dans l’image de sortie ». Cela provient du fait que DeepStereo ne peut pas traiter plus de cinq images de référence à la fois, limitant la précision et la résolution. Evidemment, le modèle est incapable de reconstituer des surfaces qui n’apparaissent dans aucune des images d’entrée.

Le travail de l’algorithme est extrêmement gourmand en ressources pour assurer sa puissance de calcul. Il faut environ 12 minutes sur une station de travail multicore pour rendre une image de 512 × 512 pixels. Pour le moment, les ressources demandées sont donc trop élevées pour en faire, par exemple, une application pour smartphone accessible à tous. Cependant, le système actuel n’exploite pas le modèle de façon optimale. Grâce à une meilleure implémentation, « ces temps pourraient certainement être réduits à queques minutes ou même quelques secondes », préviennent les ingénieurs. Dans cette optique, on peut imaginer que Google pourrait réfléchir à proposer une application grand public permettant de créer des photos ou vidéos à partir de photos d’archives.

Cet algorithme pourrait également avoir des applications en cinématographie, réalité virtuelle ou pour la stabilisation d’images. On songe aussi à une application évidente pour Google : l’algorithme pourrait permettre de se promener dans Google Street View en vidéo, comme si vous y étiez !

Deepstereo, des images en vidéo

Par Matthieu Combe, journaliste scientifique
 

Et aussi dans les
ressources documentaires :

Et aussi dans l’actualité :

Le gras devrait être considéré comme la sixième saveur, selon des chercheurs

Cette nouvelle saveur devrait être appelée « oleogustus » du latin Oleo, huileux et gustus pour goût, ont expliqué ces scientifiques de l’Université Purdue (Indiana), dont l’étude est publiée dans la revue britannique Chemical Sense.

« La plupart des graisses que nous consommons se trouvent sous la forme de triglicérides, des molécules formées d’acide gras », explique Richard Mattes, professeur de science de la nutrition à l’Université Purdue et principal auteur de ces travaux.

« Les triglycérides donnent des textures agréables aux aliments comme surtout l’onctuosité mais ne sont pas vraiment des stimulants gustatifs », précise-t-il dans un communiqué.

Pour tenter de cerner la saveur unique de ces acides gras, ces chercheurs ont fait appel à une centaine de participants à qui ils ont demandé de classer le goût par rapport aux saveurs de base.

Ils ont tous estimé que le goût des graisses était unique et différent de ceux des autres échantillons testés, certains le jugeant amer, irritant voire déplaisant.

« Le goût de ces acides gras lui-même n’est pas plaisant et quand leur concentration est élevée dans des aliments, il y a un phénomène de rejet par la personne qui les consomme comme si la nourriture était rance », relève le professeur Mattes qui étudie les mécanismes et les fonctions du goût.

Mais poursuit-il, à faibles doses, le goût de ces acides gras peut améliorer la saveur tout comme des substances amères peuvent donner une touche exquise au vin, au café ou au chocolat.

Outre cette étude, ce scientifique analyse avec son équipe des données, provenant d’un millier de participants, portant sur la génétique de la saveur du gras.

La découverte sur le goût unique des acides gras pourrait aider l’industrie agroalimentaire à produire des substituts à ces substances. Jusqu’à présent, ces produits de substitution ne reproduisent que la structure des gras, mais pas leur saveur, expliquent les chercheurs.

La biologie moléculaire a montré que le salé et l’acide étaient très proches l’un de l’autre et se distinguaient fondamentalement du sucré et de l’amer.

Les récepteurs du sucré et de l’amer sont en effet très différents de ceux de l’acide et du salé, expliquent les scientifiques. Les premiers font partie des récepteurs couplés aux protéines dites G (RCPG) dont la découverte a valu le prix Nobel de chimie aux américains Robert Lefkowitz et Brian Kobilka en 2012.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »