La voiture auto-nettoyante, selon Nissan

Finis, les seaux d’eau savonneuse et les chiffons doux pour laver sa voiture le dimanche ? Obsolètes, les stations de lavage automobile ? Sans aller aussi loin, c’est néanmoins un pas dans cette direction que vient d’effectuer la branche européenne du géant automobile Nissan, en annonçant avoir développé une « peinture innovante qui repousse la boue, la pluie et la poussière de tous les jours ». Vous l’aurez compris, Nissan vient de mettre une roue dans l’univers des technologies hydrophobes.

Les ingénieurs du Centre Technique Européen du constructeur japonais, à Bedfordshire (Angleterre) ont appliqué sur un de leurs modèles une peinture aux propriétés à la fois super-hydrophobe et oléophobe, baptisée Ultra-Ever Dry, développée et brevetée par UltraTech International. Le cobaye ? Une Nissan Note deuxième génération, un petit break à tendance monospace.

Bien que la technologie Ultra-Ever Dry ait déjà été utilisée dans de nombreux domaines, Nissan se targue d’être le premier à l’avoir appliquée sur une carrosserie.

Hydrophobie et super-hydrophobie

L’hydrophobie se définit assez simplement : l’angle de contact d’une goutte d’eau, lorsqu’elle est sur une surface plane (localement), doit dépasser les 90 degrés. Au-delà de 150°, la surface est alors considérée comme étant super-hydrophobe. Un angle de contact égal à 180° signifie que la goutte d’eau est complètement sphérique, repoussant la zone de contact jusqu’à un simple point. À titre d’exemple, le Téflon d’une poêle n’est qu’hydrophobe, l’angle de contact moyen étant de 95°.

La super-hydrophobie présente de nombreux intérêts : outre ses évidentes qualités d’imperméabilisation, elle permet de lutter assez efficacement contre le gel, souvent fatal pour les isolants électriques, les lignes à haute-tension, ou le revêtement des ailes d’un avion. Elle est également très efficace pour lutter contre la corrosion, l’accumulation de crasse et le « fouling », la colonisation d’un substrat (souvent immergé) par certains organismes.

Des tests très concluants

Les tests effectués sur le petit break se sont avérés jusqu’ici très concluants, comme peut l’attester la vidéo qui suit. On y voit une Nissan Note dont la carrosserie n’a été qu’à moitié traitée avec de la peinture Ultra-Ever Dry, laissant peu de place au doute quant à l’efficacité du produit.

La volonté de Nissan est claire : s’affirmer comme un constructeur à la pointe de l’innovation tout en restant à l’écoute des menus problèmes qui font le quotidien des conducteurs, allant jusqu’à fanfaronner que « La Nissan Note a été conçue minutieusement pour libérer nos clients de tout stress relatif à la conduite », à travers la voix d’une responsable du pôle Marketing, Geraldine Ingham. Le constructeur japonais ne compte pas proposer sa peinture super-hydrophobe en série pour le moment, mais réfléchira à la proposer en option, ou sur le marché des pièces détachées.

Par Moonzur Rahman

« Les ingénieurs sont directement concernés par l’éthique »

Michel Jonquières, vous êtes co-fondateur de l’Académie de l’éthique, de quoi s’agit-il ?

Michel Jonquières.  C’est une association qui s’emploie à défendre l’éthique sous toutes ses formes, qui édite un bulletin trimestriel ainsi qu’une revue sur des sujets relatifs à l’éthique.

Comment définissez-vous l’éthique ? Et en quoi cela concerne-t-il les ingénieurs au point d’en éditer une ressource documentaire ?

Michel Jonquières. Chacun a sa propre définition de l’éthique, ne serait-ce que selon sa culture… les anglais parlent d’ailleurs d’ « ethics », au pluriel donc. Disons qu’il s’agit d’un comportement individuel ou collectif dans une situation donnée. Les ingénieurs sont directement concernés puisque les choix techniques qu’ils vont faire à un moment donné vont avoir des conséquences directes en matière d’éthique : si je choisis, ou accepte, de faire appel à tel sous-traitant étranger peu regardant sur les conditions de travail, je pérennise mon entreprise, mais je favorise peut-être l’exploitation d’enfants, par exemple. A l’inverse, si je fais attention à l’éthique de mes fournisseurs, je risque d’être trop cher, et donc de mettre la clef sous la porte. La solution peut être d’inciter mon fournisseur à améliorer les conditions de travail, à l’accompagner.

Dans l’ensemble, les ingénieurs se sentent-ils concernés par cette problématique ? Les entreprises sont-elles sensibilisées ? Quels sont les risques pour elles ?

Michel Jonquières : En général, les ingénieurs se sentent peu concernés, et les entreprises ne voient pas le danger, et y vont donc à reculons. Pourtant, les risques sont bien réels, et peuvent prendre de multiples formes : risques d’image et de réputation, financier, pénal… et ce dans tous les secteurs, quelle que soit la taille de l’entreprise. C’est tout l’intérêt d’Ingénierie et responsabilités : sensibiliser les ingénieurs, leurs ouvrir les yeux sur les conséquences de leurs choix, qu’ils méconnaissent trop souvent, et leur donner des méthodes concrètes pour, dans leurs process, obéir à une certaine éthique.

Comme par exemple ?

Michel Jonquières. Le management de l’éthique, qui consiste d’abord à faire un état des lieux des risques, selon les fonctions dans la société, puis d’établir une ligne directrice à appliquer au sein de la société. Après, pour s’assurer qu’elle soit suivie, c’est du management classique à mettre en place.

« Sensibiliser les ingénieurs, pour qu’ils obéissent à une certaine éthique »

Entretien avec Michel Jonquières, co-auteur pour Ingénierie et responsabilité

Techniques de l’Ingénieur : Michel Jonquières, vous êtes co-fondateur de l’Académie de l’éthique, de quoi s’agit-il ?

Michel Jonquières : C’est une association qui s’emploie à défendre l’éthique sous toutes ses formes, qui édite un bulletin trimestriel ainsi qu’une revue sur des sujets relatifs à l’éthique.

Techniques de l’Ingénieur : Comment définissez-vous l’éthique ? Et en quoi cela concerne-t-il les ingénieurs au point d’en éditer une ressource documentaire ?

Michel Jonquières : Chacun a sa propre définition de l’éthique, ne serait-ce que selon sa culture… les anglais parlent d’ailleurs d’ « ethics », au pluriel donc. Disons qu’il s’agit d’un comportement individuel ou collectif dans une situation donnée. Les ingénieurs sont directement concernés puisque les choix techniques qu’ils vont faire à un moment donné vont avoir des conséquences directes en matière d’éthique : si je choisis, ou accepte, de faire appel à tel sous-traitant étranger peu regardant sur les conditions de travail, je pérennise mon entreprise, mais je favorise peut-être l’exploitation d’enfants, par exemple. A l’inverse, si je fais attention à l’éthique de mes fournisseurs, je risque d’être trop cher, et donc de mettre la clef sous la porte. La solution peut être d’inciter mon fournisseur à améliorer les conditions de travail, à l’accompagner.

Techniques de l’Ingénieur : Dans l’ensemble, les ingénieurs se sentent-ils concernés par cette problématique ? Les entreprises sont-elles sensibilisées ? Quels sont les risques pour elles ?

Michel Jonquières : En général, les ingénieurs se sentent peu concernés, et les entreprises ne voient pas le danger, et y vont donc à reculons. Pourtant, les risques sont bien réels, et peuvent prendre de multiples formes : risques d’image et de réputation, financier, pénal… et ce dans tous les secteurs, quelle que soit la taille de l’entreprise. C’est tout l’intérêt d’Ingénierie et responsabilités : sensibiliser les ingénieurs, leurs ouvrir les yeux sur les conséquences de leurs choix, qu’ils méconnaissent trop souvent, et leur donner des méthodes concrètes pour, dans leurs process, obéir à une certaine éthique.

Techniques de l’Ingénieur : Comme par exemple ?

Michel Jonquières : Le management de l’éthique, qui consiste d’abord à faire un état des lieux des risques, selon les fonctions dans la société, puis d’établir une ligne directrice à appliquer au sein de la société. Après, pour s’assurer qu’elle soit suivie, c’est du management classique à mettre en place.

Transition énergétique: plus de 2.000 amendements en commission à l’Assemblée

Ce nombre, sans être un record, se situe dans la fourchette haute des suggestions de modifications apportées à un texte à l’Assemblée.

Quelque 2.118 amendements ont été enregistrés à ce jour, mais les rapporteurs du texte et le gouvernement peuvent encore en proposer. Certains amendements parlementaires pourraient cependant ne pas être recevables d’un point de vue financier.

Le projet de loi porté par la ministre de l’Ecologie Ségolène Royal et ces amendements seront examinés de mercredi à vendredi par une commission spéciale, composée de quelque 70 députés et présidée par François Brottes, par ailleurs président (PS) de la commission des Affaires économiques.

Pas moins de cinq rapporteurs ont été désignés: Marie-Noëlle Battistel (PS) pour les titres Ier (objectifs) et V (énergies renouvelables), Sabine Buis (PS) pour les titres II (bâtiments) et IV (économie circulaire), Philippe Plisson (PS) pour les titres III (transports) et VI (sûreté nucléaire et information des citoyens, Ericka Bareigts (PS) pour le titre VII (simplification des procédures) et le chapitre IV du titre VIII (outre-mer) ainsi que Denis Baupin (EELV) pour les chapitres Ier à III du titre VIII (gouvernance et programmation, pilotage de la production d’électricité, transition énergétique dans les territoires).

Le projet de loi sur la transition énergétique a pour ambition de faire de la France un pays plus économe en énergie et moins dépendant des énergies fossiles et du nucléaire.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Kepler-Cheuvreux : 100 milliards investis dans le solaire photovoltaïque et l’éolien produisent davantage d’énergie qu’avec le pétrole

Quelle quantité d’énergie produit-on en investissant $100 milliards dans le solaire photovoltaïque (PV) ?

Kepler-Cheuvreux part des données observées dans le monde réel. En 2013, 39 GW de PV ont été installés dans le monde, à un coût moyen de 3 dollars par watt installé. Ceci tous pays et toutes catégories confondus : solaire résidentiel et commercial, ainsi que grandes centrales au sol. En 2012 le facteur de capacité moyen du parc PV mondial était de 13%. Un dixième des 100 milliards est utilisé pour financer la maintenance des installations. Avec l’ensemble de ces hypothèses la production électrique est alors de 35 TWh par an. Pendant plus de 20 ans.

Il s’agit ici de l’énergie « brute ». Kepler-Cheuvreux s’est intéressé également à l’énergie réellement disponible en sortie de moteur thermique ou électrique, c’est-à-dire à l’énergie « nette ». L’efficacité énergétique de la prise à la roue d’un véhicule électrique est de 70 à 75%. Celle d’un moteur thermique de 20 à 25%. Kepler-Cheuvreux a retenu volontairement une hypothèse défavorable à l’électrique, 70%. Et favorable au moteur thermique, 25%. Pour le PV il faut aussi tenir compte des pertes électriques en transmission qui sont d’environ 2,5%: la consommation a souvent lieu à proximité de la production. Ce qui fait un rendement depuis la sortie du panneau PV jusqu’à la roue du véhicule électrique de 67,5%. Sur les 35 TWh bruts d’électricité PV obtenus chaque année, il reste 24 TWh nets.

Pétrole offshore profond ou des sables bitumineux : extraire le précieux liquide fossile devient de plus en plus difficile. Avec un coût d’équilibre des projets pétroliers à 100 dollars le baril, en investissant 100 milliards de dollars on peut extraire 1 milliard de barils, c’est-à-dire 85 TWh par an pendant 20 ans (1 million de barils = 1,7 TWh). A noter que la productivité des puits pétroliers durant les 10 premières années est meilleure que celle des 10 suivantes. En tenant compte du rendement de 25% du moteur thermique, il ne reste que 21 TWh nets sur les 85 TWh bruts.

Avec une période de référence de 20 ans, $100 milliards investis dans le PV permettent ainsi d’obtenir 14% d’énergie nette en plus que $100 milliards investis dans le pétrole.

Des hypothèses conservatrices

Le coût du watt PV installé varie selon les pays. En 2013, pour le solaire résidentiel (le plus coûteux), il était de $4,4 aux USA, $4 en France, $2,9 au Royaume-Uni et $2,1 en Allemagne. En 2013 le coût des grandes centrales solaires PV au sol aux Etats-Unis était inférieur à $2/W. Soit un tiers meilleur marché que l’hypothèse retenue par Kepler-Cheuvreux.

La faiblesse du facteur de capacité moyen retenu, 13%, qui est celui de l’année 2012, est lié au fait qu’une bonne partie des capacités PV dans le monde à cette époque étaient installées en Allemagne, où l’insolation est relativement faible. Le solaire PV se développe à présent partout dans le monde, y compris dans les pays du sud bien ensoleillés, ce qui fait monter le facteur de capacité moyen.

De grandes centrales PV au sol construites dans des régions très ensoleillés, comme par exemple dans le désert d’Atacama au Chili, permettent de produire bien davantage d’énergie qu’estimé par Kepler-Cheuvreux. Le facteur de capacité du solaire PV est dans cette région au ciel très pur supérieur à 30 %. Et non de 13%. Cela change sérieusement l’équation économique. Ce n’est pas un hasard si le géant français Total construit actuellement de grandes centrales PV dans ce désert Chilien. Ceci sans aucun système de subvention. L’électricité solaire sera vendue directement sur le marché. Total, avec ces projets solaires qualifiés de « marchands », envoie un signal très fort.

L’éolien est vraiment dans le vent

Concernant l’éolien terrestre, un investissement de $100 milliards permet de produire 117 TWh bruts par an pendant 20 ans. Et 76 TWh nets en sortie de moteur électrique. Autrement dit l’éolien terrestre est encore plus intéressant que le solaire PV et trois fois plus que les carburants pétroliers ! L’éolien offshore, même s’il est environ deux fois plus coûteux que l’éolien terrestre, reste cependant pertinent comparativement au pétrole.

L’ensemble du calcul Kepler-Cheuvreux (disponible pages 116 à 128 du rapport « Toil for oil spells danger for majors » publié le 15 septembre 2014 sous la direction de Mark C. Lewis) ne prend pas en compte les taxes sur les carburants pétroliers qui rendent l’électro-mobilité solaire ou éolienne encore plus séduisante pour le consommateur. Par exemple en France, les taxes (TVA et TICPE) doublent le prix du carburant, tandis que la production électro-solaire en autoconsommation n’est pas taxée. En outre « notre analyse ne prend pas en compte les avantages fiscaux dont bénéficient les voitures électriques comparativement aux véhicules au pétrole » précisent les experts. Il s’agit donc d’un comparatif vraiment fair play.

Le coût des batteries lithium, clé du basculement du monde vers l’électro-mobilité solaire

Mais le calcul de Kepler-Cheuvreux ne prend pas en compte non plus le différentiel de coût entre un véhicule thermique et un véhicule électrique équivalent, différentiel qui est lié au coût de la batterie. Tesla-Panasonic (technologie Lithium NCA) produit aujourd’hui les batteries automobiles les meilleures marché du monde, à environ 300 dollars par kWh de stockage, contre environ 500 $ pour la concurrence qui utilise des chimies différentes. L’objectif est de réduire de 30% ces coûts et ainsi de tomber à 200 $ grâce à une production en masse au niveau de la GigaFactory Tesla qui est en construction dans l’état du Nevada et qui délivrera 500 000 batteries par an. Le coût pourrait même tomber à 100$/kWh d’ici 2025 selon les analystes de Bloomberg Energy Finance et de Tesla Motors. A partir de ce seuil le prix d’achat d’un véhicule électrique, batterie de 60 kWh comprise ($6000, 4600€), sera similaire à celui d’un véhicule thermique équivalent, hors primes gouvernementales. La motorisation d’un véhicule électrique est bien plus simple que celle d’une voiture thermique.

Une batterie de 60 kWh permet d’avoir une autonomie de plus de 200 miles (321 km), ce qui est suffisant pour circuler partout grâce à un réseau de super-chargeurs de 130 kW. Trente minutes de charge, le temps d’un café et d’une petite pause recommandée par la sécurité routière, permettent de capter l’équivalent de 270 kilomètres. Le coût par automobiliste du réseau de super-chargeurs est modeste, de l’ordre de 5% du prix moyen d’un véhicule neuf en France. L’option d’accès aux super-chargeurs, option choisie par 90% des clients ce qui traduit une forte demande, est facturé 2000 dollars par Tesla. Mais l’électricité est alors offerte à vie. L’ensemble de l’Europe, des USA, du Japon et de l’est de la Chine seront couverts fin 2015. Il est dès à présent possible d’effectuer le trajet d’Oslo à la Côte d’Azur ou de Los Angeles à New-York.

L’infrastructure électrique pour répondre aux besoins de charges ordinaires hors grands trajets, est déjà partiellement en place : les véhicules électriques peuvent être chargés sur de simples prises domestiques.

Que les prix du baril montent ou baissent, la filière pétrolière est dans l’impasse

Si la demande en pétrole faiblit, ou si l’offre en carburants liquides est gonflée en injectant des agrocarburants, les prix du baril diminuent sur le marché des matières premières ce qui compromet l’équation d’équilibre financier des nouveaux projets d’extraction du pétrole, projets de plus en plus difficiles et coûteux.

Mais à l’inverse, dans le cas d’une forte demande mondiale les prix du baril de pétrole grimpent. Ce qui plombe la compétitivité de la thermo-mobilité pétrolière face à l’électro-mobilité solaire et éolienne.

Que les prix du baril soient à la baisse ou à la hausse, il n’y a pas d’issue de secours pour l’industrie pétrolière. L’électro-mobilité éolico-solaire devient ainsi l’investissement le plus intelligent, raison pour laquelle Kepler-Cheuvreux en informe ses clients. Les flux solaires et éoliens sont disponibles partout sur Terre, évitant ainsi les tensions pour l’accès aux ressources énergétiques.

Kepler-Cheuvreux a également réalisé des estimations sur des investissements qui seront menés en 2020 ou en 2035, et non en 2014. L’écart se creuse considérablement en faveur de l’électro-mobilité éolico-solaire. En 2035 l’EROCI net pour un investissement de 100 milliards de dollars sera pour le solaire PV de 33 TWh par an et sur 20 ans, contre 15 TWh pour la filière pétrole avec le baril à 145 dollars et 17 TWh avec le baril à 125 $. Et de 95 TWh pour l’éolien terrestre, soit environ 6 fois plus qu’avec le pétrole ! « Il est presque indécent de comparer les EROCI nets du pétrole et des renouvelables en 2035 » écrivent les analystes de Kepler-Cheuvreux tant ces énergies durables écrasent ce combustible fossile par leur compétitivité.

La flexibilité des batteries est utile pour favoriser l’intégration de hauts niveaux de solaire et d’éolien

Kepler-Cheuvreux souligne que, contrairement au réservoir de pétrole, la batterie des véhicules électriques n’a pas seulement un intérêt pour le véhicule lui-même, mais pour le système électrique dans son ensemble. Il est en effet possible de mettre les véhicules en charge précisément quand la production solaire ou éolienne est importante. Et à l’inverse d’injecter l’énergie électrique stockée dans les batteries (le Soleil en bouteille) vers le réseau électrique quand le vent et le soleil manquent. C’est le principe du V2G-G2V (Vehicule-to-Grid / Grid-to-Vehicule). Les propriétaires de véhicules électriques pourront ainsi s’enrichir en rendant service au réseau électrique. La valeur des batteries est donc double comparativement aux réservoirs de carburants pétroliers. « La flexibilité des batteries des véhicules électriques comparativement aux voitures à pétrole sera un avantage qui ira croissant » affirment les experts.

Un milliard (taille du parc automobile mondial en 2010) de batteries de 60 kWh constituent un réservoir de 60 TWh équivalent à 24 heures de demande électrique globale. Les voitures sont en moyenne garées 23 heures sur 24. Si les 2/3 des véhicules sont connectés à des prises de seulement 3 kW la puissance disponible est alors de 2000 GW. De quoi gérer les fluctuations d’un mix électrique global à très haute teneur en PV et éolien. La voiture électrique devient ainsi un cheval de Troie pour que les énergies renouvelables puissent conquérir le mix électrique mondial et repousser les centrales fossiles à une simple fonction de back-up de sécurité. Les centrales non flexibles, et donc inadaptées, disparaîtrons.

Au-delà des écologistes le PV et l’éolien suscitent un intérêt croissant des spécialistes de la finance

Kepler Cheuvreux, entreprise de services financiers, est le résultat de la fusion entre Kepler Capital Market et Crédit Agricole Cheuvreux opérée en avril 2013. Kepler Cheuvreux a conclu des partenariats avec UniCredit et Crédit Agricole CIB, deux des plus grosses banques européennes, pour leurs opérations sur les marchés de capitaux. Les experts de cette entreprise ne sont pas les seuls à souligner l’intérêt économique majeur et croissant du solaire PV et de l’éolien.

Citi Group, banque d’investissement basée à New York, a publié en août 2014 un rapport soulignant que d’un point de vue « purement économique », le solaire PV est appelé à jouer un rôle majeur dans le mix électrique global.

Début 2014 la banque britannique Barclays a dévalué les centrales thermiques des grands groupes électriciens Américains soulignant la menace croissante que fait peser le PV sur leur équation économique. Certains sauront s’adapter à cette révolution solaire. Les autres, par le simple mécanisme de la sélection naturelle, disparaîtront.

Enfin la banque Lazard vient de publier en septembre 2014 un rapport où elle estime que le PV et l’éolien terrestre sont à présent meilleurs marché que le gaz naturel aux USA, pays qui a lourdement investi dans le gaz de schiste. Selon le Financial Times les experts de Lazard ont constaté que le coût du MWh éolien non subventionné est tombé de $101 en 2009 à $37 en 2014 tandis que celui du PV non subventionné a chuté de $323 à $72 sur la même période. Le coût du MWh des centrales à gaz est de $61 à $87 aux USA, selon le prix du gaz et le facteur de capacité des centrales.

Le groupe français EDF a comme objectif de vendre en Grande-Bretagne le MWh du nouveau nucléaire (EPR) à un tarif d’achat (marketisé sous le terme de « strike price ») d’environ £92.50 ($150) à partir de 2023 et pour une durée de 35 ans, ce qui a été considéré par de nombreux experts Anglais, Allemands, Américains et Finlandais comme particulièrement anti-économique. Différents analystes estiment que le coût de production du MWh EPR sera de 80 à 100 € ($102 à $128). Le coût du MWh des anciennes centrales nucléaires Françaises déjà amorties est estimé par la Cour des Comptes à 59€ ($77).

Indépendamment des aspects sécuritaires, sanitaires, environnementaux et démocratiques, le coût et la lenteur de déploiement du nucléaire sont de sérieux obstacles pour l’avenir de la filière. Il est difficile de rivaliser avec le plus grand réacteur nucléaire naturel, libre et ouvert à tous : le Soleil.

Par Olivier Daniélo

Revue du web #66 : les vidéos les plus étonnantes de la semaine

Cette semaine dans la revue du Web

  • « DelflyExplorer », le drone libellule tout en légèreté ; 
  • « Full Turn », la 3D sans les lunettes et à 360 degrés ; 
  • Synchroniser Oculus Rift et un tour sur des montagnes russes ; 
  • Cheetah, robot-guépard de la Boston Dynamics, sans la laisse ; 
  • Le gadget (inutile?) de la semaine : la mitrailleuse à élastiques ; 
  • Et en bonus : le fabuleux secrétaire de David et Abraham Roentgen.

« DelflyExplorer », le drone libellule tout en légèreté : 

Tout vient à point à qui sait attendre… Il aura fallu neuf ans de développement et de dur labeur pour que les chercheurs hollandais de l’université de Delft réussissent à mettre au point leur petit bijou. Pour débuter notre soixante-sixième Revue du Web, penchons-nous sur le fruit de ces neuf années de gestation, « Delfly Explorer », une libellule robotique ultra-légère capable de produire des images en 3D. 

Semblant battre des ailes comme son alter-ego biologique, le mini-drone d’à peine 20 grammes embarque deux caméras miniatures basse-résolution qui lui permettent d’évoluer sans encombre dans son environnement, en créant des images tridimensionnelles traitées en temps réel pour guider le petit bolide. Pour affiner le calcul des trajectoires, un baromètre et un accéléromètre viennent parfaire la panoplie de notre drone-libellule, dont l’autonomie de neuf minutes est assurée par une petite batterie au lithium-ion polymère.

Bien que des applications militaires aient été envisagées, les concepteurs préfèrent imaginer des utilisations plus terre-à-terre, telles que le survol des champs pour surveiller le mûrissement des fruits, ou le survol de grands rassemblements (concerts, matchs) sans risquer de blesser qui que soit en cas d’avarie.

Ce n’est pas la première fois que la libellule inspire les scientifiques : au rayon biomimétisme, peut-être vous souvenez-vous de « BionicOpter », la très élégante libellule robot de la société allemande Festo dont nous vous parlions déjà ici.

« Full Turn », la 3D sans les lunettes et à 360 degrés : 

Marre du diktat des lunettes stéréoscopiques pour pouvoir profiter d’images en trois dimensions ? Le plasticien suisse Benjamin Muzzin se propose de dynamiter ces conventions avec « Full Turn », une installation ingénieuse et élégante qui permet de profiter de séquences en trois dimensions sans lunettes, de surcroît visibles à 360 degrés. Le jeune helvète n’invente rien, mais parvient intelligemment à créer des volumes animés en jouant, une fois de plus, un tour à notre cerveau.

Montées sur un axe vertical, le Suisse fait tourner deux tablettes HD collées dos à dos à près de 200 tours/minute à l’aide d’un petit moteur contrôlé par un Arduino, ne laissant guère le temps au cerveau de décortiquer les images qui défilent à trop grande vitesse. Résultat : les écrans se fondent peu à peu pour laisser apparaître de superbes volumes, un ballet entêtant d’images autour desquelles on peut tourner à loisir. Fort de son succès, Benjamin Muzzin se prend même au jeu de la démesure en imaginant un dispositif « avec des écrans plus grands, quitte à ce qu’on se prenne des rafales de vent dans la tête ».

Synchroniser Oculus Rift et un tour sur des montagnes russes : 

Oculus Rift n’est pas encore arrivé sur le marché qu’il fait déjà parler de lui presque toutes les semaines, tant l’attente et l’enthousiasme suscités par ce périphérique informatique de réalité virtuelle sont immenses. Dernière sortie du masque à image stéréoscopique déformée, conçu par une entreprise devenue filiale de Facebook : une équipe de chercheurs de l’université de Sciences Appliquées de Kaiserlautern, en Allemagne, a eu l’idée de synchroniser un tour en montagnes russes avec une virée virtuelle des plus impressionnantes, en portant les masques immersifs, remplaçant ainsi l’environnement « réel » par un environnement en réalité virtuelle.

Durant plusieurs mois, ces pionniers du virtuel ébouriffant ont effectué des batteries de tests sur les wagons seuls, puis en situation, afin d’assurer une synchronisation et une expérience optimales. Un assistant était au départ nécessaire à bord pour contrôler la synchronisation, qui est désormais prise en charge par un système automatique, aidé dans sa tâche par un capteur inductif placé sur la roue d’un wagon, afin de calculer la vitesse et de déterminer la position.

Détail intéressant : d’après les scientifiques, ce dispositif ne donnerait pas le mal des transports… L’une des pistes étudiée serait que le masque immersif pourrait éliminer le… vertige.

Cheetah, robot-guépard de la Boston Dynamics, sans la laisse : 

Les éminences grises de la Boston Dynamics l’avaient promis, ils l’ont fait. La très prolifique société américaine, dont la réputation n’est plus à faire, s’est encore une fois associée au prestigieux Massachusetts Institute of Technology (MIT) pour libérer Cheetah de ses câbles afin de le tester en conditions réelles et en environnement extérieur.

Vous vous souvenez forcément de Cheetah, le robot-guépard qui court plus vite qu’Usain Bolt. Les chercheurs se sont inspirés des mouvements de l’animal terrestre le plus rapide au monde, le guépard, pour concevoir leur bébé, allant jusqu’à baptiser leur robot du nom du guépard indien, animal maintenant présumé disparu.

Amélioré d’un algorithme lui permettant désormais de sautiller, Cheetah peut courir seul à une vitesse approchant les 16 kilomètres par heure, et se débarrasser d’obstacles d’une trentaine de centimètres de hauteur.

Cheetah a été développé par la Boston Dynamics sous la houlette de la DARPA (Defense Advanced Research Projects Agency), agence affiliée au Département de la Défense américain, et chargée de la recherche et du développement des nouvelles technologies destinées à des fins militaires. Une nouvelle batterie de tests serait en route, tests qui pourraient s’avérer concluants si l’on doit se fier au prestige dont jouit la Boston Dynamics dans la communauté scientifique, notamment grâce à Alpha Dog ou à Big Dog, des mules-robots particulièrement impressionnantes, – ou encore grâce à Petman, leur robot anthropomorphe. Les champs d’applications pourraient être assez nombreux, bien que le Pentagone pense évidemment à des débouchés… militaires. 

Le gadget (inutile?) de la semaine : la mitrailleuse à élastiques

Si votre souhait ultime est de faire mordre la poussière à vos collègues de bureau qui ne respectent pas les deadlines, à votre voisin qui arrose ses plantes avec 200 litres d’eau, ou à votre sœur pendant que maman a le dos tourné, notre gadget (inutile?) de la semaine, une mitrailleuse à élastiques, semble être un bon compromis fait pour vous. Direction l’Ukraine où se trouve Alexander Shpetniy, brillant étudiant en art et design à l’université de Lugansk, dont la passion pour le modélisme lui aurait permis de conceptualiser et de donner vie à cet ersatz d’arme automatique, capable de tirer 672 « munitions » à la suite.

Équipée d’un simple petit moteur pour entraîner le cylindre et imiter le mouvement d’une bonne vieille mitrailleuse rotative Gatling, l’arme ne fait pas de cadeau dans la vidéo qui suit, balayant les disquettes comme autant de vulgaires fétus de paille. Disponible en quatre coloris (bois naturel, finition « bois brûlé », noir ou camouflage), nul doute que l’on va – enfin – vous respecter. Pour commencer à faire pleuvoir les élastiques, vous pouvez faire un tour sur la page kickstarter du projet ici.

Le très astucieux dispositif pour recharger la mitrailleuse :

Bonus : le fabuleux secrétaire de David et Abraham Roentgen

Pour conclure notre soixante-sixième Revue du Web, venez vous immerger dans le monde fabuleux d’Abraham et de David Roentgen, deux talentueux ébénistes allemands du XVIIIe siècle, ayant notamment fait leurs armes à la cour du roi Louis XVI. Jalousés par toute la corporation des ébénistes tant leur travail était à la fois inventif et soigné, le père Abraham et son fils David ont réalisé, parmi une pléthore de petites merveilles, ce fabuleux meuble – désormais exposé à Berlin – dont la marqueterie raffinée éclipse difficilement le côté hautement ludique.

A la fois secrétaire, cabinet d’écriture et horloge, ce joyau de l’ébénisterie est un véritable hymne à la facétie. Chaque compartiment semble multiple, chaque tiroir semble n’être là que pour en escamoter un autre, apparaissant ou disparaissant au gré des mécanismes que l’on actionne, à l’aide de petits boutons dissimulés ou de clés tournées à l’envers comme à l’endroit. Une multitude de rangements et de cachettes viennent réveiller notre âme d’enfant, mais attention : mieux vaut suivre le fil, si vous ne voulez pas perdre vos affaires pour toujours.

Par Moonzur Rahman

La NASA confie à Boeing et SpaceX la construction des navettes spatiales reliant la Terre à l’ISS

Ce n’était plus tenable. Débourser 70 millions de dollars à chaque homme prenant place à bord de la navette à destination de l’ISS est exorbitant. Mais le pire est que cet argent aille dans les poches … des Russes. Une situation inacceptable pour les Américains qui devaient s’affranchir de cette dépendance soviétique le plus vite possible. Or, depuis 2011, les astronautes se rendent à l’ISS grâce aux vaisseaux russes Soyouz. Un monopolesoviétique qui devrait prendre fin dès 2017 grâce à la construction de deux vaisseaux 100% US.
Ainsi, la Nasa vient de confier à des constructeurs américains la mission de bâtir deux vaisseaux privés pour un montant estimé de 6,8 milliards de dollars. Le projet de Boeing est une capsule de sept places, la CST-100, qui pourra être lancée par la fusée Atlas, elle-aussi fabriquée par Boeing, depuis la base américaine de Cap Canaveral. De son côté, SpaceX fabriquera la capsule Dragon V2, elle aussi de sept places et qui sera lancée par sa fusée Falcon 9 du pas de tir 39A du Centre spatial Kennedy en Floride.
Le choix de ces deux sociétés n’est pas anodin puisque Boeing est le maître d’œuvre de l’ISS et SpaceX est le constructeur de la capsule Dragon qui a déjà transporté du fret entre la terre et l’ISS lors de cinq vols.
Le contrat qui lie la Nasa et les deux constructeurs porte sur la gestion de 6 missions vers l’ISS. « Aujourd’hui, nous avons fait un pas de géant qui nous rapproche de la possibilité de lancer nos astronautes depuis les Etats-Unis dans un vaisseau spatial américain » s’est immédiatement félicité l’ancien astronaute Charles Bolden.
Une indépendance bienvenue alors que les tensions antre les Etats-Unis et la Russie sont à leur paroxysme.

Par Audrey Loubens, journaliste scientifique

Le vaccin contre Ebola semble efficace

Alors que l’épidémie fait rage en Afrique de l’ouest avec déjà plus de 2 600 victimes, les Etats-Unis testent sur les humains un vaccin qui, s’il se révèle efficace, permettra enfin de stopper la maladie. Car pour l’instant, aucun vaccin n’est homologué, et le taux de létalité du virus Ebola peut atteindre 90%. Autant dire que les espoirs suscités par la mise au point d’un vaccin sont immenses.
Face à l’ampleur sans précédent de l’épidémie, la communauté internationale unit donc ses forces pour affronter ce virus particulièrement virulent et aux symptômes impressionnants : forte fièvre, hémorragies internes et externes… Ebola est un virus tellement terrifiant qu’il est au cœur de nombreux fictions comme 28 jours plus tard de Danny Boyle ou la licence de jeu vidéo Resident Evil dans laquelle le virus Ebola est la souche utilisée pour infecter les hommes et les transformer en zombies.
Pour que la réalité ne dépasse pas la fiction, des tests débutent avec en ligne de mire la vaccination des hommes.
Les équipes du National Institute of Health (NIH) travaillent à l’élaboration d’un vaccin depuis les années 2000. Celui actuellement testé a été développé par le laboratoire britannique GlaxoSmithKline en collaboration avec le NIH. Il a été élaboré à partir de trois précédents vaccins expérimentaux, préalablement testés avec succès sur des macaques en 2003.
Administré à 10 personnes saines, il n’a pas provoqué de mauvaises réactions. L’expérimentation va se poursuivre avec 10 autres volontaires sains eux aussi.
En parallèle, ce même vaccin sera testé en Angleterre sur 60 autres personnes en bonne santé.
L’objectif est de vérifier que ce vaccin déclenche bien une réaction immunitaire suffisante pour protéger le sujet face au virus Ebola.
L’urgence de la situation pousse les autorités sanitaires à suivre un protocole de tests accéléré.
Si ces bons résultats se confirment, l’OMS prévoit d’utiliser ce vaccin dès le mois de novembre sur les professionnels de santé qui luttent sur le terrain, au Liberia, au Sierra Leone, en Guinée ou encore au Nigeria. De quoi protéger les soignants qui, en contact direct avec les malades, sont nombreux à être contaminés, à l’image de la première Française infectée à Monrovia, capitale du Liberia, une jeune volontaire de Médecins sans frontières. Placée en isolement, elle vient d’être rapatriée en France.

Par Audrey Loubens, journaliste scientifique
 

Déchets radioactifs : comment préserver la mémoire ?

Comment assurer la préservation des documents, des connaissances et de la mémoire des déchets radioactifs génération après génération sur plusieurs siècles et même millénaires? Cette question complexe intéresse les chercheurs et les professionnels. Le centre de stockage en couche géologique profonde, Cigéo, n’est pas encore autorisé. Mais les experts commencent à travailler sur la préservation de la mémoire. Ils s’intéressent à plusieurs pistes en parallèle, qui seront mises en oeuvre après la phase d’exploitation de Cigéo, soit dans plus d’un siècle.

90% des déchets radioactifs produits aujourd’hui sont destinés à être stockés dans des centres de stockage de surface dédiés, où ils seront surveillés pendant au moins 300 ans. Ce temps est nécessaire pour faire décroître suffisamment leur activité nucléaire. Par ailleurs, si Cigéo voit le jour à Bure (Meuse), les premiers colis devraient y arriver en 2025. Destiné à accueillir des déchets radioactifs hautement radioactifs à vie courte ou à vie longue et des déchets de moyenne activité à vie longue,  ce centre devrait rester inaccessible à 500 mètres de profondeur, pendant 100 000 ans. 

La responsabilité collective impose donc de réfléchir à des moyens innovants pour tout faire pour ne pas oublier ces déchets. Car il faudra que les scientifiques et responsables du futur puissent suivre leur évolution, les surveiller et empêcher les intrusions sur plusieurs millénaires. En France, il revient à l’Andra de travailler sur ces questions capitales de transmission de la mémoire. En 2011, l’Agence pour l’Energie Nucléaire (AEN) a également créé un groupe de travail comprenant notamment les agences en charge de la gestion des déchets radioactifs de plusieurs pays afin de partager des résultats de recherches sur la mémoire. 

Un site de stockage déjà surveillé pour 300 ans

L’Andra gère trois sites de déchets radioactifs faiblement et moyennement radioactifs entreposés en surface. Situé sur la commune de Digulleville, à 20 kilomètres au nord-ouest de Cherbourg-Octeville, le centre de stockage de la Manche est le premier et le seul centre français de déchets radioactifs entré en phase de surveillance en 1994. La transmission de la mémoire doit y être assuré pour au moins 300 ans. 

Une panoplie de documents d’archives doivent y assurer la mémoire. Une mémoire « détaillée » est imprimée en 3 exemplaires et conservée sur place, dans un autre lieu d’archivage de l’Andra et aux Archives nationales de France. Elle contient  plus de 11 000 documents, placées dans 700 boîtes. Une mémoire de synthèse de 169 pages est également conservée dans des lieux divers (mairies, notaires, associations…). Enfin,  à terme, existeront aussi une « mémoire simplifiée » (30 pages) pour la presse, les citoyens intéressés, ainsi qu’une « mémoire d’ultra synthèse » (1 recto/verso) à diffusion très large (grand public, écoles…). Ces documents sont imprimés sur papier permanent, susceptible d’être stable sur plusieurs siècles. La mémoire du site est également conservée, notamment au cadastre, afin d’en préserver l’intégrité, ou, au moins, s’assurer que d’éventuels travaux ou aménagements seront faits en toute connaissance de cause.

Enfin, tous les 10 ans, un collège d’experts internationaux se réunira pour évaluer l’accessibilité et la clarté des archives du centre de la Manche, en se mettant en situation, comme s’ils les découvraient dans le futur. Les résultats permettront d’amender le contenu des documents au fur et à mesure. 

Comment passer de 300 ans à plusieurs millénaires?

Pour assurer la mémoire du projet de stockage géologique profond Cigéo, la mémoire doit être renforcée. En partant de la situation de référence de son centre de stockage de la Manche, l’Andra imagine depuis 2010 de nouvelles solutions. Dans ses travaux, elle s’intéresse aux 3 canaux indissociables de la mémoire identifiés par les experts : le message à transmettre, les supports physiques pour conserver les informations et les relaisà utiliser pour préserver et transmettre la mémoire. 

Comment transmettre un message ? Les générations futures pourraient-ils déchiffrer et comprendre l’intégralité des documents? Faut-il utiliser une langue, des textes, des symboles ou des oeuvres d’art ? Les chercheurs tentent de comprendre  pendant quelle durée raisonnable les langues actuelles ou mortes peuvent être connues, et par conséquent quelles pourraient être les solutions de communication lorsque ces langues ne seront plus utilisées, voire seront tombées dans l’oubli. Premier enseignement : il n’existe pas de langage universel compréhensible par tous.  Il faut donc choisir la langue qui aura le plus de chance d’être encore utilisée dans plusieurs siècles, accompagnée de messages préventifs en plusieurs langues, ou bien utiliser une langue morte, par définition figée. Mais saura-t-on encore déchiffrer les langues mortes dans plusieurs milliers d’années ? Une autre question demeure à l’étude : Quel sens donner au message pour inciter nos descendants à déchiffrer les documents plus détaillés avant de ne s’aventurer dans le centre de stockage ? La curiosité humaine pourrait pousser les aventuriers du futur à s’aventurer dans le centre de stockage, même en présence de messages de dangers de mort.

Quel matériau est assez fiable pour résister aux attaques du temps : du papier permanent, des gravures sur des disques de saphirs ? Quels marqueurs utiliser pour désigner le site ? Lorsque le site sera tombé dans l’oubli, il faudra que les géologues du futur puissent comprendre sa singularité. L’Andra étudie, par exemple, la pertinence d’un marquage archéologique du site par dispersion d’artéfacts. Il s’agirait de déposer volontairement de petits objets sans valeur, mais particulièrement durables, disposés de manière à attirer l’attention sur la singularité du site, et porteurs d’un message simple indiquant un danger en sous-sol.

Les travaux de l’Andra cherchent à comprendre les  causes et des conséquences des pertes d’archives. A quels relais confier la mémoire ? Des institutions, des sociétés des artistes…?  L’une des pistes étudiée est de parier sur la mémoire collective d’une société. Pour ce faire, elle parle des déchets radioactifs aux citoyens d’aujourd’hui. Elle envisage également  d’initier un « rite » annuel pour réunir les riverains autour du site. Difficile à imaginer lorsque l’on connaît l’opposition des riverains à ce genre de projets.

Plusieurs autres pistes sont à l’étude. En vrac : archiver les revues de presse,  conserver des objets symboliques de la vie du centre pour de futurs musées ou expositions, recueillir des témoignages de riverains et d’anciens collaborateurs, placer progressivement des objets marquants autour du site pour interpeller les visiteurs, poser des stèles en pierre pour mettre en scène le message, installer une œuvre d’art de grande taille  pour assurer le marquage à long terme du site…

L’ensemble des pistes étudiées montrent la complexité de cette question. Il n’existe aucun moyen de préservation unique qui soit optimal à toutes les échelles de temps. Tous les canaux de communication doivent être étudiés. Imaginons que l’Homme de Néandertal ait souhaité nous laisser un message, il y a 50 000 ans. L’aurions-nous compris? Les experts actuels veulent parier sur l’intelligence d’aujourd’hui et l’expertise, bien plus développée qu’à l’époque. Les déchets entreposés dans Cigéo devront quand à eux rester enfermés pendant 100 000 ans. Il ne reste plus qu’à espérer qu’ils n’en seront pas déterrés par une « découverte archéologique exceptionnelle » dans le futur.

Par Matthieu Combe, journaliste scientifique

L’Arabie Saoudite laisse filer sa part de marché américaine de pétrole

Ces importations étaient de 10 millions de barils par jour en Juillet 2010, elles atteignent encore les 7,6 millions de barils par jour en ce début Septembre 2014 (Figure.1), le complément de charge des raffineries étant assuré par les extractions locales et une part des condensats d’extraction de gaz naturel conventionnel et de gaz de schistes.

  • Figure.1 : flux des importations de pétrole aux Etats-Unis (moyenne sur 4 semaines mobiles en milliers de barils par jour (EIA)

 

Les trois grands pays importateurs de pétrole aux Etats-Unis sont traditionnellement le Canada, l’Arabie Saoudite et le Mexique. Ils représentent à tous les trois entre 4 et 5 millions de barils/jour de pétrole importé aux Etats-Unis.

Dans cette période de baisse des cours du baril il est intéressant de comparer les parts de marché relatives de l’un et l’autre de ces fournisseurs. Alors que l’Arabie Saoudite durant une large part de 2013 et le premier trimestre 2014 avait assuré des livraisons assez stables à hauteur de 1,5 million de barils par jour et donc prenait des parts de marché, pour une demande globale en déclin, il est maintenant possible de constater qu’elle vient de ramener ses livraisons au mois d’Août 2014 vers un million de baril par jour.

D’après Bloomberg, le prix du pétrole en provenance d’Arabie dans le Golfe du Mexique n’a été proposé au mois d’Août qu’avec une faible remise de 48 cents par rapport au prix local du moment qu’est le LLS (Light Louisiana Sweet).

De toute évidence (Figure.2) c’est le pétrole canadien qui a pris sa place.

  • Figure.2 : Etats-Unis. Importations de pétrole, par pays d’origine, en milliers de barils par jour (EIA)

 

Ces données sont cohérentes avec une décision probable de l’Arabie de moins alimenter les marchés, pour soutenir les prix, en réduisant ses livraisons en premier lieu du marché Nord-Américain le moins rémunérateur.

A abandonner des parts de marché, autant le faire là où les prix sont cassés, voila une réaction commerciale de bon sens.

Par Raymond Bonnaterre

Le marché de la mobilité hydrogène sera-t-il compétitif?

Dans la nouvelle note d’analyse de France Stratégie (l’ancien Commissariat général à la stratégie et à la prospective), Etienne Beeker, expert en énergie, analyse les coûts économiques présents et futurs de l’hydrogène-énergie. Il y présente une filière non mature, qui ne sera, selon lui jamais compétitive. La filière réagit dans un communiqué détaillé en répondant point par point à ce qu’elle juge être des contre-vérités.

La mobilité hydrogène coûte-t-elle trop cher?

L’hydrogène peut être produit par électrolyse de l’eau ou par  vaporeformage du gaz naturel. Selon la note de France Stratégie, il faudrait que le prix de l’hydrogène produit par électrolyse soit identique à celui du vaporeformage pour que la mobilité hydrogène puisse se développer. 

Mais « l’objectif n’est pas de produire via l’électrolyse un hydrogène au prix de l’hydrogène produit via un SMR [Steam Methane Reforming=vaporeformage], mais d’être compétitif sur le marché que l’on vise », répond l’AFHYPAC.

L’hydrogène produit par électrolyse doit en effet être compétitif face à l’essence et au diesel, pas forcément face à l’hydrogène produit par vaporeformage. Et c’est déjà presque le cas. En effet, si l’on prend une voiture qui consomme 6L/100 km et de l’essence à 1,5 €/L, alors la dépense des ménages est de 10€ pour 100 km. Du côté de l’hydrogène, un véhicule consomme 1 kg/100 km. Puisque environ 5€/kg sont nécessaires pour amortir une station de distribution d’hydrogène fonctionnant à 700 bars, cela signifie que le coût de production d’hydrogène par électrolyse doit être inférieur à 5 euros. Aujourd’hui, avec de l’électricité à  60€/MWh, la filière hydrogène est capable de produire de l’hydrogène entre 5 et 10 euros le kg dans la station service hors taxe. D’après la prospective d’Etienne Beeker, ce coût devrait baisser à 3,7€/kg dans le futur. L’hydrogène produit par électrolyse de l’eau pour la mobilité serait alors complètement compétitif.

Tous les calculs du rapport de France Stratégie sont réalisés hors taxes, sans considérer la taxe intérieure de consommation sur les produits énergétiques (TICPE, anciennement « taxe intérieure de consommation sur les produits pétroliers » ou TIPP). Or, si le prix hors taxes de l’hydrogène est le double, voire le triple de celui des carburants conventionnels à la pompe, une fois que l’on ajoute la TICPE aux carburants fossiles, cet écart disparaît. « A ce stade, il n’y a pas le contenu TICPE, mais c’est un choix politique de savoir si l’on veut taxer cet hydrogène qui, avec l’électrolyse, n’est pas un hydrocarbure », assure Pascal Mauberger, Président de l’AFHYPAC et Président du Directoire de la start-up française McPhy Energy. Et pour cause : lorque vous rechargez un véhicule électrique à batterie, vous ne payez pas non plus la TICPE car cette mobilité est considérée comme décarbonée, sans utilisation de produits pétroliers.

La filière hydrogène est d’ailleurs actuellement en discussions avec les instances nationales et européennes sur ce point. « Avec la taxe de vente, mais sans la taxe de produits pétroliers, l’hydrogène peut se vendre à parité avec le diesel », prévient Pascal Mauberger. D’ailleurs, l’hydrogène alimente déjà 208 stations services pour près de 2000 véhicules routiers à travers le monde.

Pourquoi utiliser l’électrolyse de l’eau?

« Si l’on veut développer de l’hydrogène énergie, ça ne peut être qu’avec l’électrolyse de l’eau, car sinon autant mettre le gaz naturel dans le véhicule directement », rappelle Pascal Mauberger. Même si le coût de production de l’hydrogène par électrolyse de l’eau reste environ deux fois plus élevé que par vaporeformage. De plus, pour que cet hydrogène soit réellement « décarboné » et « écologique », il faut qu’il soit le plus possible produit à partir d’électricité fournie par des énergies renouvelables.

L’hydrogène serait d’ailleurs un bon moyen de valoriser la production des éoliennes, lorsque celle-ci est en surplus. Les électrolyseurs fonctionnent en effet en base avec l’électricité à prix de marché et lorsqu’il y a de la production éolienne en surplus à coût marginal nul, cela donne une rentabilité supplémentaire, ce qui fait baisser le prix de l’hydrogène à moins de 7 €/ kg. Ainsi, dans le cas le plus optimiste considéré, l’hydrogène coûterait moins de 3,7 €/ kg, pour un prix à la pompe inférieur à 10€/kg. Ce marché semble donc en réalité bien viable et même compétitif si l’on ne considère que le carburant. 

Pour être complet, il faut également s’intéresser au prix de la pile à combusible qui tourne autour de 30 000 euros, pour des véhicules vendus aux alentours de 50 000 euros. Les effets de volume devraient permettre de diminuer ces prix. « Les constructeurs pionniers dans la commercialisation des véhicules hybrides ont suivi la même stratégie d’introduction avec  des marchés précurseurs dans un premier temps pour ouvrir ensuite sur des marchés de plus grands volumes », conclut l’AFHYPAC.

Par Matthieu Combe, journaliste scientifique

Redéfinir la seconde

Des chercheurs du laboratoire XLIM de l’université de Limoges ont réussi à confiner des atomes ultra-froids dans une fibre optique creuse. Contrairement aux fibres optiques de type télécom, ces fibres creuses guident la lumière d’une autre façon puisque la gaine fonctionne comme un miroir.

En effet, la gaine qui entoure le cœur creux représente une bande interdite. Composée d’une grille de silice d’une épaisseur de l’ordre de la centaine de nanomètres, la gaine possède une structure qui permet le phénomène de réflexion : quand un photon est injecté, il n’a nulle part où aller, son seul mouvement possible est le demi-tour. Mais le cœur et la gaine étant deux entités distinctes, il est difficile de travailler avec des modes orthogonaux comme pour un résonateur, ce qui permettrait la cohabitation de deux modes.

Avec une fibre au couplage inhibé, il est possible de cumuler un mode guidé dans le trou et des modes dans la gaine quasi-orthogonaux avec celui du cœur. Le mode du cœur voit alors la gaine comme une bande interdite. 

Aujourd’hui, la seconde est définie à partir des oscillations de l’atome de césium comme étant la durée de 9 192 631 770 périodes de la radiation correspondant à la transition entre deux niveaux hyperfins de son état fondamental.

Une précision exceptionnelle mais qui pourrait être rapidement dépassée grâce aux transitions atomiques mesurées à des fréquences plus élevées, comme les fréquences optiques. Les horloges optiques sont au cœur du problème, ou plutôt de la solution en permettant de gagner un facteur  105 en précision. Reste à régler le problème de la fluctuation de la fréquence (f) avec le temps. Ce phénomène ∂f/fdoit impérativement être minimisé.

Une des façons d’y arriver est d’augmenter la densité du milieu. Cela améliore le rapport signal/bruit et offre un meilleur contraste. C’est ce qu’ont réussi à faire les scientifiques du groupe GPPM du laboratoire CNRS XLIM, en collaboration avec ceux de l’université de Tokyo. Ils ont appliqué leur savoir-faire en fibre creuse en fabriquant une fibre optique particulière, la Kagome hollow-core photonic crystal fibre, à l’intérieur de laquelle des atomes de strontium ont été confinés. Cet assemblage d’atomes en file indienne augmente le rapport signal/bruit sans altérer la précision du système.

 Ces travaux parus dans Nature Communications proposent donc une solution pour la fabrication d’horloges optiques compactes.

Par Audrey Loubens

Des cellules souches IPS transplantées pour la première fois sur l’homme

Une femme de 70 ans a accepté d’être la première à tenter un traitement à partir de cellules IPS. Ces cellules souches sont obtenues à partir de cellules adultes qui ont été rajeunies. Redevenues immatures et pluripotentes, elles retrouvent leur capacité de pouvoir se différencier en n’importe quelle cellule spécialisée. Le procédé a valu le prix Nobel de médecine en  2012 aux chercheurs japonais Shinya Yamanaka et britannique John Gurdon.

Depuis, le Japon mise beaucoup sur cette technique de soin. C’est donc tout naturellement qu’il devient le premier pays à réaliser la transplantation de cellules IPS sur l’homme. 

L’objectif premier n’est d’ailleurs pas de soigner la dégénérescence maculaire liée à l’âge (DMLA) dont souffre le cobaye, mais surtout de s’assurer que la transplantation ne provoque pas de cancer. 

L’équipe médicale de la Fondation pour la recherche biomédicale et l’Innovation (Ibri) de Kobe a collaboré avec Masayo Takahashi, directrice de projet à l’institut public Riken pour cultiver des cellules IPS fabriquées à partir des cellules adultes de la septuagénaire. Ces dernières ont ensuite été développées en cellules de la rétine puis transplantées dans le corps de la patiente. 

Il ne reste plus qu’à attendre les résultats, en espérant que l’état de santé du malade s’améliore et qu’aucun cancer ne se déclare. 

En parallèle, le Professeur Shinya Yamanaka a initié la création d’une banque mondiale de cellules IPS, dans l’objectif d’assurer à n’importe quelle personne dans le monde une source de cellules compatibles susceptibles d’être mobilisées rapidement en vue d’un traitement.

Par Audrey Loubens

La Bretagne à la pointe de la méthanisation

Pour lutter contre les algues vertes en Bretagne, la méthanisation des effluents d’élevage est une voie explorée. Au 1er janvier 2014, on recensait en Bretagne une puissance électrique installée de 11 MW sur 41 unités de production et de valorisation de biogaz en fonctionnement. Il y avait 28 installations agricoles (à la ferme, collective et centralisées), une unité utilisant la Fraction Fermentescible des Ordures Ménagères, 4 unités pour l’Industrie agro-alimentaire, deux unités en Installation de Stockage des Déchets Non Dangereux et 6 unités en stations d’épuration. 

En pays de la Loire, 19 installations agricoles sont également en service. A elles seules, les deux régions cumulent donc 47 unités agricoles, sur un total de 150 actuellement en activité en France. « Nos deux régions sont les plus actives en la matière. La forte présence de l’élevage et le développement de nombreuses » petites installations » à la ferme explique cette situation », affirme Sébastien Huet, chargé de la méthanisation à l’Ademe Bretagne. « Dans les autres régions, il y a proportionnellement plus de grosses installations », précise-t-il.

Que faire du biogaz produit ?

Les unités de méthanisation valorisent pour la plupart le biogaz en moteur de cogénération, produisant simultanément de l’électricité injectée sur le réseau régional et de la chaleur valorisée à proximité du lieu de production. Ceci s’explique par le fait que jusqu’en 2011, le tarif d’achat de l’électricité produit à partir de biogaz était le seul mécanisme de soutien. Depuis la publication des tarifs d’achat du biométhane injecté dans le réseau de gaz, plusieurs projets s’orientent vers cette valorisation du biogaz. 

En 2010, le pacte électrique breton a défini deux hypothèses de production d’électricité à partir de biomasse (bois + biogaz) : une hypothèse basse de 50 MW et une hypothèse haute de 120 MW dont 100 MW issu de biogaz. Mais l’injection de biométhane étant désormais possible dans le réseau de gaz naturel, les objectifs ont été modérés entre 50 et 80 MW électriques en 2020, pour laisser également la place à cette injection dans les projets. Fin 2014, la puissance électrique installée des unités de méthanisation devrait atteindre 20 MW. Pour quadrupler ce chiffre d’ici 2020, l’installation des projets devrait donc nettement s’accélérer.

A la ferme, les substrats utilisés se répartissent ainsi : 69% d’effluents d’élevage, 10% de cultures intermédiaires à vocation énergétique, 7% de déchets végétaux, 6% de déchets d’origine animale, 5% de cultures énergétiques et 3% de résidus de culture. « Les cultures intermédiaires à vocation énergétique sont des cultures intermédiaires qui sont implantées  entre deux cultures principales. C’est un peu la même philosophie que les cultures piège à nitrate (CIPAN) mais les CIVE sont implantées dans l’optique de les récolter pour être introduite dans le méthaniseur et produire de l’énergie. Etant implantées entre 2 cultures, elles n’entrent pas en concurrence avec les cultures alimentaires », explicite l’expert de l’ADEME. Les méthaniseurs bretons répondent donc pleinement à leur objectif : valoriser les effluents d’élevage, diminuer la pollution aux algues vertes, tout en produisant de l’énergie… Mais cela suffira-t-il à enrayer cette pollution tant décriée ?

Par Matthieu Combe, journaliste scientifique

Strati est la première voiture fabriquée en impression 3D

Pari tenu ! A l’occasion du salon IMTS qui s’est tenu à Chicago mi-septembre, une société un peu folle a décidé de fabriquer une voiture complète en utilisant la technique de l’impression 3D. Pour tenir ses objectifs, Local Motors avait préalablement sélectionné le meilleur design, celui de la Strati proposé par Michele Anoe. Le gros avantage réside dans son châssis qui peut être imprimé d’un unique bloc.

Ce projet s’est construit en partenariat avec le Maufacturing Demonstration Facility du département américain de l’Energie (DOE) pour la conception et le Cincinnati Inc pour la fabrication. Ces derniers ont mis à disposition une imprimante 3D de pointe, la Big aera additive manufacturing (BAAM), suffisamment grande pour imprimer un châssis de voiture et très rapide pour un délai de réalisation de seulement quelques heures grâce à un taux de déposition de 20kg/h de carbone renforcé de plastique, de l’acrylonitrile butadiène styrène (ABS). L’imprimante a été paramétrée à l’aide de la fabrication numérique directe qui permet de s’affranchir des contraintes liées aux techniques de moulage par injection par exemple.

Débutée le dimanche 6 septembre, il aura fallu moins de six jours pour fabriquer ce véhicule d’un tout nouveau genre et le faire rouler. Seul le moteur électrique a été rajouté. La Strati a donc pu être présentée le samedi suivant, avant la fin du salon.

Les visiteurs ont ainsi pu découvrir la première voiture fabriquée en impression 3D. Cette prouesse technologique prouve une fois de plus la puissance de cette nouvelle technologie incontestablement révolutionnaire.

Découvrez les images impressionnantes de l’impression de la Strati :

Par Audrey Loubens, journaliste scientifique

Mon iphone marche moins bien depuis la sortie du nouveau modèle : pourquoi ?

En précommande depuis le 9 septembre, la dernière version du smartphone de la marque à la pomme est disponible dans les magasins depuis le 19 septembre. Si de nombreux aficionados exultent et attendent avec impatience l’iPhone 6 et le 6 plus, cela pourrait être une très mauvaise nouvelle pour les détenteurs d’iPhone plus anciens. En effet, des soupçons pèsent sur le géant américain. Et s’il bridait les vieilles versions pour pousser à acheter le dernier modèle ?

Laura Trucco, étudiante à l’université d’Harvard de nature curieuse, a découvert que chaque sortie d’un nouvel iPhone provoquait une explosion de la requête « iPhone slow » sur Google. Les statistiques fournies par l’outil Google Trends, outil qui indique la fréquence des requêtes tapés dans le moteur de recherche, semblent donc indiquer que les smartphones deviendraient subitement  moins performants. Pire, ces contre-performances sont suffisamment notables pour alerter les consommateurs qui le vivent comme un problème et en cherchent la solution. Laura Trucco et son professeur d’économie ont publiés dans le New York Times un graphique de la fréquence de ces requêtes. On y observe des pics correspondant à chaque fois à la sortie d’un nouveau modèle. De quoi semer le trouble. D’autant que le phénomène ne s’observe pas chez les concurrents comme Samsung.

Toutefois, avant de clouer Apple au pilori de l’obsolescence programmée, il est intéressant de discuter la cause de cette baisse de performances. Une première hypothèse suppose que l’attrait pour tout ce qui est nouveau altère la perception des gens de telle sorte qu’ils ont l’impression que leur téléphone est de moins bonne qualité. Mais le fait que seuls les appareils Apple soient frappés de ralentissement dès un nouveau modèle sorti écarte cette explication. En revanche, il serait possible que le coupable soit à chercher dans les mises à jour du système d’exploitation. Optimisation à laquelle les anciens modèles réagissent mal, avec comme conséquence un ralentissement général de leur fonctionnement.

Apple serait donc responsable mais pas coupable. En attendant, il y a fort à parier que depuis quelques jours, nombre d’utilisateurs d’iPhone aient la mauvaise surprise de voir leur iPhone moins performant. De là à dépenser 1019€ pour l’iPhone 6 Plus 128 Go ? 

Par Audrey Loubens

L’OPEP pourrait, cet hiver, réduire ses extractions de pétrole d’un demi-million de barils par jour

Bien sûr Russes et représentants de l’OPEP nient avoir des discussions sur des objectifs communs de réduction des volumes d’extraction, mais il est utile de rappeler que leurs productions cumulées proches des 40 millions de barils/jour représentent autour des 55% du flux de production mondiale.

Leur puissance sur ce marché du pétrole leur donne un pouvoir considérable sur les prix. Seules des raisons d’ordre géopolitique, peuvent freiner leurs échanges vers de possibles accords.

Or, les discussions entre dirigeants US et l’Iran chiite, semblent avoir distendu les liens historiques entre Arabie Saoudite et Etats-Unis ce qui ne peut que favoriser une entente conjoncturelle sur le pétrole entre Russes et Saoudiens.

Les uns et les autres sont intéressés par un prix du pétrole nettement au-dessus des 100 dollars le baril, là est l’essentiel.

Par Raymond Bonnaterre

Toxev : la version 3.3 disponible

Les nouveautés

Audit des substances composant un produit, permettant de rassembler dans un tableau les caractéristiques de ces substances notamment :

  • étiquetage Annexe VI CLP
  • valeurs et types de VLEP
  • inscription à l’annexe 14 REACH y compris liste candidate
  • classement CIRC

Logiciels et outils intégrés :

  • HSESOFT-fds, de création et d’édition de fiches de sécurité produits, accessible par le menu contextuel des en-têtes de la grille d’inventaire
  • HSESOFT-étiquettes, de composition et d’édition d’étiquettes, accessible par le menu contextuel des en-têtes de la grille d’inventaire
  • HSE SOFT CLP simplifiant l’accès aux données du tableau 3-1 de l’annexe VI du CLP (filtres de recherche dans la liste des substances, libellé des mentions de danger, représentation des pictogrammes…)

Possibilité de préciser les organes cibles et les voies d’exposition pour les mentions de danger H370, H371, H372 & H373. Les libellés des organes sont calqués sur ceux introduits par les dernières ATP du CLP pour quelques substances de l’annexe 6. Les organes cibles sont tracés dans les documents d’exposition, fiches d’exposition et de prévention des expositions.

Validation des produits (version premium, facultatif).

Filtres de l’inventaire sur une phrase de risque, un pictogramme ou une chaîne de caractères.

Création de liens vers des sous-répertoires du répertoire pdf pouvant rassembler les FDS des produits des inventaires.

Mot de passe d’accès aux fonctions expertes (permettant de modifier les répertoires) étendu aux préférences de traçabilité.

Important : les logiciels Toxev et RiskEV ne sont plus commercialisés par Techniques de l’Ingénieur.

Il y a dorénavant plus d’un milliard de sites sur internet

Internet a fêté ses 25 ans en début d’année et le compteur d’internetlivestats.com indiquait que la toile comptait plus d’1,06 milliard de sites mercredi peu avant 00H00 GMT.

L’idée d’un réseau mondial connecté a été développée dans les années 1980 par le Britannique Tim Berners-Lee, qui n’était alors qu’un jeune ingénieur en informatique dans un laboratoire de physique en Suisse.

Il a développé un moyen de faire communiquer facilement entre eux plusieurs ordinateurs, ce qui a été le premier pas vers un phénomène qui a changé la vie de milliards de personnes.

Il a présenté son idée par écrit le 12 mars 1989, un jour qui est en général considéré comme la date de naissance du web.

Les militaires américains avaient étudié l’idée de connecter des ordinateurs en réseau dans les années 1950, et avaient lancé Arpanet en 1969, une sorte de précurseur d’internet.

Mais grâce au système de « Sir Tim », aujourd’hui âgé de 59 ans, les gens ont été en mesure de publier ce qu’ils souhaitaient sur des ordinateurs reliés entre eux par internet, ouvrant la porte à un gigantesque partage d’informations et à une explosion du nombre de sites.

Des moteurs de recherche géants comme Google ou Yahoo! ont ensuite été créés pour aider les gens à trouver les pages qui les intéressaient parmi la profusion d’informations postées.

Ainsi, rien que pour la journée de mardi, Google a enregistré plus de 3,1 milliards de recherches sur ses serveurs selon internetlivestats.com. Et près de 170 milliards d’emails avaient aussi été envoyés au cours des dernières 24 heures.

Toujours selon le compteur d’internetlivestats.com, la barre des 3 milliards d’internautes devrait aussi être franchie prochainement.

Le revers de la médaille est que l’électricité consommée pour faire fonctionner internet a généré au moins 2,17 millions de tonnes de dioxyde de carbone (CO2) rejeté dans l’atmosphère rien que pour la journée de mardi, selon internetlivestats.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Redémarrage d’un réacteur de Flamanville après un arrêt inopiné

L’unité de production numéro deux a été redémarrée lundi à 9H00 avant d’être recouplée au réseau à 18h00, a indiqué le service de presse de la centrale qui n’avait pas souhaité communiquer lundi soir.

Le réacteur s’était arrêté inopinément dans la nuit de samedi à dimanche à 0h48. Les réacteurs s’arrêtent automatiquement lorsqu’est détecté un dysfonctionnement pouvant avoir des conséquences en termes de sûreté.

EDF communiquera dans la journée sur les raisons de cet arrêt, a indiqué le service de presse.

Il s’agit du troisième arrêt inopiné d’un ou plusieurs réacteurs à la centrale de Flamanville depuis le début de l’année.

Début février, les deux réacteurs de la centrale s’étaient automatiquement arrêtés après un coup de foudre sur une ligne à très haute tension les reliant au réseau. Le réacteur 2 avait pu redémarrer le lendemain mais le réacteur 1 n’avait redémarré que le 5 avril après une réparation et un arrêt de maintenance, prévu au départ en avril, et finalement avancé de quelques semaines.

Et au début de l’été, le réacteur 1 a été à l’arrêt pendant 10 jours à la suite d’une panne.

Le réacteur 2 a par ailleurs été arrêté de façon volontaire pour les opérations habituelles de maintenance durant l’été.

En janvier, lors de la présentation annuelle de ses résultats, la centrale avait souligné n’avoir « enregistré aucun arrêt automatique de réacteur depuis plus de quatre années consécutives ».

La centrale de Flamanville a produit en 2013 environ 4,5% de l’énergie nucléaire française. Un troisième réacteur y est en construction.

clc/bar/jag

 

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

La Russie veut vendre quelques millions de tonnes de charbon à la Chine

Ces rejets proviennent à la fois de la combustion intensive des énergies fossiles, constituées essentiellement de charbon local ou importé, et de la production de ciment nécessaire à l’urbanisation, ce qui représente pas loin de 10% de ses émissions industrielles (0,9 milliard de tonne de CO2 par rapport à des émissions industrielles chinoises totales de 10,8 milliards de tonnes selon le néerlandais PBL).

Devant les difficultés que rencontre la Chine pour s’approvisionner en charbon peu onéreux, sa voisine russe,  par l’intermédiaire de la Société Rostec, vient de conclure un accord avec elle, pour vendre au chinois Shenhua dans les 20 millions de tonnes de charbon par an à partir de 2019, pour une durées estimée à 50 ans. Ces ressources seront extraites de gisements de la région Amour et seront transportées par rail vers un nouveau port vraquier qui doit être construit dans la région de Vladivostok pour assurer une navette maritime entre ce port et ceux de la Chine.

Je voudrais souligner ici, combien cet accord, certes marginal par rapport aux immenses quantités de charbon consumées chaque année par la Chine, illustre le dédain affiché par certaines nations devant les problèmes d’émissions de CO2 dans l’atmosphère terrestre. Cette attitude volontairement désinvolte montre combien les efforts déployés par certains pour limiter ces émissions mondiales sont illusoires, même si ces efforts, économiquement pénalisants, sont encore politiquement bien acceptés par les populations locales.

Rappelons que la France, nation exemplaire dans les rejets de CO2, présentait en 2012 une intensité d’émissions de gaz carbonique de 184 mille tonnes par milliard d’euros de PIB créés (374 millions de tonnes pour un PIB 2012 de 2031 milliards d’euros), soit autour des 142 mille tonnes de CO2 par milliard de dollars. La France d’après les calculs de PwC présentait en 2011 une intensité d’émissions de CO2 par milliard de dollars de PIB, cinq fois inférieure à celle de la Chine qui devrait, de toute évidence, s’inspirer de cet exemple plutôt que d’acheter encore et encore du charbon.

Mais quel homme politique, aujourd’hui dans le monde, aurait le courage de rappeler cette évidence aux dirigeants chinois?

Par Raymond Bonnaterre

La traque des astéroïdes dangereux par la Nasa insuffisante et en retard (rapport)

En 2005, le Congrès américain avait chargé la Nasa d’intensifier le programme « Near-Earth Objects » (NEO) pour détecter des astéroïdes de 140 mètres de diamètre et davantage présentant un risque pour notre planète. Elle devait en recenser 90% d’ici 2020, rappelle ce document.

La Nasa a reconnu en avoir recensé plus de 11.000 depuis 1998, soit 10% du total estimé. Le rapport conclut que l’agence spatiale ne sera pas en mesure de remplir l’objectif des 90% d’ici 2020.

Le rapport déplore également le manque de structure du programme, caractérisé par une « supervision insuffisante et une absence de critères établis pour mesurer les progrès accomplis ».

Sur le budget annuel de 40 millions de dollars octroyé au programme NEO en 2014, environ un million de dollars seulement, soit 7% du total, a été consacré à des stratégies de défense, selon l’inspecteur général.

Cela va de mesures de protection civile comme l’évacuation de populations aux tentatives de destruction ou de déviation d’un astéroïde menaçant.

Bien que la vaste majorité de ces objets célestes qui entrent dans cette catégorie de taille se désintègrent dans l’atmosphère avant d’atteindre le sol, certains peuvent résister et provoquer d’importants dégâts.

Le rapport cite le cas de la météorite de 18 mètres de diamètre que personne n’avait vue venir et qui a explosé en février 2013 à 23.000 mètres au-dessus de Tcheliabinsk, en Russie, avec une puissance équivalente à 30 bombes atomiques, soufflant les vitres des habitations, endommageant des immeubles et blessant plus d’un millier de personnes.

Enfin, les services de l’inspecteur général estiment qu’un manque de planification et de ressources a empêché la Nasa d’établir plus de partenariats avec des organisations de recherche qui auraient pu aider l’agence à remplir ses objectifs. La Nasa n’a en effet établi que deux partenariats.

Ainsi, des partenariats avec le département de la Défense, la Fondation américaine des Sciences (NSF) ou des agences internationales pourraient donner au programme NEO un accès à un plus grand nombre de télescopes, ce qui accroîtrait ses capacités à détecter, traquer et décrire un plus grand nombre de ces astéroïdes dont l’orbite croise près de celle de la Terre.

Déjà en 2010, un rapport du National Reseach Council (NRC), branche de l’Académie des Sciences, estimait que la Nasa, faute de budget conséquent, ne pourrait pas atteindre l’objectif de traquer 90% des astéroïdes d’au moins 140 mètres de diamètre d’ici 2020.

Le NRC recommandait également que la Nasa surveille les astéroïdes de 30 à 50 mètres de diamètre et préconisait que les Etats-Unis supervisent la création d’une entité internationale pour répondre au danger présenté par ces objets.

La Nasa a déjà répertorié environ 95% de tous les astéroïdes et objets d’au moins un kilomètre de diamètre.

Selon la dernière estimation de l’agence spatiale en juillet 2014, il y a 11.230 astéroïdes dont l’orbite passe près de celle de la Terre dont 862 ont un kilomètre de diamètre ou plus, précise le rapport de l’inspecteur général.

La Nasa a déterminé que 1.492 de ces objets sont potentiellement dangereux avec des orbites croisant à moins de 7,4 millions de kilomètres de l’orbite terrestre.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

EIA : la demande mondiale en produits pétroliers d’ici à 2040 va être soutenue par celle des pays NON-OCDE

Alors qu’aujourd’hui ces consommations entre pays de l’OCDE et pays NON-OCDE se répartissent en deux parts sensiblement égales autour des 45millions de barils/jour, l’EIA, d’ici à 2040, prévoit une stagnation des consommations des pays OCDE (les gains d’efficacité énergétique compenseront l’accroissement de l’activité économique des Nations) mais aussi une forte expansion des consommations des pays NON-OCDE (voir figure.1)

 

 

Figure.1

 

Cette croissance prévue des consommations de pétrole au sein des pays NON-OCDE (Figure.2) toucherait essentiellement la Chine, l’Asie en général et les pays du Moyen-Orient pour atteindre vers 2040 autour des 75 millions de barils par jour, soit un accroissement du flux des consommations de l’ordre de 30 millions de barils/jour en 26 ans. On retrouve dans ces données l’accroissement annuel estimé des consommations mondiales de pétrole qui sont annoncées à ce jour autour du million de barils par jour, bien sûr en identifiant les ressources en vis-à-vis, et ceci en l’absence de crise économique mondiale majeure ou de bouleversement important des prix à venir du baril de pétrole.

Figure.2

 

Ces données, provenant d’une équipe de spécialistes aux compétences reconnues dans le domaine, nous indiquent que l’ère de la domination mondiale énergétique du pétrole a encore quelques belles décennies devant elle, avant d’aborder une phase inéluctable de pénurie qui se régulera par les prix et l’arrivée de ressources compétitives de substitution (Biocarburants, produits de synthèse à partir de charbon ou de gaz naturel) qui pour l’instant demeurent encore marginales (voir Figure.3)

Figure.3

 

Les productions mondiales de biocarburants et de produits pétroliers de synthèse passeraient, dans le schéma médian de l’EIA, de 1,6 million de barils/jour en 2010 à 4,6 millions de barils par jour en 2040, ce qui me semble peu. Bien entendu, les prix des produits pétroliers seront déterminants dans la vitesse de la course vers les produits de substitution et la rentabilité des opérations.

Par Raymond Bonnaterre

Livre blanc – Google : les 10 projets les plus incroyables

  • Et si l’on mesurait le taux de sucre non plus dans le sang mais dans les larmes ? Une hypothèse en laquelle croit Babak Parviz, spécialiste des bionanotechnologies et de l’optique, qui a même déjà mis au point plusieurs prototypes.

Mais aussi :

  • Google serait-il devenu accro aux robots ? C’est ce qu’on pourrait croire avec cette huitième acquisition d’une société spécialisée dans la robotique. Dernière en date, Boston Dynamics travaille étroitement avec le gouvernement américain pour fabriquer des robots-animaux capables d’évoluer sur des terrains inaccessibles à l’homme.
  •  Ce n’était qu’une question de temps pour que les « Google Glass » parviennent à se faufiler dans un bloc opératoire afin de permettre la retransmission en direct d’une opération, et c’est maintenant chose faite : un chirurgien américain de l’université d’Ohio State a retransmis en live via les Google Glass qu’il avait sur le nez, une opération du genou qu’il a réalisée la semaine dernière.
  • Quel est l’intérêt du tatouage connecté ? Tout d’abord, il s’agit d’un kit mains libres amélioré qui permet donc de téléphoner sans coller son téléphone à l’oreille. Mais surtout, il devrait permettre d’améliorer les communications.
  • Le géant américain vient d’acheter un dixième parc éolien, confirmant sa volonté de s’appuyer sur l’énergie verte.

 

Voitures électrique: les Français ont un a priori favorable, mais manquent d’informations (étude)

Cette enquête a été réalisée pour l’Association nationale pour le développement de la mobilité électrique (Avere) et le groupe Mobivia – Norauto, Auto 5, Midas, Carter-Cash, Synchro Diffusion, Oxyo-pneus.fr et Bythjul.com – auprès d’un échantillon représentatif de 1.005 personnes, du 22 au 29 août.

Ce sondage révèle que la voiture électrique est, pour 93% des sondés, innovante, pour 92%, respectueuse de l’environnement, mais aussi, pour 81%, économique et agréable à conduire.

Néanmoins, souligne le communiqué de l’Avere et de Mobivia, « de nombreux freins perdurent, qui nuisent à la concrétisation en acte d’achat et proviennent d’un sentiment d’information encore très insuffisant ».

Ainsi, le « premier obstacle qui continue d’être évoqué par les Français (est) l’autonomie +restreinte+ de ces véhicules », mise en avant par 64% d’entre eux.

« 44% des Français déclarent qu’ils porteraient plus d’intérêt à la voiture électrique si son autonomie était supérieure à 250 kilomètres par jour », selon cette étude, qui note néanmoins qu' »en France, la distance moyenne parcourue quotidiennement est 31 kilomètres et les voitures passent 80% de leur temps stationnées ».

51% des personnes interrogées évoquent également le manque de stations de recharge.

Quant au prix d’une voiture électrique, 71% des sondés ne le connaissent pas, et 83% disent être mal informés des aides de l’Etat pour une telle acquisition. Par ailleurs, le fait qu' »il en coûte 2 euros pour effectuer 100 kilomètres en voiture électrique et 9,10 euros avec une voiture roulant à l’essence sans plomb », est ignoré de 80% des sondés.

Parmi les 12% ayant déjà essayé une voiture électrique, comme conducteur ou comme passager, 70% les trouvent sécurisantes, 72% les jugent fiables et 65% louent leur côté pratique.

La France est le deuxième marché de véhicules électriques en Europe, avec 5.415 immatriculations depuis le début de l’année, selon l’Avere et Mobivia.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Des chercheurs mettent au point une cure magnétique pour nettoyer le sang

L’appareil qui imite la rate n’a pour l’instant été testé que chez les rats et pas chez l’homme.

Il utilise des billes magnétiques nanoscopiques (moins d’un millième de millimètre ) recouvertes d’une protéine sanguine humaine conçue génétiquement, appelée MBL.

La protéine MBL se lie aux agents pathogènes et aux toxines, qui peuvent alors être « extraits » du sang grâce aux nanobilles magnétiques qui se comportent comme de minuscules aimants.

Une fois nettoyé, le sang est réintroduit sans que sa composition ou sa coagulation soient modifiées.

L’invention mise au point par des chercheurs américains est destinée à traiter les infections du sang qui touchent 18 millions de personnes dans le monde chaque année avec un pourcentage de décès de 30 à 50%.

Les microbes qui en sont la cause sont souvent résistants aux antibiotiques.

Si l’appareil s’avère aussi efficace et sûr chez l’homme, il pourrait permettre « de nettoyer physiquement le sang en enlevant une grande variété d’agents pathogènes ou de toxines », a indiqué à l’AFP Donald Ingber l’un des auteurs de l’étude publiée dans la revue Nature Medicine.

Il ajoute que le traitement pourrait être mené « avant même que l’agent pathogène n’ait été formellement identifié et que le traitement antibiotique optimal ait été choisi ».

Il n’exclut pas que le traitement puisse un jour « être utile » dans le traitement de malades atteints d’Ebola dans la mesure ou la protéine MBL passe pour être capable de se lier avec le virus à l’origine de cette fièvre hémorragique.

La protéine pourrait également se lier au VIH, le virus du sida, et au virus de Marburg, à l’origine d’une autre fièvre hémorragique, très similaire à Ebola.

Lors de leur expérience, les chercheurs ont infecté les rats avec deux bactéries – le staphylocoque doré et Escherichia coli – et ont réussi à retirer 90% des bactéries de leur sang grâce à leur invention .

Ils ajoutent que lorsqu’ils ont injecté « une dose létale » d’endotoxine (une toxine située dans la membrane externe de certains bactéries), ils ont également réussi à améliorer « de façon significative » la survie des animaux.

Mais M. Ingber reconnaît qu’il faudra encore des années d’expérimentation chez des animaux plus gros et chez l’être humain avant qu’il puisse être approuvé.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

MiXie, un outil pour déterminer l’existence d’un potentiel additif ou non des substances

La protection des personnes travaillant dans des environnements contaminés par des substances chimiques toxiques passe par la maîtrise du danger. Pour cela, il est essentiel de caractériser cette dangerosité. Or, si la toxicité de chaque substance est assez bien connue, l’interaction qui peut exister entre plusieurs substances doit aussi être prise en compte. Le logiciel MiXie France indique justement les éventuels effets additifs.

Les 118 substances présentes dans sa base de données sont répertoriées suivant 32 classes d’effets nocifs, comme une atteinte hépatique, l’érosion dentaire, des troubles de la coagulation sanguine ou encore des effets tératogènes. 

Grâce à cet outil, il suffit de renseigner les substances présentes dans l’environnement et d’en préciser les quantités. MiXie permet de traiter jusqu’à  7 substances simultanément et d’indiquer les interactions sur la base des notions d’additivité mais aussi des phénomènes d’infra-additivité et de supra-addivité. 

Un travailleur qui atteint 60% d’une valeur limite d’exposition professionnelle (VLEP) pour une substance et 50%  pour une autre qui appartient à a même classe d’effets se situe en réalité à 110%.

MiXie permet d’identifier des situations dangereuses qui ne l’auraient pas été sans tenir compte des effets additifs. 

Cette version française est inspirée d’un outil canadien lui-même élaboré par l’Université de Montréal et l’Institut de recherche Robert-Sauvé en santé et en sécurité du travail (IRSST). MiXie France repose sur les VLEP françaises en vigueur en 2014.

Par Audrey Loubens

Un dérivé du sucre met en danger le bon cholestérol

Une étude financée par la British Heart Fundation, indique que le méthylglyoxal, un composé chimique qui se forme lors de la décomposition du sucre dans l’organisme, agit sur le bon cholestérol et le transforme en mauvais cholestérol.

L’excès de mauvais cholestérol dans le sang est en effet un facteur majeur de risque de maladies des artères qui irriguent le cœur. Ces maladies peuvent provoquer des crises cardiaques ou des accidents vasculaires cérébraux, deux des principales causes de décès en Europe. Chaque année, environ quatre millions d’Européens meurent des suites de maladies cardiovasculaires, selon le Réseau européen du cœur. 

Le risque de maladies cardiovasculaires augmenté de 10 %

Lors de la décomposition du sucre dans l’organisme, le méthylglyoxal endommage le bon cholestérol, selon l’étude publiée dans le journal Nutrition and Diabetes. Ce dernier est alors éliminé du sang, ou reste dans le plasma après avoir perdu ses propriétés bénéfiques contre les maladies cardiovasculaires. Présent en trop petite quantité dans le corps, il n’est alors plus capable d’aider à supprimer les trop forts taux de mauvais cholestérol de l’organisme.

En temps normal, l’organisme élimine le méthylglyoxal assez rapidement. Mais si le corps ne parvient pas à le transformer suffisamment, son accumulation peut engendrer des maladies rénales, cardiaques ou encore le diabète et l’obésité.

Les personnes âgées et les patients souffrant de diabète ou de problèmes rénaux sont souvent concernés par des taux élevés de méthylglyoxal. Ainsi, selon les conclusions de l’étude, la dégradation du bon cholestérol par le composé chimique contribuerait à augmenter les risques de maladies cardiovasculaires de 10 %, selon le Dr. Naila Rabbani qui a dirigé l’étude.

Une protéine agit contre le méthylglyoxal

A l’heure actuelle, il n’existe pas de médicament capable de jouer sur les faibles niveaux de bon cholestérol. Pour les chercheurs de l’université de Warwick, cette découverte va donc ouvrir de nouvelles perspectives à la recherche pour développer de nouveaux traitements capables d’agir sur les taux de bon cholestérol dans l’organisme.

Grâce à cette étude, les chercheurs ont pu mettre en évidence qu’une protéine appelée glyoxalase-1 est capable d’inverser le processus de dégradation du bon cholestérol. La protéine permet ainsi de contrôler naturellement le méthylglyoxal.

Cependant, l’âge a tendance à inverser les niveaux de méthylglyoxal et de glyoxalase-1. Les chercheurs de l’université de Warwick veulent à présent développer de nouveaux traitements pour agir sur le taux de méthylglyoxal présent dans le sang.

Sanofi développe un nouveau traitement anti-cholestérol

De leur côté, le laboratoire Sanofi (qui est un des sponsors d’EurActiv) et son partenaire Regeneron ont présenté fin août les résultats de quatre études sur un de leur nouveau médicament contre le Cholestérol, l’alirocumab. Selon les résultats, au bout d’un semestre, ce traitement a permis de réduire de 62 % du taux de mauvais cholestérol dans l’organisme par rapport à d’autres patients traités par placebo.

L’alirocumab permet de bloquer l’action de l’enzyme PCSK9, qui empêche l’organisme de dégrader le mauvais cholestérol dans le sang. Ainsi il réduirait drastiquement les risques cardiovasculaires chez les patients. D’ici la fin de l’année, les deux laboratoires devraient ainsi faire une demande de commercialisation.

Source : Euractiv

Reach/CLP : toute l’actualité de septembre (1/2)

Identification de substances extrêmement préoccupantes (SVHC)

01/09/2014

L’ECHA a lancé une consultation publique l’inclusion dix nouvelles substances dans la liste des substances SVHC. Les parties intéressées sont invitées à soumettre leurs commentaires avant le 16 octobre 2014.

Projet de recommandation de nouvelles substances sur la liste d’autorisation

01/09/2014

L’ECHA a lancé une consultation publique sur son projet de recommandation de nouvelles substances à inclure dans la liste d’autorisation. Les commentaires sont à soumettre avant le 30 Novembre 2014.

Les substances concernées sont : 

  • 2 substances obtenues à partir du goudron de houille
  • 7 substances de plomb
  • 4 substances de bore
  • 7 phtalates
  • 4-nonylphénol
  • 1-bromopropane

En parallèle, l’ECHA facilite un appel de la Commission européenne sur les possibles conséquences socio-économiques de l’inscription de ces substances à l’annexe XIV.

Nouvel outil ePIC

02/09/2014

Le nouvel outil ePIC remplacera l’outil de la Commission européenne EDEXIM, qui est actuellement utilisé pour les opérations dans le cadre du règlement PIC (Importation et exportation de produits chimiques dangereux)). ePIC aidera les exportateurs, importateurs, les États membres, la Commission européenne, les douanes et l’ECHA dans la gestion de l’exportation et l’importation de produits chimiques très dangereux.

Nouvelle proposition de classification et d’étiquetage harmonisé

09/09/2014

L’ECHA a lancé une consultation pour l’harmonisation et l’étiquetage harmonisé de deux nouvelles substances : 2-methyl-1-(4-methylthiophenyl)-2-morpholinopropan-1-one (N° CAS : 71868-10-5, N° CE : 400-600-6) et clorofene; chlorophene; clorophene; 2-benzyl-4-chlorophenol (N° CAS : 120-32-1, N° CE : 204-385-8).

Les parties intéressées sont invitées à soumettre leur commentaire sur le site de l’ECHA, et ce avant le 24 octobre 2014.

Par Céline GABORIAUD, Ingénieur Environnement aux Ateliers d’Orval
 

Et aussi dans les
ressources documentaires :