Non, le solaire ne pousse pas à la consommation de charbon en Allemagne

Le problème ? « Cette affirmation est dénuée de tout fondement »  explique sur son blog personnel Cédric Philibert, expert de l’Agence Internationale de l’Energie (AIE), dans un billet intitulé « L’Allemagne brouille-t-elle la vue des électriciens français? » et publié le 27 janvier 2014. « Sans les renouvelables, et compte-tenu du prix du gaz, l’Allemagne recourrait bien davantage encore au charbon – et l’augmentation de son usage résultant de la sortie progressive du nucléaire serait bien plus rapide encore » prévient-il.

Les énergies renouvelables n’y sont pour rien

Selon ce spécialiste des questions énergétiques à l’échelle internationale et qui a dirigé la rédaction de plusieurs rapports de l’AIE sur les énergies d’avenir, trois facteurs sont responsables du léger et récent regain du charbon en Allemagne : le recul du nucléaire, la multiplication par trois depuis 10 ans du prix du gaz en Europe qui est indexé à celui du pétrole, et enfin la faiblesse du prix du CO2 dans le cadre du système communautaire d’échange de quotas d’émission (EU ETS). On peut aussi ajouter les prix bas du charbon sur le marché consécutivement au boom du gaz de schiste aux USA. « Les renouvelables n’y sont pour rien – sinon pour n’avoir pas crû assez vite » conclue l’expert.

Une question de déontologie

« La transition énergétique allemande est vraiment incomprise en France, c’est le moins qu’on puisse dire. Les articles assassins sont légion, et très souvent biaisés de façon étonnante, médias reprenant en boucle idées reçues et désinformations »  regrette Cédric Philibert.

Un problème de déontologie se pose pour les journalistes. La mise en avant des avantages réels du nucléaire, comme par exemple la capacité de produire de l’électricité en continu, en particulier l’hiver où la production électro-solaire est plus faible, ou de réduire la facture liée aux importations de combustibles fossiles,  n’est-elle pas suffisante pour que certains en viennent à mentir de manière délibérée à propos des énergies renouvelables ? Au nom du sauvetage de la filière nucléaire française, fleuron national, et de la volonté de prolonger le fonctionnement de nos vieilles centrales nucléaires jusqu’à 2040, tout est-il permis, y compris de faire preuve au pire de malhonnêteté intellectuelle délibérée ou, au mieux, d’ignorance ?   

En une décennie la part des ENR a progressé de 16 points en Allemagne

En 2003, selon la BDEW, l’association fédérale des industries de l’énergie et de l’eau, le charbon et le lignite représentaient 50 % de la production électrique allemande, le gaz 10 %, le nucléaire 27 % et les ENR  7 %.  En 2013 le couple charbon-lignite est passé à 46 %, le gaz est resté à 10 %, le nucléaire a chuté à 15 % et les ENR ont fortement progressé pour atteindre 23 %. La hausse significative des ENR (+16 points) s’est ainsi accompagnée d’une baisse du couple charbon-lignite (-4 points), d’une chute du nucléaire (-12 points) et d’un maintien du gaz à son niveau initial.

La ponctuelle et légère hausse du charbon entre 2012 et 2013 (passage de 18,5% à 19,7%), qui s’accompagne par une baisse symétrique du gaz (passage de 12,1 % à 10,5 %) ne change rien à la tendance de fond engagée en Allemagne, dynamique vertueuse d’un pays qui s’est doté un objectif clair à horizon 2050 : 80 % d’ENR.  Le gaz naturel américain va parvenir sur le marché européen (liquéfaction et transport par navire méthanier) d’ici environ 2 ans, ce qui contribuera à changer la donne.

Dans une tribune intitulée « Energies renouvelables : sortons de la caricature ! » publiée dans Les Echos le 4 janvier 20114 », Jean-Louis Bal, président du Syndicat des Energies Renouvelables (SER)  a rappelé que pour la France les énergies renouvelables « constituent le moyen le plus efficace de progresser vers trois objectifs fondamentaux : la réduction de notre dépendance énergétique (60 milliards d’euros d’importations chaque année), la réduction de nos émissions de gaz à effet de serre et la construction de filières industrielles françaises puissantes, dont les débouchés mondiaux sont une réalité. »  

ci-dessus : Production d’électricité en Allemagne par source

« Tourne ton visage vers le soleil et tu laisseras l’ombre derrière-toi » (adage africain)

François Hollande, qui s’est engagé devant le peuple français à réduire la part du nucléaire dans le mix électrique française de 75% à 50% d’ici 2025, a annoncé lors de sa conférence de presse du 14 janvier 2014 son souhait que soit crée une grande alliance franco-allemande dans le domaine des énergies renouvelables et de l’efficacité énergétique.

Cette idée d’EADS des énergies renouvelables pour l’Europe a été proposée dès 2011 par Serge Orru, à l’époque directeur du WWF-France. François Hollande a comme projet phare la construction d’une méga-usine franco-allemande de production de panneaux solaires photovoltaïques susceptible, par effet d’échelle, de faire baisser les coûts de production et ainsi devenir en mesure de concurrencer les producteurs asiatiques sur le marché mondial. 

Vers un tarif d’achat unique pour toutes les ENR en Allemagne, et comparable à celui du nucléaire EPR en Grande-Bretagne

L’Allemagne a choisi de se focaliser sur les filières énergétiques les plus pertinentes sur le plan économique, l’éolien terrestre et le solaire photovoltaïque. Le coût du photovoltaïque a fortement chuté ces dernières années grâce à la forte ambition chinoise sur ce marché d’avenir, ce qui a déstabilisé l’industrie européenne dans ce domaine. De manière pragmatique, les mécanismes de soutien des filières biogaz et éolien maritime, trop coûteuses en période de crise économique, viennent d’être revus à la baisse outre-Rhin. Dès 2015, un tarif moyen de 12 centimes le kWh sera mis en place qui tombera ensuite à un tarif unique de 9 centimes pour toutes les filières renouvelables. Il convient de « garantir que la transition énergétique soit un succès non seulement sur le plan écologique mais aussi économique » résume Rainer Baake, le nouveau Secrétaire d’État au ministère fédéral de l’environnement, ex directeur du think-tank Agora-EnergieWende.

A titre de comparaison EDF a fait pression auprès du gouvernement britannique pour obtenir un tarif d’achat (« strike price ») de 10,9 centimes pour le nouveau nucléaire (EPR). Ceci alors que le nucléaire n’est pas une énergie renouvelable : la ressource utilisée, l’uranium 235 a un stock très limité, de seulement quelques décennies au rythme de la consommation mondiale actuelle. Et cette filière, du début jusqu’à la fin, pose de sérieux problèmes sur le plan de la sécurité, de la santé, de l’environnement

En France aussi, comme en Allemagne, l’avenir peut être solaire. Sauf si les journalistes acceptent la pollution, par tous les moyens, du débat énergétique par les défenseurs des énergies  non durables, semant ainsi la confusion dans l’esprit des citoyennes et citoyens français. Il s’agit d’une question éminemment éthique étant donné qu’elle nous engage pour les décennies à venir.

Par Olivier Danielo

En ce moment, les concept cars s’exposent aux Invalides !

  • Opel Monza Concept

Avec 4 places, l’absence de montant central offre une vue directe sur l’habitacle. Le tableau de bord sert de surface de projection en alternant informations et éléments décoratifs personnalisables. La motorisation est électrique avec un prolongateur d’autonomie au gaz naturel pour véhicules (GNV). Le concept va guider l’orientation stylistique d’Opel pour se prochains modèles.

  • Icona Vulcano

Ce coupé sportif est un hybride pouvant aller jusqu’à 350 km/h. La voiture atteint les 100 km/h en 2,9 secondes.

  • Renault  Twin’z Citadine

Intégralement électrique, cette petite citadine bleue de 5 portes est lumineuse et se veut « organique », avec un habitacle proche du milieu naturel. Elle dispose en théorie d’une autonomie de 160 km et d’une vitesse de pointe de 130 km/h. A quel point inspirera-t-elle les futurs modèles de la marque ?

  • Renault Initiale Paris Concept

Renault nous propose ici une version moderne et haut de gamme de l’Espace. Le toit, en verre, représente le plan de Paris.

  • Kia Provo Concept

Voici un concept de citadine musclée hybride électrique-essence. Kia, le constructeur coréen, serait en train de faire une étude de marché pour lancer la production en série d’une voiture proche de ce concept.

  • Peugeot 308 R Concept

À essence, cette berline compact musclée émettrait 145 g de CO2 par kilomètre pour une consommation moyenne de 6,3L/100 km. La porte est ouverte à une éventuelle commercialisation.

  • Citroën C-Cactus

Un écran tactile regroupe toutes les fonctions au centre du tableau de bord. Il s’agit d’une Hybrid’Air à air comprimé couplé à un moteur essence. La nouvelle Citroën C4 Cactus, dévoilée officiellement le 5 février 2014, est inspirée de ce concept car, mais n’adoptera pas le moteur « Hybrid Air ».

  • Citroën Wild Rubis Concept

Cet hybride rechargeable devrait donner à un véhicule produit en série et commercialisé prochainement en Asie, mais pas en Europe.

  • BMW Gran Lusso

Ce coupé de luxe a été commandé par BMW au carrossier italien Pininfarina pour le concours d’élégance de la Villa d’Este 2013. Pari réussi !

 

Horaires :

Jeudi 30/01 et samedi 01/02 : 10h-20h

Vendredi 31/01 : 10h-19h

Dimanche 02/02 : 10h-18h

  • L’entrée plein tarif à l’exposition est de 10 euros et le tarif réduit à 6 euros. 

Par Matthieu Combe, journaliste scientifique

Gaz de schiste: Martin rappelle son opposition et tacle Montebourg

Selon le Canard enchaîné, Arnaud Montebourg veut publier après les municipales un rapport défendant une nouvelle technique expérimentale « propre » d’exploitation des hydrocarbures de schiste, qui consisterait à utiliser du « fluoropropane » comme alternative à la fracturation hydraulique interdite en France.

« La question à mes yeux est de savoir si nous pouvons nous permettre d’exploiter de nouvelles énergies fossiles fortement émettrices de CO2 alors que nous nous sommes fixé comme objectif de réduire nos émissions de gaz à effet de serre et de réduire notre consommation d’hydrocarbures de 30% à l’horizon 2030 », a déclaré M. Martin lors de sa cérémonie de voeux. « Les réponses me semblent être dans les questions ».

Le ministre de l’Ecologie a rappelé la position du président de la République, François Hollande, et du gouvernement contre l’exploitation du gaz de schiste.

« Cette position vient de loin », a-t-il souligné. « Alors dans l’opposition, nous avions déposé une proposition de loi en juillet 2011, dont le premier signataire était (le Premier ministre) Jean-Marc Ayrault et quatre ministres actuels figuraient parmi les premiers signataires », dont Arnaud Montebourg.

Les deux ministres n’en sont pas à leurs premières escarmouches.

M. Montebourg avait dit jeudi dernier qu’il espérait « convaincre » François Hollande « d’avancer sur la recherche » de techniques « propres » pour l’exploitation des gaz et pétrole de schiste, s’attirant les critiques de son collègue de l’Ecologie.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Le solaire photovoltaïque coûtera moins de 5 centimes le kWh dans 16 ans (Institut Fraunhofer)

Dans le sud de l’Allemagne, le petit PV en toiture permet dès à présent de délivrer un kWh à 8 centimes, et c’est encore plus économique avec le grand PV au sol. Dans le nord du pays, le coût est de 14 centimes du fait du plus faible ensoleillement annuel, ce qui reste néanmoins très inférieur au prix de l’électricité pour les particuliers outre-Rhin (29 centimes le kWh). Le coût moyen du PV à l’échelle du pays est de l’ordre de 11 centimes le kWh, c’est-à-dire exactement le tarif d’achat demandé par EDF en Grande-Bretagne pour le nucléaire EPR. 

Le photovoltaïque sera moins coûteux que le charbon

Le LOEC (Levelised Cost of Energy) des centrales fonctionnant au lignite est aujourd’hui de 5 centimes par kWh en Allemagne, celui des centrales au charbon de 8 centimes et celui des centrales à gaz combiné peut monter jusqu’à 9.8 centimes. 

La hausse du prix des combustibles fossiles dans les décennies à venir étant inévitable du fait de la hausse de la demande énergétique mondiale, un énorme boulevard s’ouvre pour la croissance des petites unités de production renouvelables décentralisées qui sont fortement désirées par la population allemande.

Dans le cadre de la nouvelle loi en matière d’ENR, dite Loi « EEG 2.0 », par soucis de rationalité économique, l’Allemagne va fixer un tarif unique d’achat pour l’ensemble des filières renouvelables, de 12 centimes en 2015, qui passera à 9 centimes quelques années plus tard. L’éolien terrestre et le photovoltaïque, deux filières dont le potentiel technique est immense, seront les grands gagnants de ce nouveau cadre réglementaire. 

Le solaire CSP est et restera plus coûteux que le solaire PV

Selon l’institut Frauhofer, le coût du KWh provenant des centrales solaires à concentration thermodynamique (CSP, Concentrated Solar Power), une technologie différente du photovoltaïque et prônée notamment par le think Tank Desertec, restera relativement élevé en 2030, compris entre 9 et 11,5 centimes dans l’hypothèse d’une insolation normale directe de 2000 KWh par mètre-carré et par an (contre 14 à 19,5 centimes aujourd’hui). C’est-à-dire 2 à 3 fois plus coûteux que le petit solaire PV à cette date.

Une opportunité pour l’ensemble des pays qui jouissent d’un bon gisement solaire

Ce qui est valable dans la moitié sud de l’Europe l’est aussi en Australie, au Moyen-Orient, dans l’ouest des USA, en Afrique et en Amérique latine affirment les experts du Fraunhofer.

Alors que le charbon attire aujourd’hui fortement les pays dits « du sud » du fait de son attractivité économique, l’émergence d’un solaire PV de plus en plus bon marché offre un formidable espoir dans la perspective d’une libération progressive de l’humanité de sa dépendance envers les énergies sales sans compromette son développement économique. 

La perspective d’un coût aussi bas du photovoltaïque permet d’envisager une réduction progressive des émissions de gaz à effet de serre, uniquement en laissant faire le marché. Et ceci même si les différents pays du monde ne parvenaient pas à se mettre d’accord sur des objectifs contraignants des volumes d’émissions, ce qui a été le cas lors de tous les sommets internationaux sur le climat jusqu’à présent. 

La France parviendra-t-elle à rattraper son retard ?

Même si le projet souhaité par François Hollande se réalisait, projet d’alliance franco-allemande pour construire une grande usine de production de matériel photovoltaïque, nul ne peut prévoir si cela sera suffisant pour devenir compétitif face à la très puissante industrie chinoise. Il était dans tous les cas grands temps de réagir car le marché qui s’ouvre aux gagnants de cette course est colossal.

Selon une étude prospective du groupe pétrolier Shell, le solaire photovoltaïque sera la 4ème source d’énergie primaire du monde en 2040, derrière le charbon le pétrole et le gaz mais devant l’éolien, l’hydraulique, les agrocarburants, la gazification de la biomasse, la valorisation des déchets, la géothermie et le nucléaire. Et il deviendra la première source d’énergie en 2100. 

Par Olivier Daniélo

Comment surmonter la crise du système électrique européen ?

La Politique énergétique de l’Union Européenne repose notamment sur le développement d’un marché intérieur de l’électricité et sur le « paquet climat-énergie » adopté en 2008. Ce dernier pose des objectifs ambitieux (le 3×20) en termes de réduction des émissions de gaz à effet de serre, d’efficacité énergétique et de développement des énergies renouvelables.

Entre temps, la crise est passée par là et le marché se retrouve en situation critique. Il est en surcapacité, c’est-à-dire qu’il existe trop de moyens de production en Europe pour répondre à la demande électrique. Dans une économie de marché, lorsque l’offre excède la demande, les prix baissent ! Il y a  deux raisons principales à cette surcapacité : la crise économique a fait baisser la demande électrique bien en-deçà des prévisions (alors que l’on continuait à construire de nouvelles capacités) et les énergies renouvelables intermittentes se sont développées rapidement. Ces énergies étant subventionnées « hors marché » et bénéficiant d’un accès prioritaire sur le réseau électrique, il y a une décorrélation entre leur développement et les besoins réels. 

Le développement des énergies renouvelables amplifiant le problème de surcapacité, cela entraîne une chute du prix de gros de l’électricité et une mise sous « cocon », voire une fermeture, d’un grand nombre de centrales thermiques, devenues non rentables. Des dizaines de gigawatts de centrales thermiques neuves ferment ainsi en Europe. Le paradoxe ultime est qu’il faudrait en fermer encore davantage, mais que cela n’est pas possible, car il faut les garder pour répondre à l’intermittence ! Si le prix du marché de gros est à la baisse, le prix du détail est à la hausse et la compétitivité des centrales thermiques prend un sacré coup ! 

En parallèle, la lutte contre les émissions de gaz à effet de serre en Europe est mise à mal par la révolution du gaz de schiste aux Etats-Unis. Le prix du gaz y étant désormais trois fois moins élevé qu’en Europe, le pays exporte son charbon sur le « Vieux Continent ». Le charbon l’emporte alors sur le gaz dans les centrales thermiques qui restent en activité et les émissions de gaz à effet de serre augmentent.

Priorité aux baisses d’émissions

Dans son rapport « La crise du système électrique européen », le Commissariat général à la stratégie et à la prospective (CGSP) formule plusieurs recommandations pour sortir le marché de l’électricité européen de cette crise. Le CGSP et les industriels se rejoignent sur trois points fondamentaux : faire de la baisse des émissions de gaz à effet de serre l’objectif principal du paquet climat-énergie (sinon le seul), repenser les aides aux énergies renouvelables et créer un vrai marché européen du carbone. 

Après le 3×20 en 2020, de nouveaux objectifs vont être débattus cette année au Parlement européen pour 2030. En particulier, la Commission a proposé aux États membres de réduire de 40% les émissions de gaz à effet de serre européennes. Il pourrait également y avoir un objectif  contraignant de développement d’énergies renouvelables. Mais rajouter un tel objectif à l’horizon 2030 est une « folie » dans la situation actuelle, selon Philippe Torrion, Directeur Optimisation Amont-Aval & Trading d’EDF. « Je crois que c’est le seul exemple de secteur économique dans l’Histoire en situation de surcapacité massive où l’on continue d’ajouter de nouvelles capacités », regrette-t-il à l’occasion du colloque du Club Energie & Développement. Pour dépasser cet état de fait, « a minima, il faudrait maîtriser le développement des nouvelles capacités d’énergies renouvelables en se calant, autant que possible, sur ce qui est juste nécessaire pour développer leur efficacité […] lorsqu’il s’agira de remplacer les équipements existants en fin de vie aux horizons 2035-2040 », analyse-t-il. « Les moindres dépenses mis dans ces moindres volumes d’ENR permettraient d’investir massivement dans la recherche et développement pour avoir des énergies plus compétitives lorsque nous aurons besoin de plus de capacités », conclut-il.

En parallèle, il faudrait tout de même faire de la réduction des émissions de gaz à effet de serre le principal objectif à atteindre pour lutter contre le réchauffement climatique.  Si le développement des énergies renouvelables s’accompagne d’une hausse des émissions de gaz à effet de serre, comme cela semble être le cas actuellement en Allemagne avec le recours au charbon, on se trompe effectivement d’objectif.

Repenser le soutien aux énergies renouvelables

Puisque les politiques de soutien aux énergies renouvelables creusent les budgets nationaux et des ménages et amplifient le problème de surcapacité, il semblerait bon de les repenser. Notamment, le CGSP recommande de remplacer les tarifs d’achat pour les technologies qui ont atteint la maturité technologique par des mécanismes de type « marché + prime » et par des appels d’offres portant sur des quantités limitées. Dans ce cadre, les énergies renouvelables seraient soumis aux mêmes responsabilités que les énergies conventionnelles et mettraient fin au paiement des tarifs d’achat lorsque les prix de gros sont négatifs ou lorsque les lignes sont saturées. Le Club Energie & Développement fait des recommandations similaires. 

Pour que tout cela fonctionne, il faut un marché du carbone dissuasif, ce qui n’est pas le cas actuellement. Les prix sont aujourd’hui à 5 euros la tonne de CO2. Le CGSP recommande donc de réformer en profondeur ce marché afin de donner un signal-prix clair pour les investissements de long terme et de créer une banque centrale du carbone afin de disposer d’une certaine marge d’ajustement.

Par Matthieu Combe, journaliste scientifique

Gaz de schiste: Montebourg veut promouvoir une technique expérimentale « propre » (presse)

Le ministre du Redressement productif Arnaud Montebourg veut publier après les municipales un rapport défendant une nouvelle technique expérimentale « propre » d’exploitation des hydrocarbures de schiste, affirme le Canard enchaîné mercredi.

Cette technique, déjà évoquée dans un rapport parlementaire fin 2013, consisterait à fracturer la roche contenant les hydrocarbures sans avoir recours à la technique utilisant de l’eau et des produits chimiques, interdite en France pour son risque environnemental.

Il s’agirait, selon le Canard Enchaîné, d’utiliser du « fluoropropane » (en réalité, de l’heptafluoropropane également connu sous le sigle de « non flammable propane », NFP, ndlr), une technologie « propre » proposée par la société américaine ECorpStim. Ce liquide non inflammable dérivé du propane est actuellement utilisé comme propulseur dans des inhalateurs pour traiter l’asthme ainsi que dans des extincteurs.

Interrogé par l’AFP, le ministère du Redressement productif n’a pas souhaité faire de commentaires.

Le cousin du NFP, le propane, a déjà servi à mener quelques fracturations hydrauliques qui n’utilisent pas d’eau et peu, voire pas de produits chimiques, en remontant 95% du propane avec le gaz ou le pétrole visé. Inconvénient principal: cette technique nécessite en surface plusieurs centaines de tonnes de propane inflammable, ce qui en France transformerait chaque forage en site Seveso.

Jamais testé en conditions réelles, le NFP présente lui les mêmes avantages que le propane, mais est également non inflammable, ce qui « supprime à 100% les risques industriels », selon le rapport publié en novembre par l’Office parlementaire d’évaluation des choix scientifiques et technologiques (Opesct).

Comme le propane, il est toutefois « onéreux », reconnaît l’Office, ce qui pourrait rendre l’exploitation non rentable. Il n’est pas non plus « sans danger pour le climat », puisque le NFP compte déjà pour 0,05% des émissions totales de gaz à effet de serre, selon le rapport.

Le risque d' »incident » entraînant sa libération dans l’atmosphère, « nécessiterait de prévenir et de contrôler les fuites susceptibles de survenir à tous les stades de la chaîne de production », recommande le travail parlementaire.

Selon le Canard enchaîné, Arnaud Montebourg n’a pas encore publié le rapport sur le NFP, auquel ont contribué « géologues, économistes publics et privés » pour éviter de « fâcher les Verts avant les municipales ».

Dans un communiqué, le député EELV François-Michel Lambert a demandé jeudi à François Hollande et Jean-Marc Ayrault de « désavouer M. Montebourg qui bafoue délibérément les engagements pris par le Président ». Le président avait écarté en juillet toute exploitation durant son quinquennat.

M. Lambert « tient à rappeler que le gaz de schiste propre n’existe pas puisque son exploitation dégagera du CO2 à l’origine directe du réchauffement climatique », écrit-il par ailleurs.

M. Montebourg a dit jeudi dernier qu’il espérait « convaincre » François Hollande « d’avancer sur la recherche » de techniques « propres » pour l’exploitation des gaz et pétrole de schiste.

Le ministre Philippe Martin avait critiqué son collègue en soulignant que la France cherchait à réduire de 30% d’ici 2030 sa consommation d’hydrocarbures.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Moins d’un quart des Français favorables au développement du gaz de schiste

Moins d’un quart (24%) des Français sont favorables au développement du gaz de schiste comme source d’énergie en France, soit 11 points de moins que l’an passé, selon un sondage publié mercredi.

Cette enquête montre aussi que le soutien des Français à toutes les formes d’énergies décline, même si les énergies renouvelables sont encore plébiscitées.

A la question : « Selon vous, pour la production de chaleur et d’électricité, faut-il encourager en France le gaz de schiste ? », 24% (6%, « oui tout à fait » et 18%, « oui plutôt ») répondent par l’affirmative, contre 35% il y a un an, selon le baromètre annuel Qualit’EnR-Ifop.

Les sondés sont au total 63% à répondre « plutôt non » (25%) ou « non, pas du tout » (38%), tandis que 13% sont sans opinion au sujet de cette énergie.

Les énergies renouvelables caracolent de nouveau dans les souhaits des Français, avec 90% de soutien global et seulement 6% d’opposants à leur développement. Le soutien recule toutefois de 6 points sur un an.

Suit le gaz naturel (conventionnel, qui est distingué du gaz de schiste dans l’enquête, bien que celui-ci soit aussi du méthane), avec 66% de soutien, mais celui-ci baisse de 14 points en un an. 28% des sondés sont défavorables à son développement.

Le nucléaire arrive en troisième position, avec un soutien global de 45% (moins 9 points) et 48% d’opposants. Seuls le charbon (21%, moins 22 points) et le fioul (21%, moins 11 points) issu du pétrole, les deux énergies les plus émettrices de CO2, se placent derrière les hydrocarbures de schiste.

Au final, toutes les énergies voient leur soutien décliner dans l’opinion.

Côté portefeuille, 91% des sondés (baisse de 2 points sur un an) disent que leur facture énergétique (toutes énergies confondues) est « très élevée » (34%) et « assez élevée » (57%).

En revanche, ils ne sont plus que 78% à penser qu’elle va augmenter au cours des deux prochaines années, contre 88% début 2013. 6% des sondés la voient baisser et 16% rester stable.

Le sondage a été effectué du 2 au 6 janvier sur un échantillon représentatif de 1.004 personnes, via un questionnaire en ligne.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

News Environnement : janvier 2014

L’Allemagne augmente ses exportations d’électricité de 50% en 2013

En 2013, un total de 77,3 TWh d’électricité ont été exportés d’Allemagne vers les pays voisins, et 43,0 TWh ont été importés. Il en résulte une exportation nette de 34,3 TWh, ce qui représente une augmentation de 52% par rapport au résultat de l’année précédente, 22,5 TWh.

Christoph Pellinger, chercheur au Centre de recherche pour l’économie de l’énergie (FFE) de Munich (Bavière), a déclaré que « si ces échanges transfrontaliers sont évalués au prix du marché EPEX Spot, il en résulte un excédent commercial de 1,2 milliards d’euros. »  Comme l’année précédente, la plupart des échanges ont été enregistrés avec l’Autriche : un excédent d’exportation de 16,5 TWh, soit une légère baisse par rapport aux 17,8 TWh de 2012, a été enregistré. En revanche, les exportations nettes ont augmenté vers les Pays-Bas, passant de 15,3 TWh à 18,0 TWh.

La balance commerciale avec la France a connu une légère augmentation, de 8,8 TWh à 9,5 TWh. Des évolutions importantes ont eu lieu concernant le Danemark : en 2012 avaient été importés 6,5 TWh, mais 2013 a amené un solde exportateur positif de 2,6 TWh. Ce changement dans l’équilibre des exportations de 9,1 TWh avec le Danemark représente plus de 75% de la variation globale de l’exportation d’électricité allemande.

En revanche, l’Allemagne importe encore de République tchèque (11,6 TWh) et de Pologne (1,6 TWh). Les échanges avec la Suède (0,0 TWh) et la Suisse (0,8 TWh) sont presque équilibrés.  L’étude sur les statistiques d’importation et d’exportation à l’échelle européenne a été menée par le FFE en coopération avec 13 partenaires industriels allemands et autrichiens, dans le cadre du projet « Ordre du Mérite du stockage d’énergie en 2030 ».

Celui-ci est financé par le gouvernement fédéral à l’aide de « l’initiative de soutien au stockage d’énergie ». Les partenaires industriels sont actifs dans les domaines de l’approvisionnement en énergie, des réseaux de transport et de l’industrie automobile.

Source : http://www.bulletins-electroniques.com/actualites/74924.htm

Avec Nest, Google affiche ses ambitions sur le marché de la domotique

Le 13 janvier 2014, Google a officialisé le rachat de la start-up Nest, spécialisée dans les thermostats intelligents. Véritable séisme pour le secteur énergétique et la Silicon Valley plus largement, le géant américain de l’informatique a déboursé pas moins de 3,2 milliards de dollars pour s’offrir cette jeune société créée en 2011 par Tony Fadell et Matt Rogers, deux anciens directeurs d’Apple. Cette opération propulse Nest au deuxième rang des acquisitions jamais réalisées par Google (derrière Motorola Mobility en 2012, pour 12,5 milliards de dollars).

Alors que certains dépeignaient le secteur des « Clean Techs » (Technologies Propres) comme en perte de vitesse, il est pertinent de s’interroger sur les conditions du succès de Nest. Souvent critiquée, cette entreprise, au pari audacieux de rendre l’efficacité énergétique « sexy » pour reprendre les termes de son PDG, a su conserver un cap stratégique novateur et faire mentir les détracteurs de ses débuts.  Cet investissement de taille suscite des interrogations sur la stratégie de Google dans le secteur de l’efficacité énergétique, et plus largement de la maison connectée.

Avec déjà deux projets dans l’énergie soldés par des échecs, Google change son fusil d’épaule et s’offre Nest. Le géant californien mise ainsi sur l’une des start-ups les plus en vue de la Silicon Valley, à la philosophie éloignée de la sienne.  Suite à cette acquisition, les réactions sur les réseaux sociaux et médias se sont multipliées. Préoccupation majeure depuis l’affaire Snowden, la « Data Privacy » (confidentialité des données) est au coeur des débats.

Historique de Nest

Surnommé « The Father of the iPod » (le créateur de l’iPod), Tony Fadell crée Nest en 2010 avec Matt Rogers, alors responsable du développement logiciel chez Apple. Les deux anciens de la marque à la pomme se lancent comme pari de dépoussiérer l’image du thermostat. Conscients du manque d’attractivité du secteur aux yeux des usagers, Rogers et Fadell mettent à profit leur expérience de « product design » acquise chez Apple pour révolutionner le marché du thermostat. Nest commercialise en 2011 son premier modèle intelligent et délivre en 2013 un second produit, un détecteur de fumée et de monoxyde de carbone. En quelques années, la start-up californienne s’est fortement développée et compte aujourd’hui près de 200 employés.

Une stratégie originale

La stratégie de Nest est simple : créer un objet élégant bénéficiant d’une image « cool ».  En moins de deux ans, le thermostat Nest devient un bien de consommation high-tech « trendy » (tendance), comme en témoigne l’explosion des ventes durant la période des fêtes de Noël. Le thermostat Nest est devenu un jouet, un cadeau au même titre qu’un appareil photo ou une tablette. Néanmoins, il ne s’agit pas de n’importe quel cadeau. Là où un thermostat standard coûte dans les 100 dollars, il faut compter 250 dollars pour acquérir un Nest.  Se positionner sur du très haut de gamme n’est pas un frein, bien au contraire. Cela fait du thermostat Nest un bien de luxe.

Même si le marché ciblé est relativement réduit (population au revenu très élevé), cela contribue à booster l’image de la marque. Cette stratégie est comparable à celle du constructeur de véhicules électriques Tesla : viser un marché de niche pour construire une marque. Avec plus de 3000 points de vente à travers les Etats-Unis en 2014, Nest est un succès commercial reposant sur une stratégie marketing très bien ficelée. Comme le souligne son slogan : « From now on, this is a thermostat » (« C’est désormais à cela que ressemble un thermostat »), Nest a révolutionné le concept marketing de l’objet.

Une start-up réactive faisant de l’expérience utilisateur une priorité

Néanmoins, Nest n’a pas toujours fait l’unanimité. Vivement critiqué à ses débuts, le blog WiredPrairie titrait « Je vous recommande chaudement de ne pas acheter le thermostat Nest ». De fait, les retours d’expérience des « early adopters » (premiers utilisateurs), n’étaient guère encourageants : les capacités de Machine Learning du thermostat étaient loin d’être satisfaisantes. La directrice de la communication Katie Brinks avait alors déclaré : « Notre produit n’est pas une version beta ni un produit arrêté. Tout comme les autres objets connectés, Nest a la possibilité de subir des mises à jour de son logiciel afin d’améliorer son fonctionnement ».

Ce dont ne s’est pas privée la start-up californienne. En exploitant les retours d’expérience des utilisateurs partagés sur l’Apple Store ou Amazon, Nest a fortement fait évoluer son produit entre la version 1.0 et la 3.5 d’aujourd’hui. La compréhension des besoins de ses clients et la réactivité des ingénieurs de Nest ont très largement contribué à son succès.  Là où des entreprises comme Google (cf. ci-dessous)

Google se lance dans les services énergétiques ») ou Microsoft n’ont pas réussi à mobiliser leurs clients autour de plateformes de gestion d’énergie pour le résidentiel, Nest a réussi ce pari avec son thermostat intelligent. Un client Nest est en interaction en moyenne 5 fois par jour avec son thermostat, un chiffre bien plus élevé que pour un thermostat standard. Ce « customer engagement » (engagement client) est loin d’être un hasard et résulte de la politique de la société orientée autour de la « user experience » (expérience utilisateur) si chère à la Silicon Valley.

Nest a tiré profit de ce « customer engagement » pour établir des partenariats avec des utilities telles que Austin Energy, Green Mountain et Southern California Edison et faire de son thermostat un outil d’effacement. Soucieux de répondre aux exigences de ses clients, Nest a érigé deux règles pour bâtir son programme de « Demand Response » (effacement) : changer le nom de « Demand Response » en « Rush-Hours Reward » (récompense aux heures de pointe), concept parlant davantage aux clients, et automatiser l’effacement de ses usagers. Contrairement à un Opower qui se fixe pour objectif de modifier le comportement de ses utilisateurs, Nest vise à simplifier la vie de ses usagers en automatisant le service d’effacement. Lors d’un projet pilote mené en partenariat avec Austin Energy, les thermostats Nest des clients ont permis de réduire en moyenne de 56% la consommation électrique durant les heures d’effacement (à noter cependant que 11% des clients ayant un thermostat ont dérogé aux programmes d’effacement).

Comme le souligne Maxime Veron, Directeur Marketing de la marque, le thermostat Nest est un cheval de Troie dans l’enceinte de la maison. Simple thermostat pour l’utilisateur, la vocation de Nest n’est pas de se limiter à cette fonctionnalité. Ainsi, Nest a acquis en 2013 la société MyEnergy afin d’approfondir ses capacités d’analyses de la consommation électrique. En s’invitant dans l’enceinte de la maison, le thermostat Nest devient un objet familier. Ce point d’entrée est une opportunité pour Nest de développer de nouveaux services dans l’espace de la maison connectée.

Nest vise à terme la création d’un environnement applicatif

Dans cette optique, Nest a annoncé récemment son intention d’ouvrir début 2014 son Application Programming Interface (API) afin de permettre à des partis tiers de développer des applications en interaction avec son thermostat [9]. Nest compte déjà un premier partenaire de taille : Control4, entreprise spécialisée dans les applications autour de la maison connectée. Il ne serait donc pas étonnant de voir sortir une nouvelle application contrôlant l’ouverture des fenêtres en fonction de la température des pièces d’une maison par exemple.

A l’image d’Apple, Nest vise certainement la construction à terme d’un environnement applicatif ouvert à des développeurs. Tout en contrôlant l’expérience utilisateur, Nest donne la clé à des tiers pour améliorer les fonctionnalités de son produit. Ainsi, Nest pourrait ouvrir son « Nest Store », une sorte d’Apple Store de la domotique. Cette perspective d’évolution a certainement joué dans la décision d’achat du géant californien.

Google se lance dans les services énergétiques

Par le passé, Google s’est déjà essayé dans les services énergétiques, en vain. En 2009, le géant de l’informatique lance PowerMeter, un logiciel de gestion de la consommation énergétique. Mais à l’instar de la plateforme Hohm de Microsoft, cette initiative se solde par un échec : l’engagement du client n’est pas au rendez-vous.

En 2011, Google réitère l’expérience en annonçant la sortie d’Android@Home. Le projet vise à faire interagir les objets connectés de l’habitat. Mais depuis, Android@Home a sombré dans l’oubli et le programme s’est arrêté.  Suite à ce second revers, Google souhaite éviter une nouvelle déconvenue pour pénétrer le marché de la maison connectée. Plutôt que de s’appuyer sur des compétences en interne, essentiellement orientées software, Google opte pour une croissance externe et ne lésine pas sur les moyens financiers pour s’offrir l’une des start-ups les plus prometteuses de la Silicon Valley. Alors que des rumeurs circulent sur une potentielle levée de fonds à hauteur de 150 millions de dollars (pour une valorisation économique aux alentours de 2 milliards de dollars), Nest se fait racheter par Google pour 3,2 milliards de dollars.

Loin d’être un coup de tête du géant californien, cette décision est le fruit d’une réflexion stratégique approfondie, comme en témoignent les participations de Google Ventures aux tours de financement des séries B et C en 2011 et 2012.

Marché des Clean Techs, inquiétude concernant la Data Privacy et stratégie de Google sont au coeur des débats

Suite à l’annonce de rachat, les commentaires sur les réseaux sociaux et les médias spécialisés se sont multipliés. De ce flot de réactions, trois préoccupations majeures peuvent être soulignées.  Tout d’abord, nombreux ont été ceux à saluer la réussite de la start-up californienne. Alors que le marché des technologies propres est en berne, le magazine 60 minutes du média CBS évoquant même un crash des « Clean Techs », cet investissement donne un nouveau souffle au secteur. Il confirme cependant la tendance actuelle : les fonds d’investissement privilégient les start-ups faiblement capitalistiques avec des espérances de gain à court terme très élevées. Et ce, au détriment d’autres projets de haute technologie et à forte valeur ajoutée mais dont les retours sur investissement sont plus longs.

La problématique de la « Data Privacy » s’est également retrouvée au coeur des débats. Un internaute avisé twittait à ce sujet : « Nest s’appelle désormais NSAest ». Mieux que quiconque, Google connait la valeur des données. En acquérant Nest, la multinationale américaine s’offre des informations précieuses sur les modes de vie de ses clients. Quel choix fait le client entre efficacité énergétique et confort de température ? Quand se trouve-t-il dans son habitat ? A quelle heure ? Dans quelle pièce ? Comment interagit-il avec les produits technologiques? Autant de données riches de sens pour le business de Google. Néanmoins, le fondateur Matt Rogers s’est défendu de ces attaques en précisant que la politique de « Data Privacy » de Nest était claire : les données des utilisateurs ne seront pas partagées avec Google et ne servent qu’en interne à Nest pour améliorer son produit . Malgré tout, il est difficile d’imaginer qu’une fois le buzz retombé, Google n’envisage pas d’exploiter les données collectées par Nest.  Troisième et dernier point de réflexion : la stratégie poursuivie par Google. Principalement connu pour son moteur de recherche sur internet, Google se diversifie.

Après l’acquisition en 2013 de la société de drones militaires Boston Dynamics, Google s’offre une nouvelle start-up orientée « hardware ». Si l’ère numérique gagne du terrain, Google ne perd pas de vue le monde réel. Par ailleurs, cette acquisition marque la volonté de la compagnie américaine de se développer dans la domotique. Le véritable enjeu pour Google n’est donc pas l’efficacité énergétique mais bien les nouveaux services de l’Internet des Objets. En s’assurant de la compatibilité des thermostats intelligents avec son environnement Android, Google ouvre la porte aux développements de nouveaux services dans l’espace de la maison connectée. Régissant déjà notre vie « virtuelle » via ses nombreux outils informatiques, Google s’invite désormais physiquement dans nos foyers !

Source : http://www.bulletins-electroniques.com/actualites/74916.htm

De nouvelles batteries à la rhubarbe à faible coût

Des chercheurs de l’Université d’Harvard ont mis au point un nouveau type de batterie non métalliques à base de molécules organiques appelées quinones, présentes à l’état naturel dans les hydrocarbures et dans de nombreuses plantes. Grâce à leurs propriétés réductrices elles sont capables de transporter des électrons. La molécule utilisée par les inventeurs est très similaire à l’une des quinones que l’on trouve dans la rhubarbe.

La batterie prototype a été conçue et testée dans le laboratoire de Michael Aziz, professeur de biochimie au sein de la Harvard School of Engineering and Applied Sciences. Les techniques de criblage à haut débit sur plus de 10.000 molécules de quinone ont permis d’identifier celles possédant les propriétés électrochimiques les plus adaptées, celles-ci ont ensuite été synthétisées et testées dans les batteries.  La technologie utilisée est celle de la batterie en flux redox (ou à oxydo-réduction) dont les électrolytes sont stockés dans deux réservoirs séparés au lieu d’être contenus à l’intérieur de la batterie.

Les échanges d’électrons et de protons entre les réservoirs se font par le biais de deux électrodes en carbone poreux, séparées par une membrane échangeuse de protons. Dans le cas présent, les couples d’électrolytes sont une solution d’acide sulfurique et de quinone dans l’un des réservoirs et une solution d’acide bromique et de brome dans le second. Le dispositif de circulation entre les deux réservoirs conditionne la puissance crête de la batterie alors que le volume des réservoirs détermine la capacité de stockage électrique de la batterie. Ces deux paramètres peuvent être fixés de manière indépendante ; il est ainsi possible de stocker de grandes quantités d’énergie à un coût plus réduit que dans les batteries traditionnelles.

Cette technologie ouvre ainsi des perspectives très prometteuses pour le stockage des énergies renouvelables (solaire photovoltaïque et éolien notamment).  A contrario, dans les batteries à électrodes solides aujourd’hui les plus répandues, le dispositif de conversion électrique et le stockage d’énergie ne peuvent être découplés. Quand elles sont utilisées à pleine charge, elles se vident rapidement et par conséquent sont peu adaptées au stockage de grandes quantités d’énergie.  D’après les chercheurs d’Harvard, une batterie en flux dont le réservoir serait comparable en taille à celui d’une cuve de fioul de chauffage pour un particulier (2 à 3 m3) serait suffisante pour stocker l’énergie produite en une journée par les panneaux photovoltaïques situées en toiture d’une maison individuelle. S’il s’agissait de stocker l’énergie produite par un champ d’éoliennes ou une ferme solaire, plusieurs citernes de grande capacité chargées des solutions « quinones-brome » seraient alors requises ; la capacité des citernes étant proportionnelle à la quantité d’énergie à stocker.  La technologie des batteries en flux redox existe depuis plusieurs années.

Jusqu’à présent, ces batteries utilisent des électrolytes à base de métaux, notamment de transition, tels que le vanadium (le plus utilisé) et le platine. Le coût élevé de ces métaux est un frein à une utilisation à grande échelle de la technologie des batteries en flux redox. Ces batteries sont en particulier utilisées par les militaires en complément ou remplacement de groupes électrogènes. Par rapport à des batteries traditionnelles au plomb, elles présentent l’avantage d’une auto-décharge limitée et d’une maintenance réduite.  Selon l’article que les chercheurs ont publié dans la revue Nature du 9 janvier 2014, compte tenu de la densité d’énergie de la quinone utilisée (anthraquinone-2,7-acide disulphonique ou AQDS) supérieure à 50 Wh/kg ou 50Wh/l, le coût des électrolytes quinone-brome serait de 27 $ par KWh, à comparer à 81 $ par KWh pour les électrolytes à base de vanadium.  Le financement du projet a été assuré à hauteur de 600.000 $ par l’agence ARPA-E (Advanced Research Project Agency – Energy).

Le système mis au point en laboratoire doit désormais faire l’objet d’un pilote industriel. Un accord a été conclu avec la société Sustainable Innovations, située dans le Connecticut, avec comme objectif de construire d’ici 3 ans un prototype qui pourra être transporté facilement sur des sites de production d’énergies renouvelables (http://www.sustainableinnov.com/). Ces unités pourront être connectées au réseau pour faire face aux pics de consommation mais également répondre aux besoins de production locale d’énergie dans des régions ne disposant pas d’un réseau de distribution électrique (20% de la population mondiale).

Source : http://www.bulletins-electroniques.com/actualites/74867.htm

J’ai acheté une imprimante 3D !

Au niveau des imprimantes 3D, il y a plusieurs technologies, ce qui n’aide pas à faire son choix :

  • le frittage laser (machines très onéreuses, plusieurs dizaines de milliers d’euros),
  • la solidification de résine photosensible ( ce n’était pas très répandu au moment où j’ai fait mon choix d’achat),
  • l’ajout de matière par filament de plastique (mon choix).

Voici les imprimantes 3D qui existent aujourd’hui.

A l’origine, je souhaitais avoir une machine capable d’imprimer du PLA. Ce plastique à base de végétaux est biodégradable et ne dégage pas de vapeur toxique quand il est chauffé. Lors de mon achat, il y avait deux matières de prédilection pour les imprimantes à ajout de matière, le PLA et l’ABS.

Mon premier choix s’était porté sur une imprimante Leapfrog, plutôt bon marché pour une imprimante montée et double buse. Une double buse permet d’imprimer en deux couleurs, chaque buse va imprimer à son tour une couleur différente sur chaque couche. Et là je me dis que ce serait pas mal que je vous explique le fonctionnement de l’imprimante à ajout de matière… Mon article va être complètement chaotique, mais… tant pis !

Comment fonctionne l’impression via ajout de matière ? C’est assez simple. Vous prenez un traceur, donc une tête d’impression qui bouge sur les deux axes horizontaux, que l’on appelle communément x et y. Soit  la tête bouge dans les deux axes, soit c’est le plateau qui peut bouger dans un axe ou dans les deux. Bref, le traceur, grâce à cette mobilité et grâce à sa gestion de certains fichiers, va pouvoir tracer des traits afin de reproduire des images 2D. Vous ajoutez à cela l’axe Z et  vous avez la possibilité de tracer couche par couche un objet en 3D. En gros, vous superposez des dessins et à force de les superposer, cela donne un objet en 3D. Alors maintenant bien sûr, il faut mettre de la matière à la place de l’encre, sinon vous ne pouvez pas obtenir un objet en 3D.

Dans le cas de mon imprimante, on insère un filament de plastique qui va être guidé vers un compartiment où il va être chauffé, afin de le rendre visqueux. Ensuite, ce plastique visqueux passe à travers une buse et est déposé sur un plateau. Chaque dessin réalisé par mon traceur à plastique va donc former une fine couche, puis le plateau va descendre d’un cran afin que le traceur dessine la couche suivante etc.

Voilà, vous en savez un peu plus sur le fonctionnement de l’imprimante à ajout de matière. On va pouvoir revenir sur mon expérience personnel.

Donc j’étais partie sur une Leapfrog, au final, il s’est avéré que mon revendeur, après test, a trouvé cette imprimante peu fiable. Il a donc décidé d’arrêter la revente de cette machine et m’a donc proposé une autre solution, bien plus onéreuse… Mais bon, on est geek ou on ne l’est pas… J’ai donc sauté le pas et fait l’acquisition d’une MakerBot replicator 2X. Cette machine, un peu expérimentale, permet, sur le papier, d’imprimer en PLA et en ABS et possède deux buses.

Je suis heureux, je vais pouvoir imprimer avec les deux matières, sachant que les deux ont leurs inconvénients et leurs avantages.

Rendez-vous est pris pour aller prendre possession de la machine, et sur place sont réalisés deux tests d’impression avec de l’ABS qui fonctionnent parfaitement. Je rentre donc chez moi tout content.

C’est parti pour les tests. Dès mon retour, je lance l’impression en ABS de quelques objets qui sont inclus dans la carte mémoire de ma machine et cela se passe assez bien. Et puis voilà que je décide de faire quelque chose qui semble correct sur le papier mais qui va s’avérer désastreux en pratique. Je me lance dans les tests d’impression en PLA…

Qu’est-ce qui m’est passé par la tête ? “mais, elle imprime aussi en PLA !” me direz vous ! Oui sur le papier comme précisé plus haut, et quand je dis sur le papier, je ne parle pas de support, je parle de marketing.

Bref, l’impression PLA… Premier objet que j’imprime, un petit bonhomme makerbot. L’impression fonctionne presque jusqu’au bout, mais cela échoue sur la fin. Je lance d’autres tests et là, systématiquement, l’extrusion du plastique (le plastique qui sort de la buse) s’arrête systématiquement au bout d’une dizaine de couches de matière. L’imprimante continue à faire bouger la tête d’impression et le plateau mais plus rien ne sort…

Je commence à tâtonner, j’enlève le filament, je le remets, je démonte la tête d’impression, j’essaye de déboucher la buse…. rien n’y fait. Ok, je décide donc de revenir à l’ABS, car l’air de rien j’ai des impressions à faire… Et là PAF même problème avec l’ABS  ! Je redémonte les têtes nettoie etc. Je me rends compte que le PLA à force d’être chauffé forme une espèce de pâte collante et peu fluide qui obstrue la buse et le conduit de chauffage. Alors, il faut quand même savoir qu’il y a de nombreux critères à prendre en compte avec ce genre d’imprimante. Voici les points à vérifier quand vous rencontrez un problème :

  • Le réglage du plateau d’impression : s’il est trop bas la matière accroche mal et l’objet se décolle du plateau durant l’impression = impression morte. S’il est trop haut la matière ne sort plus car il n’y a pas la place. Ajoutez à cela un plateau légèrement bombé et vous avez de quoi vous arracher une première fois les cheveux.
  • Le filament, si ce petit coquin n’est pas bien régulier au niveau de son diamètre,  ça peut bloquer, du coup plus d’extrusion donc plus de plastique en sortie….
  • Le système d’entrainement, réglé par la tension d’un ressort, géré par une roue légèrement crantée. Il faut donc jouer sur la tension du ressort, et si cela bloque, la roue continue à tourner, absorbant le plastique, les crans se remplissent de plastique et au bout d’un moment la roue n’accroche plus rien.
  • Le tube de chauffe et la buse qui peuvent être encombrés par du plastique qui ne coule plus ou des poussières qui, elles, ne fondent pas.

On ne s’ennuie pas avec ce genre de joujou magique !

Bref, après avoir démonté et remonté une trentaine de fois mes têtes d’impression, après en avoir cramé une car j’avais oublié de remettre la résistance chauffante dans son emplacement, j’arrive de nouveau à imprimer de l’ABS ! Pourquoi… allez savoir, le coup de chaud lié au micro incendie ? un réglage qui a arrangé les choses… je ne sais pas. Mais une chose est sûre, les tests avec du PLA m’auront coûté cher. Aujourd’hui encore, je ne peux imprimer qu’avec une buse car je n’ai pas trouvé de solution pour remplacer ma résistance cramée.

Durant mes déboires avec le PLA, j’ai quand même parcouru les forums d’utilisateurs de makerbot replicator 2X pour trouver des solutions. Il apparaît que je ne suis pas le seul a rencontrer ce genre de souci. La replicator 2X n’est peut-être pas faite pour cette matière. Soit ! Depuis je n’achète plus que de l’ABS, mais cela est tout de même très ennuyeux, surtout avec une machine à plus de 3000 euros.

Depuis ces “petits” problèmes, j’ai quand même réussi à mieux centrer mes interventions lorsqu’une impression débute mal. La plupart du temps, c’est soit le plateau qui est mal réglé, soit la buse qui est bouchée. Donc aujourd’hui lorsque j’ai des problèmes d’impression, cela se déclare dès le début par un problème d’extrusion, réglé par un nettoyage de la buse d’impression avec un fil électrique de cuivre dur. Ou bien par des soucis de décollage de l’objet du plateau qui se résout par la rehausse du plateau ou par le nettoyage de la surface d’impression. Avec un taux de réussite d’environ 80% de mes impressions, je suis plutôt content. Il ne me reste plus qu’à trouver un résistance pour pouvoir remonter ma deuxième tête d’impression et pouvoir refaire de l’impression en 2 couleurs.

Ah j’allais oublier quelque chose… L’impression 3D, c’est long, très long ! 1cm3, c’est 20 minutes d’impression. Donc imaginez une figurine qui fait 20cm3

Par ZeBlate
Créatif et passionné convulsif, j’ai toujours 1000 idées en tête ! Concepteur de jeu en ce moment, Web Designer à mes heures,Web Master quand je veux et chef de projet web…

Source : zeblate.com

5 étapes pour monter une imprimante 3D en kit

Jour 1 – Assemblage de la structure

Le premier jour a été consacré au montage de la structure principale de l’imprimante, ainsi que la mise en place du plateau chauffant. Il s’agit d’un vrai jeu de montage, qui peut plaire aux adeptes des meubles d’une « célèbre marque suédoise »™®©. Par contre, cela prend un certain temps : entre les emboitements des pièces métalliques dans les pièces plastiques (ces dernières étant produites par la même imprimante 3D que nous montons) rendus difficiles par l’ajustement au millimètre, les démontages de dernière minute parce que l’on se rend compte beaucoup plus tard qu’on a monté des pièces dans le mauvais sens, etc., le temps passe très vite.

De même, certaines photos du manuel de montage en ligne ne sont pas réellement explicites. On nous a par exemple signalé trois jours après qu’une pièce avait été montée à l’envers. Heureusement que cette erreur est seulement esthétique.

Bref, après une journée bien remplie, la structure est prête, et le lit chauffant en place.*

Jour 2 – Assemblage des extrudeurs

Pour ce deuxième jour, on s’attaque aux extrudeurs (moteurs d’avancée des filaments de plastique + têtes chauffantes). Au final, il nous a fallu une matinée complète pour le montage des moteurs avec leurs supports et des têtes chauffantes, et un après-midi pour le câblage des têtes d’extrusion. Concernant ce dernier point, on a enfin pu sérieusement jouer du fer à souder, sur des branchements où la marge de manœuvre ne dépassait pas le millimètre.

Bref, un après-midi usant pour les yeux, mais bien gratifiant au final.

Jour 3 – Montage de la carte électronique

La troisième journée était très courte : pris par nos obligations professionnelles (non chers clients, nous ne vous oublions pas), Bert n’a eu le temps que de monter la carte électronique principale sur ses supports. Je dis ici « principale », car elle sert à piloter les déplacements du plateau chauffant, du support des têtes et du pilotage du premier extrudeur (moteur + chauffe). Pour le pilotage des deux autres extrudeurs, il est nécessaire d’installer une deuxième carte électronique dédiée à ce travail.

 Jour 4 – Branchements électriques

Cette quatrième  journée a été dédiée à la réalisation de l’alimentation générale, de l’ensemble des branchements sur la carte électronique (et il y en a), et de la première connexion afin de valider ces branchements.

À la fin de la journée, nous avons donc une imprimante qui s’allume (avec de « jolies » lumières bleues pour les têtes chauffantes) et qu’on peut piloter depuis l’ordinateur.

Jour 5 – Calibration &  premières impressions

Pour cette dernière journée de montage, et pour finir une semaine bien remplie, nous nous sommes attaqués à la calibration de l’imprimante, à savoir : température de chauffe du lit chauffant et de la tête d’extrusion, réglage des butées de fin de course sur les trois axes, mise à l’équerre de l’axe vertical et mise à l’horizontale du plateau chauffant. Rien que ça nous aura pris quasiment toute la journée. Puis nous avons pu faire couler le premier bout de plastique manuellement afin de valider les températures des têtes d’extrusion (voir première photo ci-dessous), et enfin attaquer les premières impressions de pièces.

Entre la photo numéro 2 ci-dessous et la suivante, il y a eu de nombreux essais. Il s’est avéré que le coupable était le lit chauffant trop froid : la pièce se refroidissait trop vite et donc se déformait, ce qui la faisait entrer en contact avec la tête d’impression, la déplaçait sur le lit chauffant, et donc échec de l’impression.

Bref, à la fin de la journée, notre première impression réussie, avec un superbe effet bicolore : en effet, arrivant à court de plastique rouge, il a fallu insérer en urgence le premier rouleau de filament qui nous est tombé sous la main, à savoir du vert. Mais au moins, cette pièce a la classe.

Et ensuite ?

Il reste encore beaucoup à faire avec cette imprimante : tout d’abord, réussir à la calibrer une bonne fois pour toutes. Il y a tellement de paramètres à gérer, et tant qui sont interdépendants, qu’il est difficile de stabiliser l’édifice pour obtenir des impressions correctes. Mais bon, si d’autres y arrivent, pourquoi pas nous. Ensuite, l’imprimante étant une version tricolore, il nous faut encore monter la deuxième carte électronique pilotant les deux extrudeurs supplémentaires et (parce qu’on aime ça) les calibrer eux aussi.

En attendant, un seul extrudeur peut nous permettre d’imprimer une armée de poneys-licornes-pégases afin d’envahir le monde !

Par ekito

Quand deux amis conçoivent une imprimante 3D qui pourrait conquérir le monde…

« Nous voulons rentrer dans les livres d’histoire et que l’on se souvienne de nous comme ayant rendu une technologie de pointe accessible au grand public ». Brendan Goh et Tsang You ne manquent pas d’ambition ! Et pour cause, ils vivent aujourd’hui un véritable conte de fées (technologique).

En 2009, ces étudiants de Singapour s’inscrivent à un concours. Le but : illustrer le principe de la thermochromie en fabriquant une bouteille de lait qui change de couleur selon la température du liquide. Afin de réaliser ce prototype innovant, les deux amis décident de recourir à une imprimante 3D. Mais l’expérience se révèle plus laborieuse que prévu… 

Leur première machine tombe en panne. Ils déboursent 2000 euros pour se faire expédier un autre modèle de marque différente mais il leur faut ensuite passer un mois à assembler et calibrer leur nouvelle machine. L’imprimante montre régulièrement des signes des faiblesse jusqu’à ce que leur bouteille de lait finisse enfin par voir le jour ! Malgré le succès de l’opération, les apprentis imprimeurs sortent un peu dépités de l’aventure mais pas découragés : et s’ils créaient leur propre imprimante 3D ? Une imprimante fiable, moins chère, qui fait ce qu’on lui demande…

Pirate 3D, une start up est née !

2011. L’idée se concrétise avec la création de Pirate 3D, une start up qui affiche clairement son objectif : conquérir les particuliers grâce à l’imprimante 3D personnelle la moins chère du marché. Non seulement la Buccaneer doit être plus compacte et plus abordable que ses concurrentes mais elle doit aussi se démarquer par son design épuré.

Un nouveau produit, plus beau, plus fiable, qui s’adresse au plus grand nombre… Comment ne pas penser à Apple et à son iPod désormais légendaire ? Bredan Goh ne s’en cache pas : « nous ne voulons pas nous contenter d’une imprimante 3D bon marché, nous voulons aussi innover dans ce genre de service et pourquoi pas créer une plateforme tel un iTunes Store avec des images que les utilisateurs pourraient acheter pour imprimer immédiatement leurs objets ».

Mais avant de débarquer dans tous les salons de la planète, la Buccaneer a besoin d’un soutien financier important. En janvier 2013, elle reçoit un premier coup de pouce. La société Red Dot Ventures investit 482 000 dollars. Les deux amis devenus entrepreneurs font leurs comptes : il leur manque encore 100 000 dollars. Qu’à cela ne tienne ! Ils lancent un appel au financement sur Kickstarter, une plateforme de financement participatif. 

Et en seulement un mois, leur projet reçoit 1 438 765 dollars.

La Buccaneer disponible en mai 2014 !

Cartouche centrale, boîtier en acrylique, façade en aluminium, filtre pour emprisonner les odeurs de plastique lors de l’impression, un seul voyant lumineux pour signaler sa mise en marche… La Buccaneer se veut simple, design et efficace.

Destinée aux particuliers, elle se place facilement sur un bureau grâce à des dimensions compactes : 15x10x12 cm et se connecte aux périphériques en Wi-Fi.

Alors que la Cube et la Replicator de Makerbot sont vendues respectivement 1299 dollars et 1956 dollars, la Buccaneer est disponible en précommande au prix de 497 dollars (647 dollars avec les frais de port).

La sortie officielle de l’imprimante est prévue quelques mois après les précommandes livrées fin mai 2014.

Un futur succès planétaire ? 

Par Iris Trahin

Sources : 

pirate3d.com
priximprimante3d.com/pirate3d
lesnumeriques.com/imprimante/buccaneer
3dnatives.com/pre-commandes-buccaneer-limprimante-3d-lowcost-ouvertes

 

Comment imprimer vos objets 3D à La Poste ?

Trois bureaux de poste proposent depuis bientôt 6 semaines l’accès à un espace de services autour de l’impression 3D. Celui-ci est aussi bien destiné aux particuliers qu’aux professionnels. Les clients peuvent choisir leur impression parmi les 120 références proposées dans le catalogue, amener leur propre fichier ou le choisir dans une base de données plus large.

Depuis le lancement de l’opération, la Poste constate une augmentation nette de la fréquentation des bureaux de postes en question. « En moyenne, entre 15 et 20 personnes par jour viennent exclusivement pour l’impression, dont un certain nombre de jeunes qui n’avaient pas du tout l’habitude de fréquenter nos bureaux », se félicite l’entreprise.

Des premiers retours concluants

Les premiers retours montrent que les imprimantes sont utilisées à environ 60 % par des TPE/PME et à 40 % par le grand public. « Parmi les professionnels, on trouve des bijoutiers qui créent des prototypes, des architectes qui impriment des maquettes, des quincailleries qui impriment leur logo ou encore des artistes qui en profitent pour imprimer des objets », précise la Poste. « Avec les fêtes de Noël, on a aussi quelques particuliers qui en ont profité pour imprimer des cadeaux personnalisés », ajoute-t-elle. « On a aussi eu des demandes plus atypiques, comme celle d’un particulier qui a imprimé son cerveau en relief », s’amuse-t-elle.

Mais imprimer en 3D c’est long et cela reste encore assez cher. Une coque de smartphone, par exemple, vous coûtera 30 € pour un temps d’impression de 5 heures. En revanche, des bijoux peuvent aussi être édités à partir de 5 euros ! Pour les projets plus ambitieux, un devis est établi. En raison du délai d’impression, celles-ci ne se font pas sur place, mais dans les ateliers de Sculpteo, une société française spécialisée dans l’impression 3D et partenaire du projet. Une fois produits, les objets sont disponibles en quelques jours au bureau de poste.

Des postiers formés pour l’occasion

Deux postiers par centre ont été formés au sein du FacLab de l’Université de Cergy-Pontoise et au sein de Sculpteo et travaillent à temps plein sur ces imprimantes pour conseiller les usagers. « Leur rôle est notamment d’expliquer ce qu’est l’impression 3D, finaliser les fichiers, répondre aux attentes, d’aider les clients à faire les bons choix techniques et d’envoyer les projets à l’impression », précise la Poste.

Ce projet est porté par la Direction de l’Innovation et du Développement de Services de la Poste qui souhaitait être pionnier dans le test de cette technologie auprès du grand public. « Comme les bureaux de postes sont à présent modernisés, il était aisé d’envisager l’expérience », explique La Poste. Le choix de la zone d’expérimentation en Ile-de-France s’est fait dans un souci de concentration des tests. Il y avait aussi plusieurs opportunités dans les zones choisies, notamment avec une certaine concentration d’agences de communication et de cabinets d’architecture. Au bout de 6 mois, la Poste étudiera les résultats avant de décider si elle étend ou non l’expérience à d’autres villes en France.

Par Matthieu Combe, journaliste scientifique

Impression 3D : place aux pâtes sur-mesure

Créer des pâtes dans sa cuisine suivant son désir et avec la forme souhaitée… À première vue, l’idée aurait bien de quoi faire sourire. D’une part parce que la diversité des pâtes présentes dans le commerce est déjà bien conséquente mais aussi, et surtout, parce que l’idée peut sembler incongrue. Imaginez-vous découvrir dans votre assiette des pâtes aux allures d’animaux ou d’objets… Pas sûr que cela soit indispensable ni que cela améliore leur goût. 

Pourtant Barilla croit en cette technologie – au potentiel extraordinaire et au développement sidérant ces derniers temps. Il faut dire que le concept est doublement malin. En permettant aux utilisateurs de concevoir leur modèle de pâte, grâce à un logiciel prévu à cet effet, l’implication dans le processus de création est totale et d’une certaine manière ludique pour peu que l’on se prenne au jeu. Il est donc probable que de nouveaux usages voient le jour. La gestion des stocks devrait également s’en trouver améliorée. Car avec l’imprimante 3D, on ne produit que ce dont on a besoin.

Mais l’intérêt majeur pour Barilla réside principalement dans la commercialisation des capsules contenant les matières premières, outre la vente des imprimantes. La firme est en train de dessiner un nouveau business model; qui est un peu à l’image de l’impression 3D aujourd’hui. Actuellement, bon nombre de start-up et grandes entreprises développent un concept similaire. Citons entre autres Natural Machines et son imprimante Foodini et la NASA avec son projet d’imprimante à pizzas pour nourrir les travailleurs de l’espace.

Le projet germe depuis deux ans dans la tête des dirigeants du géant de l’alimentaire. C’est depuis ce temps qu’il s’est adjoint les services de TNO, l’institut de recherche appliquée néerlandais (basée à Eindhoven), pour développer la fameuse imprimante 3D. Une version de l’imprimante est d’ores et déjà en test dans certains restaurants d’Eindhoven.

Toutefois quelques ajustements – tel qu’augmenter la vitesse d’impression – reste à faire pour la rendre opérationnelle. L’objectif est d’imprimer 15 à 20 pâtes en deux minutes. À ce sujet, le chef de projet TNO Kjeld van Bommel est optimiste « Nous pouvons y arriver.  La vitesse a déjà été multiplié par dix depuis le début du projet ». La commercialisation devrait débuter dans le courant 2014.

Par Sébastien Tribot

Interview vidéo : «L’impression 3D va révolutionner une part de notre production nationale»

Vers une impression 3D made in France…

Selon Didier Remoussenard, l’évolution à court terme est d’obtenir des machines capables de produire des pièces complexes sur-mesure et de ramener ce type de production en France. Le but : réaliser des objets en très peu de temps et les livrer aussi rapidement !

Des applications étonnantes

Il est désormais possible de créer en une minute le portrait en trois dimensions d’une personne qui peut ensuite l’imprimer où elle le souhaite. Pour les particuliers, cela permet aussi de lutter contre l’obsolescence programmée en remplaçant uniquement la pièce défectueuse d’un appareil ménager coûteux qui fonctionne parfaitement par ailleurs. 

Pour les professionnels, cela dépend entièrement des besoins des clients.

L’impression 3D, un marché d’avenir ?

Jusqu’à présent, l’impression 3D était réservée à des prototypes coûteux. Aujourd’hui, avec les possibilités des imprimantes par extrusion et les outils de conception plus abordables, la production d’une première maquette est devenue bien plus accessible. On peut ainsi obtenir des maquettes impressionnantes à partir de 1 000 euros.

 

Interview : Iris Trahin
Vidéo : Bruno Decottignies

L’imprimante solaire 3D fonctionne au sable !

« En Août 2010, j’ai mis ma première machine solaire – le Sun-Cutter – dans le désert égyptien dans une valise. Il s’agissait d’une découpe laser semi-automatique de faible technicité à l’énergie solaire, qui utilise la puissance du soleil pour conduire et directement exploiter ses rayons à travers une lentille sphérique de verre à «laser» pour couper des composants 2D en utilisant un système de caméra guidée.

La Sun-Cutter produisait de fines plaques de contreplaqué avec une qualité esthétique curieuse, à la frontière entre le « fait à la machine » et le «fabriqué naturellement ». Cela était dû à la grossièreté de son mécanisme, et à la coupe par faisceau optique dont les variations dépendent largement de l’intensité solaire et donc des fluctuations météorologiques.

Dans les déserts du monde, deux éléments dominent : le soleil et le sable.

Le premier offre une source d’énergie quasiment infinie, tandis que le second assure une quantité presque illimitée de la silice sous forme de quartz . L’expérience du travail dans le désert avec le Sun-Cutter m’a conduit directement à l’idée d’une nouvelle machine qui pourrait réunir ces deux éléments.

Lorsque le sable riche en silice chauffe fortement jusqu’au point de fusion, puis refroidi, il se solidifie en verre. Ce processus de conversion d’une substance poudreuse en une forme solide par un procédé de chauffage est connu sous le nom de frittage. Il est devenu ces dernières années un élément clé pour le prototypage rapide comme l’impression 3D ou FSL (frittage sélectif par laser).

Les imprimantes 3D utilisent la technologie laser pour créer des objets 3D très précis à partir d’une variété de plastiques en poudre, résines et métaux – les objets constituant ainsi des répliques physiques exactes des modèles 3D conçues par leur designer. En utilisant les rayons du soleil au lieu d’un laser et le sable à la place des résines, j’avais tous les ingrédients pour concevoir une nouvelle machine solaire et un processus de fabrication d’objets en verre exploitant les larges réserves de soleil et de sable disponibles dans le désert..

Ma première « machine solaire frittage à commande manuelle » a été testé en Février 2011 dans le désert marocain avec des résultats encourageants qui ont conduit à l’élaboration de la version actuelle axée sur ordinateur plus grand et entièrement automatisé Solar Sinter. Le Solar Sinter a été achevé à la mi-mai et plus tard ce mois j’ai pris cette machine expérimentale dans le désert du Sahara, près de Siwa, en Egypte, pour une période d’essai de deux semaines.

La machine et les résultats de ces premières expériences présentées ici représentent les premiers pas vers ce que j’envisage comme un nouvel outil à grand potentiel de production à l’énergie solaire. »

 

Sourcehttp://www.markuskayser.com

Publié par Pierre Thouverez

Les emballages du futur seront lumineux grâce aux OLEDs

La planète marketing est en émoi.  Les publicitaires trépignent. Les pros du packaging s’impatientent. Au cœur de leur désir ? De nouveaux emballages et supports publicitaires équipés d’OLEDs. De quoi ouvrir de nouvelles perspectives en termes de communication et libérer la créativité. En effet, avec l’intégration d’OLEDs sur des emballages, il devient possible d’afficher des messages lumineux, des images animées ou encore du texte en mouvement.

D’une durée de deux ans, le projet cyFLEX a justement l’ambition de développer les procédés d’impression et de revêtement des OLEDs sur des supports d’emballages. Ce projet repose sur deux acteurs, l’Institut de technologie de la lumière de Karlsruhe et l’entreprise Cynora GmbH. Cynora connait bien les OLEDs et a déjà présenté des prototypes OLED flexibles. Car l’enjeu est effectivement d’utiliser les OLEDs sur un support souple. Jusque là, ces sources de lumière sont utilisées sur support rigide, ce qui limite leurs domaines d’exploitation.  Le prototype de Cynora est fabriqué à partir d’une solution liquide. Le substrat est revêtu de minces couches luminescentes. 

La viabilité industrielle des emballages lumineux passe par l’abaissement du coût de production.  Le Docteur  Tobias Grab, PDG  de Cynora,  rappelle que l’ « utilisation de la solution de traitement pour produire des composants au lieu de dépôt en phase vapeur conventionnelle est une condition préalable pour amener les coûts de production à un niveau où les OLED flexibles sont viables pour les applications grand public ». Dans cette optique, la société Cynora possède un atout avec ses émetteurs optoélectroniques en cuivre, matériau compatible avec une production de masse.

Le prototype de Cynora, développé dans le cadre du projet cyFLEX, a d’ailleurs remporté le prix des PME du Pôle Excellence Bio Forum électronique. Une réalisation prometteuse. Le Docteur Thomas Baumann, à la direction de Cynora, anticipe déjà les amélioration à venir pour permettre «  […]la fabrication de canettes, d’emballages intelligents ou d’affiches de films qui comportent des composants émetteurs de lumière ».

Des scientifiques de l’Institut de technologie de Karlsruhe ont d’ailleurs déjà franchi cette étape des emballages lumineux intelligents. Ces derniers ont réalisé un prototype ayant la capacité de réagir à son environnement. Par exemple, l’image lumineuse peut se mettre à clignoter à l’approche d’une personne.

Pour exploiter tout le potentiel de cette technologie, le projet cyFLEX bénéficie de près de 600 000€ d’investissements. 

Par Audrey Loubens, journaliste scientifique

La lévitation, à portée de haut-parleur ?

Pour parvenir à cette prouesse, quatre haut-parleurs générant des ultrasons (ondes sonores inaudibles à l’oreille humaine) sont utilisés. Ils sont répartis comme s’ils recouvraient les quatre murs d’une petite pièce cubique. Disposés en face à face, deux d’entre eux émettront des faisceaux d’ondes sonores à la même fréquence et en sens inverse. Ils créeront alors des ondes stationnaires. L’interférence des ondes émises par les quatre haut-parleurs crée un « point focal » où la pression acoustique est suffisante pour annuler les effets de la gravité. 

Les particules peuvent ensuite être déplacées vers le haut, le bas, vers la gauche ou la droite grâce à un mécanisme de contrôle qui les fait se déplacer en même temps que le « point focal ». Le dispositif est capable de faire léviter et de manœuvrer plusieurs petits objets, notamment des composants électroniques, défiant ainsi la gravité !

Les scientifiques y ont ainsi fait léviter de petites billes en polystyrène de 0,6 mm et 2 mm de diamètre. Ils ont aussi testé d’autres petits objets : des plumes, des gouttes d’alcool et de petits objets électroniques.

Pour quelles applications ?

En conclusion de leur article, les auteurs précisent « Il ne nous a pas échappé que la méthode que nous avons développée pour la lévitation malgré la gravité suggère qu’il est possible de développer une technologie pour manipuler des objets sous microgravité ».

Il serait ainsi possible de manipuler de petits composants électroniques ou des microrobots en lévitation sans les toucher et éviter ainsi tout risque de contamination. Il peut ainsi être envisagé de déposer des gouttes de métaux ou de plastiques fondus pour les déposer sur des composants ou des circuits électriques.

Cette technologie est déjà utilisée par l’industrie pharmaceutique pour créer des médicaments sous forme amorphe plutôt que cristalline. En laissant s’évaporer une solution en lévitation acoustique et en évitant le contact avec toute paroi, l’assemblage des molécules du produit formé se fera de façon amorphe plutôt que cristalline. Ces médicaments « amorphes » sont moins dosés, plus facilement assimilés pour une meilleure efficacité. 

  • Voir l’expérience de lévitation en vidéo :

Par Matthieu Combe, journaliste scientifique

Et aussi dans les
ressources documentaires :

News Informatique : janvier 2014

Le Japon encourage la recherche sur les techniques de surveillance de la nouvelle génération

Plusieurs projets sont actuellement en cours dans plusieurs universités japonaises dans le but de développer de nouvelles technologies d’identification de personnes utilisant les habitudes des personnes ou leurs comportements inconscients difficiles à imiter. L’objectif de ces universités est de commercialiser ces technologies pour l’année 2020.

Les méthodes conventionnelles d’identification de personnes utilisant les empreintes digitales ou l’image du visage pour contrer les tentatives d’usurpation d’identité sont, selon de nombreux experts, toujours vulnérables et de plus en plus facilement contrées.

Une équipe de l’Université de Nagoya, dirigée par le Professeur Yuji Watanabe, travaille sur un logiciel capable d’identifier un individu à partir de ses mouvements et de la vitesse avec laquelle ses doigts contrôlent son smartphone. Le logiciel a aussi pour objectif de collecter des informations sur les habitudes d’un utilisateur touchant un téléphone pour la première fois. D’après l’équipe de chercheurs, le logiciel a une précision supérieure à 93%. L’université espère débuter le développement du logiciel avec des entreprises dans les années à venir.

A l’Université de Kagoshima, une équipe de chercheurs dirigée par le Professeur Mutsumi Watanabe, développe un système d’identification basé sur l’écriture dans le vide d’un utilisateur. L’écriture dans le vide est selon eux très distincte d’un utilisateur à l’autre. Cette technologie devrait être utilisée aux portiques de sécurité des écoles et des bureaux.

Une équipe dirigée par le Professeur Yoshinobu Kajikawa de l’Université du Kansai étudie actuellement une méthode d’authentification basée sur le mouvement des lèvres des personnes. Leurs résultats de vérification d’identité atteignent une précision de 94%.

Un système de reconnaissance de la démarche, développé par le Professeur Yasushi Yagi de l’Université d’Osaka, va bientôt être mis à l’essai pour détecter les individus au comportement suspect à l’aide de caméras de surveillance.

Le marché de l’authentification biométrique devrait augmenter de 50% pour l’année fiscale 2014 par rapport à 2010 et atteindre 39 milliards de Yen (275 millions d’euros) selon le Yano Research Institute. Cet élan de recherche est fortement encouragé par le renforcement de la sécurité à Tokyo pour les Jeux Olympiques de 2020.

Source : bulletins-electroniques

La révolution du numérique également présente dans les cosmétiques de L’Oréal

Le Centre de Calcul Recherche et Technologie (CCRT) du CEA célèbre ses dix ans. « Enfant du programme Simulation de la Direction des Applications Militaires (DAM) du CEA », comme le rappelle Pierre Leca, chef du Département des sciences de la simulation et de l’information du CEA DAM-Ile-de-France, il a été créé pour répondre aux besoins du CEA en termes de simulation numérique mais aussi rendre celle-ci accessible à des industriels dans le cadre de partenariats. « La simulation numérique est aujourd’hui un facteur de compétitivité des entreprises et un des moteurs de l’innovation industrielle en particulier », souligne Christine Ménaché, responsable du CCRT. Rien d’étonnant dans ces conditions que ce centre ait noué une dizaine de partenariats industriels depuis 2003, qui plus est dans des secteurs relativement variés. Leader mondial du secteur des cosmétiques, le groupe L’Oréal est l’un de ces partenaires.

« Le challenge de nos équipes de recherche est de pouvoir présenter à nos consommateurs et consommatrices des produits toujours plus performants », explique Bernard Querleux, Directeur de recherche au sein de L’Oréal Recherche et Innovation. Et celui-ci de rappeler qu’à l’origine, l’innovation au sein de l’entreprise s’est longtemps appuyée sur les moyens de recherche qu’offraient alors la chimie et la physico-chimie. Mais il y a une vingtaine d’années, une révolution majeure s’est produite au sein du groupe avec l’arrivée d’équipes de biologistes. Et c’est une nouvelle révolution, celle du numérique, à laquelle nous assistons aujourd’hui au sein de L’Oréal, révolution qui, selon Jean-Paul Agon, le président du numéro un mondial des cosmétiques, devrait impacter toutes les entités du groupe, et plus particulièrement la recherche. Face à des problèmes de plus en plus complexes, L’Oréal a donc fait le choix ces dernières années d’opter pour le numérique, en devenant partenaire du CCRT, et de voir si, à travers ce nouvel outil, ses équipes de recherche peuvent disposer de méthodes d’évaluation qui soient prédictives. « Le numérique a évidemment un rôle clé en complément des autres approches théoriques ou expérimentales », souligne le représentant de L’Oréal.

Globalement, le métier de L’Oréal est de concevoir et de commercialiser des produits qui vont être étalés en couches très fines sur les cheveux et les peaux du monde entier. Dès lors, on imagine toute la complexité que recèlent ces produits cosmétiques dont le développement nécessite beaucoup de recherches en amont. Prenez les filtres solaires qui doivent absorber un rayonnement ultraviolet à travers une couche mince déposée à la surface de la peau. Comment ne pas penser alors aux peintures furtives déposées sur le revêtement d’un avion pour piéger d’autres types d’ondes électromagnétiques, d’autant plus que ce sont les mêmes équations qui sont utilisées. « C’est la raison pour laquelle nous avons besoin de codes de calcul et, par la même, que nous sommes venus au CCRT », précise-t-il.

Autre exemple d’objectifs que s’est fixé L’Oréal, en partenariat avec l’INRIA, parvenir à modéliser la chevelure afin de pouvoir à terme lancer un premier produit cosmétique entièrement conçu sur ordinateur qui permettra d’obtenir soit des cheveux plus lissant, soit plus coiffant, soit enfin d’aboutir à d’autres effets. D’où la nécessité d’utiliser des codes de calcul extrêmement précis sur des supercalculateurs comme celui du CCRT, sachant que sur une tête, il y a quelque 150.000 cheveux, ce qui suppose de pouvoir prendre en compte un nombre colossal d’éléments. La présence de L’Oréal parmi les partenaires du CCRT apparaît donc comme une évidence, d’autant plus que ce centre garantit la sécurité nécessaire que recherche cet industriel dont la confidentialité des travaux est l’un des points clés dans sa réussite. « Un autre atout du CCRT, c’est l’aide que peuvent nous apporter les équipes qui gravitent dans son périmètre et maîtrisent le calcul intensif », déclare Bernard Querleux.

Source : bulletins-electroniques

Une simulation de l’activité du cerveau humain pendant 1 seconde effectuée sur le supercalculateur « K »

La simulation du cerveau humain la plus exacte jamais réalisée jusqu’ici a été effectuée sur le supercalculateur « K ». La simulation d’une seconde de l’activité de seulement 1% du cerveau humain a demandé 40 minutes de calcul au superordinateur.

Les chercheurs ont utilisé le supercalculateur japonais « K » du RIKEN, actuellement 4ème supercalculateur au monde [2], pour simuler l’activité du cerveau. « K » est composé de 705 024 coeurs et de 1,4 million de giga octets de RAM (mémoire vive). Cette simulation est un projet conjoint entre le RIKEN, l’Okinawa Institute of Science and Technology Graduate University et le Forschungszentrum Jülich, un centre de recherche pluridisciplinaire allemand. La simulation effectuée est la plus large simulation de réseaux de neurones jamais réalisée.

En utilisant l’outil de simulation open-source NEST (Neural Simulation Technology), les chercheurs ont simulé un réseau constitué de 1,73 milliards de cellules nerveuses connectées par 10 400 milliards de synapses. Bien que très large, ce réseau représente seulement 1% du réseau de neurones du cerveau humain. Cette simulation avait pour objectif principal de pousser les limites des technologies de simulation et la puissance de calcul de « K ». Les chercheurs ont ainsi récolté d’importantes données qui vont par la suite les aider à construire de nouveaux outils de simulation. Cela a aussi permis de donner un aperçu aux neuroscientifiques des possibilités offertes par la future génération de supercalculateurs à l’échelle exaflopique.

Source : bulletins-electroniques

Accord entre Goodfellow et Sigma-Aldrich Corporation

Par l’intermédiaire de l’Aldrich Materials Science Initiative, l’accord signé permet aujourd’hui d’étendre la disponibilité de 10.000 références de Goodfellow qui comprennent des métaux purs, des alliages, des céramiques et des polymères.

Cette gamme croîtra dans les mois qui viennent pour inclure la liste complète des 70.000 références du catalogue de Goodfellow, dont quelquesunes exclusives à la société.

Les produits Goodfellow demeureront aussi disponibles directement chez Goodfellow et ses partenaires existants, et Goodfellow continuera par ailleurs à offrir les services de consultation et de support techniques à tous les clients. 
 

Stephen Aldersley, Président Directeur Général de Goodfellow, voit, dans cette nouvelle relation établie avec Sigma- Aldrich, une opportunité de développement pour le secteur de la Recherche.

« Sigma-Aldrich est le leader international de la fourniture de matériaux sur le marché de la recherche. Grâce à sa présence dans 40 pays, Sigma-Aldrich est en mesure d’offrir aux chercheurs un accès à notre gamme de produits dans le monde entier. Une optimisation de la disponibilité de nos métaux, alliages, céramiques et matériaux, partout dans le monde, peut offrir à de très importants secteurs de recherche la possibilité d’une croissance continue. »

En mettant en avant l’implication au niveau mondial de Sigma-Aldrich dans toute science qui améliore la qualité de vie, Bryce P. Nelson, responsable d’Aldrich Materials Science, déclare : «L’ajout de la gamme Goodfellow élargit la famille déjà solidement établie des produits destinés aux ingénieurs et aux chercheurs en science des matériaux, et favorise ainsi d’autant l’innovation scientifique ».

Selon les termes de l’accord, Aldrich Materials Science commercialise et distribue désormais les matériaux de Goodfellow dans la plupart des zones géographiques du globe. La totalité des produits sera disponible partout dans le monde dès avril 2015.

Lentilles pour diabétiques by Google

Et si l’on mesurait le taux de sucre non plus dans le sang mais dans les larmes ? Une hypothèse en laquelle croit Babak Parviz, spécialiste des bionanotechnologies et de l’optique, qui a même déjà mis au point plusieurs prototypes. Si la technologie n’est pas encore prête, un géant américain a décidé d’investir, il s’agit de Google. « Nous espérons que cela pourra un jour apporter aux diabétiques un nouveau moyen de gérer leur maladie» justifie Google. Aidé de Brian Otis, le chercheur iranien s’active désormais au sein du très secret Google X Lab. Sa technologie repose sur l’utilisation d’une puce reliée à un capteur de glucose miniature. Les informations mesurées pourraient être transmises via une antenne radiofréquence. L’ensemble est maintenu entre deux couches de matériaux et le tout serait incorporé dans des lentilles portées par le patient diabétique. 

Avant d’être commercialisées, ces lentilles intelligentes devront toutefois connaître certaines améliorations et présenter des garanties de biocompatibilité, notamment si les lentilles sont portées en continue. Par exemple, le délai de détection des pics de sucre puisque le taux de glucose des larmes s’élève avec un délai de plusieurs minutes après l’élévation dans le sang. Ce décalage nécessite d’être parfaitement connu sous peine de déclencher l’alerte trop tard. Les scientifiques ne nient pas l’ampleur du travail qu’il reste à accomplir avant d’obtenir le produit fini mais affirment avoir déjà achevé une grande partie des recherches médicales et être en discussion avec l’agence américaine des produits alimentaires et médicamenteux ainsi que différents éventuels partenaires dont le rôle serait de commercialiser le produit.

Ce projet récupéré par Google agace Microsoft. Non pas que ce dernier était particulièrement attaché à aider les diabétiques, mais plutôt parce que les lentilles connectées étaient à l’étude chez eux ! En effet, Babak Parviz avait présenté son système fin 2011, en partenariat avec l’équipe de Desney Tan de chez Microsoft Research. Depuis, l’Iranien a été débauché par Google et leur a parlé des lentilles connectées. Une démarche que Microsoft voit d’un mauvais œil…

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

Les chiffres de l’électricité pour 2013

D’après le Bilan Electrique 2013 de RTE, la puissance installée des centrales électriques françaises s’élevait à 128 gigawatts (GW) fin 2013 pour une production de 550,9 térawattheures (TWh) et une consommation brute de 495 TWh. La production est en hausse de 1,7% et la consommation est en augmentation de 1,1% par rapport à 2012, essentiellement en raison d’une année 2013 plus froide. Après correction des aléas météorologique, la consommation française pour 2013 s’établit à 476,2 TWh, quasiment au même niveau que celles de 2011 et 2012.

Quelles évolutions de capacité ?

Fin 2013, le nucléaire représentait 63,1 GW de puissance installée, le thermique combustible fossile 25,6 GW, l’hydraulique 25,4 GW, l’éolien 8,1 GW, le photovoltaïque 4,3 GW et les autres sources d’énergies renouvelables 1,5 GW. Entre 2012 et 2013, le parc de production installé en France a perdu 1573 mégawatts (MW) de centrales au charbon, 607 MW de centrale au fioul et 71 MW de centrale au gaz. Mais il a gagné 630 MW d’éolien, 743 MW de photovoltaïque et 88 MW d’autres énergies renouvelables. Cela fait donc une baisse de capacité nette d’environ 800 MW.

On note un ralentissement du développement des filières éolienne et photovoltaïque par rapport aux cinq dernières années. Le maximum annuel de développement de l’éolien a été atteint en 2009 avec 1 250 MW. Le maximum de développement de photovoltaïque a quant à lui été atteint en 2011 avec1 690 MW. « Ce ralentissement du développement de nouveaux parcs éoliens peut s’expliquer par les incertitudes économiques et réglementaires (conjoncture de crise, tarif d’achat, capacité de financement) et les durées des procédures administratives. » note RTE dans son rapport.

Les projets éoliens et photovoltaïques dont le raccordement au réseau de transport est en cours ou prévu, représentent 6,3 GW de puissance supplémentaire. Deux tiers de ces projets correspondent à de l’éolien offshore.

Quelles évolutions de production ?

La production nucléaire est en léger retrait (-0,3%) par rapport à 2012. Elle assure désormais 73,3% de la production d’électricité. La production thermique utilisant des combustibles fossiles a reculé de 7,1% entre 2012 et 2013 et assure désormais 8,1% de la production d’électricité. Cette évolution est néanmoins mitigée : la production des centrales au charbon a augmenté de 14%, lorsque celle des centrales au fioul a baissé de 19,2% et celle des centrales au gaz gaz de 18,9%. Selon RTE, les difficultés particulières de la filière gaz par rapport au charbon s’expliquent notamment par la baisse du cours du charbon et le faible prix des quotas de CO2.

L’année 2013 a connu le plus haut niveau de production hydraulique en 10 ans grâce à des précipitations exceptionnellement abondantes au printemps. Cette production a augmenté de 18,7% par rapport à 2012,  assurant 13,8% de la production d’électricité. Pour sa part, la production issue des autres sources d’énergies renouvelables a augmenté de 8,1% pour dépasser les 25 TWh. Si l’éolien représente 6,3% de la puissance installée, le parc représente 2,9% de la production. Avec 3,4% de la puissance installée, le parc photovoltaïque constitue 0,8% de la production. Les énergies renouvelables assurent donc 18,6% de la production française d’électricité en 2013 et couvrent 20,7% de la consommation française Il s’agit du plus haut niveau observé depuis 6 ans.

Le recours accru au charbon plutôt qu’au gaz, durant les périodes de froid de janvier à mars, conduit à une augmentation des émissions de CO2 en 2013 par rapport à 2012 de 0,2% avec un total de 29,1 millions de tonnes.

Par Matthieu Combe, journaliste scientifique

Et aussi dans les
ressources documentaires :

Etude sur la production de biocarburant à base de plantes du désert et d’eau de mer

Le constructeur aéronautique Boeing a annoncé mercredi travailler à la production de biocarburant à base de plantes du désert arrosées à l’eau de mer.

Boeing et ses partenaires aux Emirats Arabes Unis « ont constaté que des plantes du désert alimentées à l’eau de mer peuvent produire du biocarburant avec une efficacité supérieure à d’autres matières premières », explique le constructeur dans un communiqué.

« Ces plantes, dites « halophytes » et utilisées en tant que source de carburant renouvelable pour l’aviation et d’autres véhicules, sont encore plus prometteuses que nous l’imaginions », déclare Alejandro Rios, directeur du Sustainable Bioenergy Research Consortium (SBRC).

Le consortium testera ces découvertes dans le cadre d’un projet qui pourrait aboutir à la production de plantes pour biocarburants dans des pays arides, poursuit le communiqué.

Financé par Boeing, la compagnie aérienne d’Abou Dhabi Etihad Airways et l’équipementier Honeywell, le SBRC travaille au développement et à la commercialisation de biocarburants aéronautiques durables, dont la production de dioxyde de carbone (CO2) est de 50 à 80% inférieure à celle des combustibles fossiles sur l’ensemble de leur cycle de vie.

L’Organisation internationale de l’aviation civile (OACI), basée à Montréal, a recensé au moins 300 projets dans le monde pour produire de la biomasse durable, sans empiéter sur les cultures vivrières ou les forêts, comme l’ont fait les premiers biocarburants, extraits de canne-à-sucre ou de tournesol.

Dans le monde entier, les chercheurs ont entrepris de produire de la biomasse à partir de plantes qui poussent sur des sols ingrats, comme la jatropha ou la caméline, d’eucalyptus, ou d’algues.

pmr/cb/bg

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

UE: feu vert de la Commission européenne à l’exploitation du gaz de schiste

La Commission européenne a adopté mercredi une recommandation qui laisse la voie libre à l’exploitation du gaz de schiste en Europe à condition de respecter des « principes communs » minimaux, notamment sanitaires et environnementaux.

« Le gaz de schiste suscite des espoirs dans certaines régions d’Europe, mais également des inquiétudes. La Commission répond aux demandes d’ action en formulant des principes minimaux que les Etats membres sont invités à suivre afin de tenir compte des aspects environnementaux et sanitaires et de donner aux exploitants et aux investisseurs la prévisibilité nécessaire », a expliqué le commissaire chargé de l’Environnement, Janez Potocnik.

Au grand dam des organisations de défense de l’environnement et à l’encontre du souhait du Parlement européen, la Commission européenne a refusé d’imposer des normes juridiques contraignantes concernant l’exploration et l’exploitation de cette source d’énergie.

Les recommandations de Bruxelles sont « totalement insuffisantes pour protéger les populations et l’environnement des risques posés par l’extraction de ces hydrocarbures », a estimé l’ONG Les amis de la Terre. Elle a dénoncé dans un communiqué « le manque absolu de courage de l’Union européenne qui, face aux pressions des lobbies, a renoncé à prendre des mesures concrètes dans ce domaine ».

« Un site ne pourra être sélectionné que si l’évaluation des risques démontre que la fracturation hydraulique à haut débit n’entraîne la libération directe d’aucun polluant dans les nappes phréatiques », recommande notamment la Commission.

Les Etats devront également s’assurer que les installations pour exploiter le gaz de schiste soient « construites de manière à éviter des fuites à la surface et des déversements dans le sol, l’eau ou l’air ».

Les évaluations d’impact sur l’environnement devront être menées avec « le maximum de transparence », insiste le texte de la Commission. Les autorités nationales devront ainsi informer le public des produits chimiques utilisés durant la fracturation hydraulique.

Les Etats membres de l’Union sont simplement invités à appliquer les principes formulés dans un délai de six mois et, à compter de décembre 2014, à informer chaque année la Commission des mesures qu’ils auront mises en place.

Le développement du gaz de schiste dans l’UE est controversé. Certains pays (Royaume-Uni, Danemark, Pologne, Roumanie) développent des projets d’exploration, mais la France et la Bulgarie ont interdit l’exploitation. L’Allemagne a banni la fracturation hydraulique dans les zones riches en eau de son territoire.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Découvrez les secrets de l’interaction lumière/matière

[Incription gratuite à la conférence De la lumière à la couleur : Quels sont les secrets de l’interaction lumière/matière ?]

Pour le physicien, la couleur est un irritant mystère.

C’est une notion créée par l’esprit humain permettant une différenciation précise entre deux couleurs, alors que l’on peut pourtant trouver « de la même couleur » deux perceptions colorées qui, pour la physique, sont deux flux lumineux fort différents en longueur d’onde ou en intensité. 

Cette conférence, animée par Frigerio Jean-Marc – Professeur à l’université Pierre-et-Marie-Curie et membre de l’INSP (Institut des nanosciences de Paris) – sera l’occasion de rappeler les bases de l’optique et de l’interaction lumière/matière qui permettent de comprendre la formation de la notion de couleur à partir d’une source lumineuse, d’un objet et d’un observateur humain et de quantifier les phénomènes physiques mis en jeu.

Des geysers d’eau sur Europe ?

La banquise parsemée de failles qui constitue la surface d’Europe a toujours fasciné les scientifiques. Leurs observations les ayant rapidement conduit à supposer que l’intérieur du satellite abriterait de l’eau sous forme liquide… Sans pouvoir réellement le prouver.

Les clichés d’Hubble devraient donc balayer les doutes. Les jets de vapeur observés s’élèveraient de la surface glacée d’Europe à plusieurs centaines de kilomètres de hauteur selon une étude publiée par des chercheurs du Southwest Research Institute de San Antonio.

Ce phénomène résulterait vraisemblablement de l’influence gravitationnelle de Jupiter sur la surface d’Europe qui engendrerait de puissantes marées. L’énergie produite par ces marées se dégagerait sous la forme de chaleur suffisamment intense pour créer épisodiquement des brèches dans la banquise.

Or, d’après les observations des chercheurs, les brèches ne s’ouvriraient qu’au moment où Europe se trouve le plus éloigné de son orbite autour de Jupiter. Quoi qu’il en soit, voilà qui devrait attiser encore plus l’envie des chercheurs à se pencher sur le cas Europe et déclencher de futures missions spatiales. Car si l’eau est capable de faire surface d’elle-même, les travaux d’analyse – dispensés de la tâche fastidieuse du forage – n’en seraient que plus aisés.

En outre, la présence d’eau permettrait aux scientifiques de placer de bons espoirs dans l’idée de découvrir une vie sous la surface d’Europe. Et bien que les conditions paraissent extrêmes pour permettre à la vie de se développer, les scientifiques estiment que, tout comme au fond des océans terrestres, certaines espèces de microbes pourraient très bien exister.

Ce qui fait d’Europe l’un des quartiers spatiaux les plus propices à la vie extraterrestre; et donc, l’un des plus intéressants à étudier. Une sonde spatiale devrait être envoyée par l’Agence Spatiale Européenne d’ici dix ans pour collecter des informations à ce sujet (par prélèvement et analyse de l’eau supposée être présente sous la croûte glacée notamment). Elle n’entrera toutefois dans la sphère de Jupiter que vers 2030. Il va donc falloir être encore un peu patient.

Par Sébastien Tribot, journaliste scientifique

Et aussi dans l’actualité :

La RT 2012 diminue-t-elle au mieux les émissions de CO2 ?

Le « tout électrique » est révolu dans les bâtiments neufs. On ne verra plus des convecteurs électriques dans chaque pièce de la maison associés à un cumulus électrique classique. En fixant une limite de consommation moyenne à 50 kilowattheures d’énergie primaire par mètre carré (kWhep/m2), la RT 2012 limite l’usage des convecteurs électriques traditionnels.

En effet, la méthode de calcul considère qu’1 Kwh d’énergie primaire équivaut à 0,387 Kwh d’électricté (un coefficient de 2,58 est appliqué) ce qui défavorise l’usage de l’électricité pour le chauffage et la production d’eau chaude.

Cette pénalité est due au mauvais rendement des centrales électriques et aux pertes durant le transport. Ainsi, pour une consommation située entre 40 et 50 kWh, la consommation électrique ne peut pas dépasser la fourchette 15,5- 23,2 kWh/m2.

Pour les autres énergies (gaz, fioul, réseau de chaleur, bois, etc.), aucun coefficient n’est appliqué.

Quand le gaz remplace l’électricité

Une maison à haute performance énergétique ne peut pas être chauffée par des convecteurs électriques traditionnels par effet Joule. Si l’on veut mettre des radiateurs électriques, il faut que ceux-ci soient intelligents, c’est-à-dire équipés de détecteurs de présence, d’un thermostat et qu’ils détectent les ouvertures de fenêtres. Ils seront complétés par un chauffe-eau avec pompe à chaleur intégrée ou un chauffe-eau solaire à appoint électrique.

Une autre voie pour le chauffage électrique passe par les pompes à chaleur géothermale sol/eau, air/eau ou air/air, fonctionnant à l’électricité et produisant du chauffage et de l’eau chaude sanitaire. Une belle part peut donc être donnée aux énergies renouvelables dans ces nouvelles constructions, en association avec une faible consommation électrique.

Mais les convecteurs électriques traditionnels sont majoritairement remplacés par du chauffage au gaz. Selon Bati études, un Institut de sondages de l’univers du bâtiment et de la construction,  dès 2010, les professionnels ont commencé à anticiper la RT 2012, en abaissant rapidement la part du chauffage électrique dans les logements neufs. Ainsi, la part de marché du chauffage électrique dans les logements collectifs neufs est passée de 61,2% en 2009 à 21 % au premier semestre 2013. En parallèle, la part du gaz est passée de 33,5 % à 67,1 %. L’évolution est également nette dans les maisons individuelles groupées neuves : la part de l’électricité est passée de 58,1 % en 2009 à 39,6 % au premier semestre 2013. En parallèle, le gaz est passé de 38,6 % à 53,2 %.

Et les émissions de CO2 dans tout cela ?

Le fameux objectif des « 3×20 » retenu au niveau européen consiste à réduire de 20 % les émissions de gaz à effet de serre par rapport à leur niveau de 1990, de porter à 20 % la part des énergies renouvelables dans la consommation d’énergie finale de l’Union et de réduire de 20 % la consommation européenne d’énergie. La France s’appuie notamment sur les baisses de consommation dans le bâtiment et les transports pour essayer d’atteindre les objectifs de 2020 et le facteur 4 en 2050. Mais parallèlement à la baisse de consommation des bâtiments imposés par la RT 2012, elle n’impose pas l’utilisation d’énergies peu carbonées.

Pour contrer le réchauffement climatique, la priorité est bien la baisse des émissions de CO2. Les objectifs d’énergies renouvelables et de baisse de consommation d’énergie visent à diversifier le mix énergétique et diminuer les consommations de matières premières, mais surtout à lutter contre ce réchauffement. « Si l’on augmente la part des énergies renouvelables et que cela ne baisse pas les émissions de CO2, alors cela n’a aucun impact sur le réchauffement climatique », s’alerte Serge Lepeltier, ancien Ministre de l’écologie et du développement durable (2004-2005) et Ambassadeur chargé des négociations sur le changement climatique (2011 à 2013).

Si la RT 2012 entraîne bien une baisse des émissions de CO2 dans les constructions neuves, les résultats seraient encore plus importants si les énergies utilisées étaient peu carbonées. « Il faut que cette réduction de consommation d’énergie soit d’abord une réduction des émissions de carbone », précise-t-il.

« On choisit systématiquement le gaz sans se soucier si une solution à l’électricité aurait pu être aussi performante tout en produisant moins de CO2. Il faut absolument que cela change afin d’imposer une évaluation basée systématiquement sur les coûts économiques mais aussi sur les coûts environnementaux. » prévient-il.

La future réglementation thermique (la RBR 2020) donnera une belle part aux énergies renouvelables. Mais elle ne devrait entrer en application que vers 2020. Il sera alors trop tard pour respecter les engagements de 2020. Il faut donc réagir vite ! « Les textes réglementaires ne parlent pas « émission carbone. Il faut absolument les changer pour que cette réduction de consommation d’énergie soit d’abord une réduction des émissions de carbone », conclut Serge Lepeltier.

Par Matthieu Combe, journaliste scientifique

Et aussi en
formation :

  • Appliquer la RT 2012 en pratique dans le neuf ou en réhabilitation

La NSA sait espionner les ordinateurs non connectés

La révélation du New York Times fait l’effet d’une bombe. Alors que l‘on pensait tout savoir des pratiques d’espionnage de la NSA, voilà que l’on découvre maintenant que l’organisation américaine détient la capacité d’accéder à n’importe quel ordinateur, même si celui-ci n’est connecté à aucun réseau. Le secret ? L’utilisation des fréquences radios.

Il suffit qu’un mouchard soit placé à l’intérieur de l’ordinateur cible. Celui-ci peut se présenter sous la forme d’un circuit imprimé ou d’une simple carte USB. A l’intérieur est dissimulée une carte mère qui va servir de relai sans fil d’une part, de porte d’entrée pour des virus tels qu’un cheval de Troie d’autre part. A noter que cette technique s’appui sur l’action d’individus infiltrés, à l’ancienne !

Actif depuis 2008, peut être même avant, le programme Quantum a contaminé des postes informatiques clés comme des ordinateurs de l’armée russe, de la police mexicaine, de certaines institutions européennes. Les alliés américains ne sont pas épargnés puisque l’Arabie Saoudite, l’Inde et le Pakistan auraient aussi été victimes d’espionnage.

Cette nouvelle affaire est mise au grand jour grâce à des documents divulgués par Edward Snowden, cet informaticien américain qui a révélé l’existence de plusieurs programmes de surveillance à grande échelle et actuellement exilé en Russie.

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

Et aussi dans l’actualité :

News Digest, le nouvel Albert Londres de Yahoo !

Alors que la presse écrite est en déclin suite à l’apparition d’Internet, voilà que Yahoo! pourrait bien porter le coup fatal aux journalistes. Son dernier bijou technologique, baptisé News Digest, est un programme capable de fouiner sur la toile, de sélectionner puis d’agglomérer des contenus de multiples origines de façon à fabriquer un ensemble d’articles postés directement sans validation humaine préalable. De quoi alimenter une chronique ou les pages actualités de façon automatique.

L’objectif est clair : se débarrasser des équipes chargées de la veille et pouvoir se passer des employés dont l’activité est de trier et sélectionner les sujets intéressants et correctement traités.  Si cette tâche peut être automatisée, pourquoi s‘en priver ?

News Digest est l’amélioration de l’application Summly, rachetée pour 30 millions de dollars au très jeune et talentueux Nick d’Alosio, âgé aujourd’hui de 18 ans. A l’époque, ce rachat avait fait grand bruit, notamment du fait du jeune âge de ce tout nouveau millionnaire.

Mais News Digest ne se contente pas de sélectionner les articles et de les assembler pour créer un contenu, l’application est capable de rédiger un résumé de l’article sélectionné ! Ainsi, l’actualité est proposée sous  une forme jugée plus « digeste », un best of d’actus light en quelque sorte. « Nous pensons que les gens veulent consommer plus de contenus lorsque ceux-ci sont réduits à leur portion la plus essentielle » justifie Nick d’Alosio. 

Le slogan est tout trouvé : « Toute l’information que vous devez connaître ». News Digest propose deux fois par jour un résumé de l’actualité sous formes de blocs. Ceux-ci sont évidemment tirés de sites partenaires de Yahoo !, et peuvent prendre la forme de texte, d’image ou même d’infographie.

Avec cette application, pour l’instant disponible seulement sur iPhone, Yahoo! espère doper son offre d’informations et rallier un grand nombre de lecteurs, et donc de revenus publicitaires. 

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :