Echy met la lumière naturelle à portée de tous

6 m² de panneaux de capteurs suffisent à éclairer 100 m². Cette performance, seule la Start-up française Echy y parvient, ses concurrents travaillant avec des panneaux d’1 m² maximum pour éclairer une pièce de 10m².

Les frenchies voient donc plus grand. La Banque publique d’investissement est convaincue, mais pour séduire le plus grand nombre comme ils le souhaitent, il leur reste à optimiser la technologie et plus particulièrement à en abaisser le coût, condition sine qua non au déploiement de masse d’Echy.

Le système est connu depuis plusieurs années. Il consiste à collecter la lumière du soleil via des lentilles, puis à transporter les photons au travers de fibres optiques. Ces dernières restituent la lumière naturelle et permettent ainsi d’éclairer des pièces sans ouverture de façon naturelle. Les infrarouges et les ultraviolets sont filtrés. La nuit ou lorsque les nuages dissimulent le soleil, un dispositif de LED alimenté électriquement prend le relai. Echy est donc un système hybride capable d’apporter un éclairage constant dans de vastes pièces.

Les deux associés à l’origine d’Echy en ont eut l’idée pendant leur cursus scolaire. L’absurdité d’éclairer de façon artificielle des salles de cours sans fenêtre en plein jour les a inspiré, et ils ont décidé de mettre au point un produit capable d’apporter la lumière du soleil même dans des pièces fermées telles que des sous-sols, des caves, des entrepôts… Ils n’hésitent pas à parler de luminothérapie et a rappeler l’impact bénéfique de la lumière naturelle sur la santé et l’humeur. Mais ce système permet aussi de substantielles économies d’énergie en remplaçant l’éclairage électrique, et permet de se rapprocher un peu plus des bâtiments à énergie positive de demain. EDF ne s’y est pas trompé et leur a décerné le prix Habitat EDF Pulse.

Les deux associés espèrent proposer sur le marché un produit fini et à un prix abordable dès la fin de l’année.

Par Audrey Loubens

Angleterre : la cigarette interdite aux personnes nées après 2000 ?

Aux grands maux les grands moyens. L’influente British Medical Association (BMA) a émis fermement sa volonté d’éradiquer le tabac en soutenant lors de leur assemblée annuelle cette proposition. L’étape suivante est de faire pression sur le Parlement pour la faire passer. Si cela devait un jour devenir une loi, cela permettrait d’enrayer définitivement la consommation de tabac en créant des générations sans fumeur.

Après tout, pour ne pas fumer, il suffit de ne jamais commencer. Pour Tim Crocker-Buque, spécialiste « Public Health Medicine » au NHS, fumer n’a rien de rationnel. C’est le résultat d’une pression sociale irrésistible, surtout lorsque l’on est adolescent. Or, c’est précisément à cet âge que les risques de cancer sont le plus élevé : « les fumeurs qui commencent à fumer à 15 ans sont trois fois plus susceptibles de mourir d’un cancer lié au tabac que celles qui commencent dix ans plus tard. »

Une idée qui divise.

Au sein même du corps médical, la proposition fait débat. Ce, pour plusieurs raisons. Certains arguent le fait qu’elle ne ferait que générer un marché noir nocif. Le risque pour les fumeurs de consommer un tabac fabriqué par des contrebandiers serait bien pire. C’est également le point de vue du lobby du tabac qui considère de toute manière que « la prohibition ne fonctionne pas. »

L’association Forest qui milite pour les droits des fumeurs, défend pour sa part un point de vue éthique : « le tabac est toujours un produit légal et on ne pourra permettre à certains adultes d’acheter des cigarettes et nier ce droit à d’autres ».

Sans compter le problème de l’application de cette potentielle future loi… Car il faudrait contrôler l’identité d’un grand nombre de jeunes fumeurs.

Quoi qu’il en soit, la BMA reste très influente et ses propositions sont écoutées avec attention et souvent suivies par le gouvernement. En 2002 par exemple, elle était parvenue à proscrire le tabac des immeubles publics. En 2011 encore, elle interdisait les conducteurs de fumer en présence d’enfant dans leur véhicule.

Par Sébastien Tribot

La consommation mondiale d’aluminium, un indicateur du dynamisme de l’économie mondiale

C’est aussi un constituant privilégié des constructions d’habitations modernes et ses qualités de métal conducteur en font un substitut apprécié du cuivre devenu trop onéreux dans l’industrie des câbles. Comme de nombreux autres métaux, il donne lieu à une économie active de recyclage qui a assuré près de la moitié de la demande française d’aluminium en 2011 (l’économie circulaire, concept à la mode, dont se gargarisent certains, a été imaginée et mise en place il ya bien des décennies avec la récupération des batteries au plomb par exemple, elle donne toute sa mesure dans la production d’aluminium recyclé).

Le panel très large des cas d’utilisation font de ce métal un indicateur privilégié de la marche de l’économie mondiale. C’est ainsi qu’Alcoa, acteur mondial important dans la purification de l’alumine et l’électrolyse d’aluminium de première fusion, prévoit encore pour 2014 une croissance soutenue (+7%) de la demande de ce métal dans le monde tirée par la demande chinoise (+10%). Cette croissance porte la demande mondiale d’aluminium de première fusion , en 2014, vers les 52,8 millions de tonnes (fig.1) dont près des deux tiers est localisée en Asie.

Figure 1 : répartition géographique de la demande en Aluminium de première fusion en 2014 (Alcoa)

La production, dont plus de la moitié est réalisée en Chine en raison de la demande locale, du dumping énergétique de ce pays, dumping assis sur la combustion de charbon local ou importé et de faibles contraintes environnementales pour ce procédé d’électrolyse polluant. Il en résulte, depuis quelques années, un accroissement  continu des prix de ce métal sur l’ensemble du marché international (fig.2).

Figure 2 : Evolution des prix de l’aluminium de première fusion depuis 4 ans sur divers marchés mondiaux (Alcoa d’après Platts)

Les industriels des pays de l’OCDE, dont des pays européens, peuvent devant cette situation opter pour diverses options :

  • soit abandonner à l’industrie chinoise le soin de produire, à bas coûts et sans contraintes environnementales, l’essentiel de l’aluminium nécessaire à la bonne marche de l’économie mondiale ;
  • soit essayer par des méthodes innovantes et les moins polluantes possibles de maintenir ou de développer les productions occidentales de ce métal, ce qui suppose le maintient de prix de l’énergie incitatifs, énergie électrique nécessaire à la production de soude utilisée dans la purification de l’alumine et à l’électrolyse en sel fondu de la production d’aluminium. La production à bas coûts d’électricité à partir des gaz non conventionnels aux Etats-Unis est une opportunité pour maintenir localement ces productions. Quand à l’Europe, sorte de Sisyphe volontaire et exemplaire de la réduction des émissions de CO2, il lui faudra, peut-être, un jour, faire preuve d’un peu plus de réalisme, face aux milliards de tonnes de CO2 relargués tous les ans, en toute impunité, par la Chine et qui conduisent tout ses efforts à l’échec, par leur inefficacité, face au problème mondial de l’accumulation programmée de ce gaz dans l’atmosphère et dans les océans.

Par Raymond Bonnaterre

Et aussi dans les
ressources documentaires :

Maîtrise des émissions de CO2 et équation de Kaya

Dans une publication du mois de Mai 2014, le Docteur Goulu a bien voulu nous rappeler l’équation toute simple de Kaya qui présente la particularité de ramener les émissions de CO2 d’un pays ou d’une région du monde, au produit de 4 termes :

  1. L’intensité des émissions de CO2 par unité d’énergie produite ou consommée: CO2/TEP qui peut être exprimée en MT de CO2 générées par MTEP produite ou consommée. C’est un indicateur du caractère polluant de la  production locale d’énergie qui dépend des ressources disponibles ou importées d’énergies primaires et des choix préalables technologiques et politiques réalisés. Par exemple, l’équipement de la France en centrales électronucléaire a été un choix politique et technologique majeur. Celui de la Chine de brûler sans compter du charbon est un choix politique d’une impérieuse volonté de compétitivité énergétique, aux dépens du cadre de vie. Celui de l’Allemagne de se désengager du nucléaire, sans consulter ses voisins, fut un choix éminemment politique de recherche de cohésion nationale. Les conséquences économiques négatives pour l’Europe de ce choix allemand devront  être évaluées.
  2. L’intensité énergétique du PIB : TEP/PIB dont l’unité courante est le MTEP par milliards de dollars de PIB. Ce paramètre, avec le mouvement général de  tertiarisation de l’économie mondiale, est appelé à décroitre. Il intègre tous les progrès dans l’efficacité énergétique des processus d’extraction, de transformation et de transport des matières mais aussi ceux réalisés dans le transport des hommes, acteurs de la vie économique.
  3. Le PIB par habitant : PIB/POP qui est l’indicateur global de développement économique et de  productivité d’une nation ou d’une région du monde. Il va dépendre du niveau global de connaissance des acteurs et des investissements déjà réalisés dans les outils de production et les infrastructures. Il dépend des gains de productivité globaux  associés aux activités générales de production et de logistique.
  4. Et enfin le terme POP qui quantifie la population, active ou non, de ce pays ou de cette région. C’est une donnée qui varie avec le temps et les politiques migratoires et familiales.

Cette décomposition en quatre termes permet de segmenter l’équation globale en concepts un peu moins complexes à appréhender…bien que ceci ne soit pas toujours évident.

A titres d’exemples, je vous propose d’examiner deux termes du produit: le premier CO2/TEP et le dernier POP.

La publication récente par le pétrolier BP de sa « Statistical Review of World Energy 2014 » permet simplement, à partir du dossier Excel, sur plusieurs années et par pays d’accéder aux valeurs des intensités des émissions de CO2 rapportées aux consommations d’énergies (Figure 1).

Figure 1

En examinant sur plusieurs années ce premier terme de l’équation de Kaya il apparaît qu’il peut être très différent d’une nation à l’autre. D’après les données de BP 2014, il était en 2013 pour la Chine de 3,34 MT de CO2 par MTEP consommés (dernier point, courbe rouge). Et il affichait une valeur de 1,55 MT de CO2 par MTEP pour la France (dernier point, courbe bleue). Rapport de plus du simple au double. L’Allemagne (courbe verte) et les Etats-Unis non représentés ici, mais très proches de l’Allemagne sur ce critère, présentent des valeurs intermédiaires et voisines de celles du monde qui affiche en 2013 un rapport moyen égal à 2,76 MT de CO2 par MTEP.

Par contre les évolutions de ces valeurs au cours du temps sont très lentes (-9% pour la France en 13 ans, -4% pour l’Allemagne, +1,4% pour la moyenne mondiale), ce qui illustre la viscosité des choix énergétiques des nations, phénomène en totale opposition avec certains propos parlant de « virages » ou de « transition » qui nous sont, tous les jours, assénés par les propagandes étatiques . Une fois de plus, répétons que la France malgré son addiction aux carburants importés issus du pétrole, affiche  une excellente performance sur ce critère, grâce à son modèle énergétique électrique basé sur l’hydroélectricité et l’électronucléaire.

Pour lutter efficacement contre les émissions mondiales de CO2, il faut demander poliment à la Chine de bâtir un plan énergétique se rapprochant de celui de la France, abandonnant le charbon, avec pour objectif de réduire en une décennie le flux unitaire de ses émissions de CO2 de 30% pour passer au-dessous des 2 MTCO2/MTEP, en adoptant un mix électrique composé presque exclusivement  de centrales électronucléaires et d’hydroélectricité.

L’Inde qui affiche un coefficient de 3,25 MTCO2/MTEP en 2013, l’Indonésie à 3,11 et bien d’autres pays d’Asie devraient également adopter des mesures de restriction d’utilisation du charbon.

Sur la base de cet ambitieux, hypothétique, objectif chinois et compte tenu d’une croissance moyenne de consommation énergétique de 4% par an (ou 50% en une décennie), les émissions de CO2 de la Chine seraient alors globalement stabilisées autour des 11 milliards de tonnes par an. Sinon, en l’absence de mesures chinoises radicales, elles vont poursuivre leur croissance, tout simplement.

Quant au terme POP, la population mondiale qui est, d’après les prévisions médianes des Nations Unies, appelé à croitre pour atteindre vers 2050  les 9,5 milliards d’humains. Je vous invite à prendre cette donnée prospective avec beaucoup de philosophie et de consulter  la récente présentation au Collège de France de l’excellent Hervé Le Bras de l’Ined sur la faible fiabilité des prévisions dans le domaine démographique et sur les biais politiques et idéologiques attachés aux publications des Nations Unies. La croissance de la population mondiale prévue est liée dans ces projections à celle de l’Afrique et plus précisément à celle des pays du Sahel et du Nigéria, dans un contexte de bilan migratoire supposé nul. Allez-savoir ce qu’il pourra se passer dans ces pays politiquement et religieusement agités d’ici là ?

En conclusion, il apparaît sur la base de données historiques récentes que les flux unitaires d’émissions de CO2 ramenés aux consommations d’énergies (premier terme de l’équation de Kaya) sont très dépendants des choix énergétiques des Nations et qu’ils sont très différents d’une nation à l’autre. Faire le choix du charbon ou du nucléaire pour produire son électricité n’a pas les mêmes effets en termes d’émissions de gaz carbonique. Une approche quantitative pour chacune des nations sur ce terme est indispensable pour  préciser les objectifs.

Par Raymond Bonnaterre

L’impression 3D au service de la reconstruction faciale

Voilà une façon de préparer les implants originale. Si un hôpital n’a pas le droit de fabriquer ses propres biomatériaux, rien ne lui interdit de s’aider de maquettes plastiques pour les modeler précisément aux caractéristiques physiques du patient.  Et quoi de mieux pour réaliser ces maquettes qu’une imprimante 3D ? 

Le docteur Benoît-Luc Wajszczak de l’hôpital du Bocage à Dijon se félicite de l’acquisition d’une telle imprimante. Cet investissement d’un montant compris entre 3000 et 4000€ permet aux chirurgiens de reproduire le crâne d’un patient préalablement scanné. L’imprimante 3D, alimenté avec un plastique aux propriétés proches de la densité osseuse humaine, recrée alors tout ou partie du crâne couche par couche. Cela peut prendre entre 8 et quarante heures. Mais une fois accomplie, les chirurgiens disposent d’une représentation en plastique parfaite sur laquelle ils vont pouvoir ajuster les plaques de titane qui seront implantées sur le vrai crâne du patient. 

Une nouvelle façon de faire qui permet des implants d’une plus grande précision car « […] on a un accès plus facile aux structures osseuses et on peut modeler très facilement les plaques en titane sans être gêné par les tissus mous » précise le médecin sur France3 Bourgogne. En effet, jusque là, les plaques de titane étaient travaillées pendant l’opération, au bloc opératoire. Le fait de les avoir préparés avant  permet à l’équipe de chirurgie de raccourcir le temps d’opération d’une demi-heure, un gain conséquent pour une durée habituelle  d’une heure et demie. A cela s’ajoute la diminution des risques anesthésiques et de développer une infection.

Depuis son acquisition en décembre 2013, le service de chirurgie utilise son tout nouvel équipement environ une fois par mois, principalement sur des fractures de l’orbite, ce service traitant majoritairement des patients défigurés suite à un cancer ou une tentative suicide par arme à feu.

L’utilisation de l’imprimante 3D est jugée tellement concluante que l’hôpital prévoit d’en acquérir une deuxième, destinée cette fois à des pièces de plus grandes dimensions que les plaques en titane, suivant les besoins d’autres services comme en orthopédie par exemple.

Par Audrey Loubens, journaliste scientifique

Un engin propulsé par l’énergie solaire lancé dans l’espace en 2016

Le LightSail (Voile légère, en anglais) de la Planetary Society ressemble à un cube et doit être emmené dans l’espace à l’aide d’une fusée Falcon Heavy de la société SpaceX.

Une fois lancé, le LightSail pourra voyager à travers le cosmos grâce à la seule énergie solaire captée par ses voiles d’une surface totale de 32 mètres carrés.

Le projet est financé par des fonds privés et des membres de la Planetary Society, un organisme de promotion de l’exploration spatiale, co-fondé par l’astronome légendaire Carl Sagan en 1980.

LightSail doit dépasser l’orbite terrestre basse, là où gravite la Station spatiale internationale (ISS), pour rejoindre l’orbite terrestre moyenne, plus éloignée.

« Les ailes solaires vont nous donner accès à des données scientifiques cruciales sur la Terre », a déclaré Jennifer Vaughn, une responsable de la Planetary Society.

Selon son patron, Bill Nye, un vol d’essai avec une fusée plus petite et à une orbite plus basse doit avoir lieu l’an prochain.

De son côté, l’agence spatiale américaine doit lancer sa propre voile solaire, Sunjammer, d’ici à la fin de l’année.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Apprendre à démanteler une installation nucléaire

Voilà une formation à laquelle Tepco va inscrire tous ses employés ! Disponible à l’Institut national des sciences et techniques nucléaires, un établissement au sein du CEA, le logiciel DEMplus permet d’apprendre aux opérateurs à simuler différentes opérations de démantèlement nucléaire. Grâce à un avatar, l’utilisateur évolue sur la scène créée à partir d’un modèle CAO, de façon à mener différentes actions comme une découpe, une soudure ou encore une décontamination. Toutes les informations sont visibles à l’écran, des doses cumulées au coût de la tâche en passant par le descriptif des déchets.

Développé par Oreka Sud, ce logiciel sert à simuler intégralement le démantèlement d’une centrale nucléaire, traitant des aspects techniques et financiers. D’après le concepteur, son logiciel permet d’abaisser les coûts de 20%, une économie très importante au vu des sommes mises en jeu, le démantèlement d’une centrale étant estimé  entre 350 millions et 13 milliards d’euros selon les calculs. Des écarts importants liés à la difficulté de chiffrer précisément les dépenses, le sujet faisant toujours débat. A titre de comparaison, le démantèlement du site de la Hague atteignait les 4 milliards.

Compte tenu des multiples démantèlements à venir, l’importance de parfaitement préparer les opérations et de tester différents scénarii est évidente : « L’association des technologies 3D et la gestion globale de tous les paramètres offre des possibilités de simulations performantes pour déterminer le meilleur scénario sur un plan technique, financier, délais et déchets… » résume Luc Ardellier, Directeur général d’Oreka Sud.

Oreka Sud est associé au CEA, lui mettant à disposition le logiciel en échange de la mise à disposition des salles informatiques  pour dispenser ses formations aux futurs utilisateurs.

Découvrir DEMplus  en vidéo :

Par Audrey Loubens

Un rapport parlementaire dégage des pistes pour accélérer la transition énergétique

Rendu public mercredi et cosigné par le député Jean-Yves Le Déaut et le sénateur Marcel Deneux, ce rapport sur « Les freins réglementaires à l’innovation en matière d’économies d’énergie dans le bâtiment », émane de l’Office parlementaire d’évaluation des choix scientifiques et technologiques (OPECST).

Il contient 20 recommandations que ses auteurs espèrent voir reprises dans la future loi sur la transition énergétique.

« La France a tous les atouts pour relever le défi de la transition énergétique », y lit-on. « Il faut pour cela simplifier, +débureaucratiser+, rendre le système plus transparent, soutenir la formation de tous les acteurs (…), ouvrir le système vers les universités, organiser l’audit et l’expertise et évaluer a posteriori les techniques mises en oeuvre », estiment les parlementaires, selon lesquels 300.000 emplois pourraient ainsi être créés dans le bâtiment.

Parmi les propositions avancées, ils préconisent de « soutenir la qualité au sein des filières industrielles du bâtiment, par une commande publique exemplaire et un renforcement de l’effort de recherche ».

Les appels d’offres de l’Etat comme ceux des collectivités publiques devraient notamment considérer « non le prix d’achat, mais le coût cumulé sur la totalité du cycle de vie », maintenance comprise, des produits.

Les parlementaires proposent aussi d’articuler la réglementation française avec des labels européens exigeants tels que « Passivhaus » et « Minergie Plus », conçus pour certifier des bâtiments à la consommation d’énergie faible ou nulle.

Aussi il convient de simplifier la « jungle désordonnée des aides », jugent les auteurs du rapport, en « globalisant » celles-ci et en les « orientant par priorité vers les projets de rénovation les plus structurés ».

L’accès aux aides serait conditionné à l’établissement préalable d’un plan global de rénovation, et il serait mis fin progressivement aux aides accordées « au coup par coup, pour de nouveaux équipements ».

Autre recommandation: renforcer la formation à la performance énergétique dans les lycées professionnels et créer une nouvelle filière universitaire de « conseillers à la rénovation ».

Le rapport préconise enfin de « mettre fin à la situation de prescripteur prestataire » du Centre scientifique et technique du bâtiment (CSTB), en recentrant celui-ci sur ses activités d’évaluation technique des produits innovants et en transférant ses activités de recherche à une nouvelle entité.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Les Etats-Unis sont dès à présents de grands producteurs mondiaux de pétrole

Je voudrais ici, rappeler que dès à présent les Etats-Unis sont le troisième producteur mondial de pétrole et qu’ils ne sont qu’à quelques encablures de la première place détenue par l’Arabie Saoudite (avec 9,5 millions de barils/jour), elle-même talonnée par la Russie. 

 Cependant, affirme l’EIA, compte tenu de la part des condensats de gaz de schistes dans les productions  de pétroles américains, c’est la part des pétroles légers qui s’accroit, alors que les productions de pétroles lourds ou moyens restent sensiblement constantes (FIigure 1).

  • Figure 1

Compte tenu de cette segmentation des productions, deux hypothèses d’évolution du marché américain du pétrole sont possibles :

  1. Soit, comme c’est le cas aujourd’hui, les producteurs américains n’ont pas le droit d’exporter  de pétrole brut (sinon sous dérogation à leurs voisins du Nafta) et dans ce cas les raffineurs vont poursuivre les importations de  pétroles lourds complémentaires pour assurer les productions de gazole dans les raffineries locales et exporter de plus en plus de produits raffinés bien valorisés;
  2. Soit, l’Administration Américaine autorise certaines exportations de pétrole léger, en particulier vers l’Asie qui viendraient pour une part se confronter aux fournitures russes ou en provenance du Moyen-Orient.

Dans tous les cas, les importations nettes américaines de pétrole et produits pétroliers vont  baisser.

Le monde ne souffre pas d’un manque de stock naturel de pétrole et d’autres ressources énergétiques, par contre il doit investir pour maintenir des flux croissants de fournitures qui se stabiliseront, un jour, que sous l’impact des prix croissants. Ce n’est pas encore le cas.

Cela veut dire, en l’absence de signal prix et en présence d’une demande croissante, tirée par l’Asie, que les cours du pétrole disposent encore d’un boulevard pour se valoriser.

Par Raymond Bonnaterre

Les Chinois vont bientôt pouvoir voyager à près de 3000 km/h

Voilà un projet chinois aux allures pharaoniques : construire un train capable de rouler à 2900 km/h.

Ce super Maglev fonctionnerait comme les trains à sustentation, dont certains sont déjà en circulation en Chine, au Japon et en Corée du sud. Mais contrairement à ces exemples roulant  « seulement »  à une vitesse maximale de 581 km/h, le train évoqué par le docteur Deng Zigang, directeur du projet, approcherait les 3000 km/h. Une prouesse dont le secret résiderait dans le fait de faire circuler ce train dans un tunnel, profitant ainsi d’une pression dix fois inférieure à celle du niveau de la mer.

La diminution de la résistance de l’air engendrée suffirait pour décupler la vitesse du super Maglev. Deng Zigang en est persuadé et l’assure à nos confrères du Daily Mail, «Au-delà de 400km/h, plus de 83% de l’énergie de traction est dissipée par la résistance de l’air. ».

Pour l’instant, ces vitesses incroyables restent de l’ordre du fantasme. L’équipe du Docteur Deng Zigang ont bien réalisé une maquette testée sur la plate-forme abritée dans un hangar. Mais le long de ce cercle de 12 mètres de diamètre, la locomotive atteint une vitesse de point de 50 km/h, bien loin des 2900 km/h annoncés.  Cependant, le chercheur chinois de l’université de Jiaotong, à Chengdu, est convaincu qu’un équipement plus grand permettra de réaliser ce train qui mettrait Moscou à une heure de Paris !

Reste à savoir quelles dimensions seront nécessaires…

Par Audrey Loubens

Transition énergétique: le pétrole, grand oublié de la loi selon les électriciens

Selon Jean-François Raux, le délégué général de l’UFE, si le « bon côté » du texte est sa « stratégie bas carbone », « il doit traiter du pétrole au même titre que les autres énergies ».

Le projet de loi sur la transition énergétique fixe également comme objectif une réduction de 30% de la consommation d’énergies fossiles (pétrole, gaz, charbon), sans objectif pour chaque type d’énergie.

« On met toutes les énergies fossiles dans le même sac, alors qu’il nous parait important de hiérarchiser le pétrole et le gaz », a insisté M. Raux, précisant que le gaz émet beaucoup moins de CO2.

Pour cela, il plaide pour une mobilisation plus forte sur la problématique des transports, qui représentent 38% des émissions de CO2 du pays, et notamment sur une « diversification des solutions alternatives au pétrole », comme le GNL, des moteurs plus performants, l’utilisation de l’hydrogène, technologie sur laquelle « l’Allemagne a quelques années d’avance » sur la France.

Plus globalement, l’UFE s’inquiète de l’absence de prise en compte de « l’impact de la loi sur la compétitivité des entreprises dans une économie ouverte et mondialisée ».

Jean-François Raux, qui plaide pour « une transition énergétique au moindre coût » étant donné la situation financière du pays, pointe également le fait que le financement de la loi « a été traité jusqu’ici de manière marginale ».

Ainsi, sur le volet électricité de la loi, l’UFE estime que le choix d’une substitution du nucléaire par les énergies renouvelables n’est pas « rationnel » dans la mesure où cela nécessiterait des investissements « colossaux » (210 milliards d’euros pour remplacer 20 gigawatts selon ses chiffres) pour un gain en émission de CO2 nul.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Vous avez servi de cobaye à Facebook

Cette étude de grande envergure a concerné près de 700 000 utilisateurs sur une semaine. Concrètement, les scientifiques ont modifié l’algorithme de Facebook pour contrôler la qualité des post publiés dans le fil d’actualité. Ainsi, certaines personnes se sont vu infliger des messages négatifs, les messages positifs ayant été bloqués, tandis que d’autres ont pu lire principalement des messages positifs, ceux à caractère négatif n’étant pas visibles. Puis, les chercheurs se sont intéressés aux messages exprimés par ces utilisateurs, plus particulièrement leur aspect positif ou négatif. Les résultats sont sans appel : les personnes exposées aux messages négatifs postaient sur un ton lui aussi négatif, quand celles ayant lu des messages positifs exprimaient des avis eux-aussi positifs. Ainsi, la contagion des émotions passe bien par Facebook, et plus largement par les réseaux sociaux.

Les résultats publiés dans la revue Proceedings of the National Academy of Sciences of America (PNAS) étaient attendus, puisque l’on sait déjà que les émotions sont contagieuses. Si vous devez supporter toute la journée un collègue plaintif ou déprimé, vous risquez fort de finir la journée de bien mauvaise humeur. A l’inverse, partager son quotidien avec quelqu’un d’enjoué, d’optimiste et gai vous donnera le sourire.

En revanche, le déroulé de l’étude pose de sérieux problèmes éthiques. Si Facebook était informé de l’expérience, les utilisateurs, quant à eux, ne l’étaient pas ! C’est donc sans leur aval que 700 000 personnes ont été soumises à ce test psychologique. Ceci confirme l’ouverture du réseau social au domaine de la recherche en sciences sociales ou aux analystes de données pour qui Facebook est une véritable mine d’or.

Cette façon de faire assez contestable étant parfaitement légale, il y a fort à parier que d’autres tests psychologiques soient menés via Facebook. Alors si vous constatez des changements dans votre fil d’actualité, pas de panique, c’est juste une petite expérimentation…

Par Audrey Loubens, journaliste scientifique

Et si l’espace-temps était un superfluide ?

Entre autres réflexions sur l’Univers (avec celles du Big Bang, du Boson de Higgs…), la définition de la notion d’espace-temps a toujours soulevé son lot de questions, et bien souvent fasciné les romanciers/scénaristes toujours prêts à offrir une vision romantique de la chose. Car s’il a fallu attendre 1905 et la théorie de la Relativité Restreinte d’Einstein pour unifier l’espace et le temps en un espace-temps quadri-dimensionnel et par là même rajeunir la conception de la réalité physique, sa définition conserve malgré tout quelques inconnus.

Présentement, les physiciens Stefano Liberati et Luca Maccione ont émis l’hypothèse que l’espace-temps pourrait se comporter de la même manière qu’un fluide – précisément un superfluide. Le superfluide se caractérise par une viscosité nulle, c’est-à-dire la non-résistance à l’écoulement d’un fluide. L’hélium liquide fait partie de cette catégorie de fluide dénué de viscosité.

Leurs travaux, relatés dans un article pour la revue Physical Review Letters en avril dernier, supputent qu’une analogie entre la Relativité Générale et la mécanique des fluides est envisageable. Chose étrange, la similitude se situe au niveau de la compréhension que les scientifiques ont de ces deux théories. Ainsi, la Relativité Générale décrit « l’influence sur le mouvement des astres de la présence de matière, et plus généralement d’énergie » et donc le fonctionnement de l’Univers et ses interactions à grande échelle. Ce qui est également le cas de la mécanique des fluides qui est l’étude du comportement des fluides à l’échelle macroscopique.

Partant de là, les deux physiciens se sont dit que la comparaison espace-temps/fluide pouvait se révéler intéressante. Qui plus est, si l’intuition s’avère juste, cela expliquerait bien des choses et tendrait à accorder la théorie de la Relativité Générale d’Einstein avec celle de la mécanique quantique qui s’attache à comprendre les interactions fondamentales. Ce qui est d’une importance extrême puisque les scientifiques se démènent en vain à trouver une compatibilité entre ces deux grandes théories du XXe siècle. Il s’agit d’ailleurs d’un des grands défis de la physique actuelle. 

Par Sébastien Tribot

Rencontre avec Thierry Lemoine, expert pour « Imagerie Médicale »

Pourquoi une base documentaire sur l’imagerie médicale ?

lemoine

Thierry Lemoine. Elle a vocation de remplir un grand vide : l’imagerie médicale, ce sont des modalités qui ont explosé ces dernières années, notamment le scanner, l’IRM. Aujourd’hui il y a une très forte littérature en anglais, mais en français il n’y a pratiquement aucun document, aucun article, aucun livre, donc il m’a semblé important de combler cette lacune avec une base en français.

A quel besoin répond-elle ?

Thierry Lemoine. Le souhait des auteurs et des éditeurs est de répondre aux besoins des utilisateurs, aussi bien des équipements que des systèmes de visualisation de l’imagerie. Mais également aux besoins des concepteurs de nouveaux systèmes, et, pourquoi pas, aussi à ceux des jeunes chercheurs et étudiants dans le domaine de l’imagerie médicale.

Quels thèmes sont abordés ?

Thierry Lemoine. C’est une collection qui se veut très ambitieuse dans le spectre des domaines couverts, puisque notre volonté est d’aborder toutes les modalités, les cinq principales aujourd’hui , à savoir les rayons X, les scanners, l’IRM, les ultrasons et la médecine nucléaire, et les domaines plus émergents, dans l’imagerie optique notamment. Et ceci en partant des modalités, en passant par les équipements eux-mêmes, les systèmes de détection, et toutes les technologies de traitement d’image associées.

Qui en sont les auteurs ?

Thierry Lemoine. Nos auteurs sont choisis pour beaucoup dans le milieu universitaire. Donc ce sont des gens qui se tiennent à la fois au courant des techniques d’imagerie, mais aussi beaucoup des  applications thérapeutiques ou diagnostics qui peuvent être tirées de cette technique. Nous avons choisi des auteurs qui ont cette double vision, à la fois technique, et de ce que demande le médecin ou le radiologue.

La stabilisation des puissances éoliennes en Espagne préfigure-t-elle le futur du réseau ouest-européen ?

Cette attitude, assez  nouvelle en Espagne, de bon sens économique pourrait, dans certaines conditions, se généraliser à l’ensemble du réseau ouest-européen.

La vie industrielle nous apprend qu’un investissement de capacité, dans le cadre d’une expansion d’activité, constitue une excellente opportunité pour réaliser à peu de frais de puissants progrès techniques et de bienvenus gains de productivité.

En effet l’investissement est immédiatement rentabilisé par la croissance du chiffre d’affaire et apporte, en prime, ce que les économistes classent sous la rubrique « productivité globale des facteurs » qui quantifie globalement les gains de productivité ou de rentabilité naturellement induits par la croissance de l’activité économique et l’intelligence des hommes. En d’autres termes simples, il n’y a là que la traduction économique des progrès continus techniques et technologiques.

Dans le cas de la production d’électricité en Espagne, et selon l’électricien local Red Electrica, en raison de difficultés économiques de ce pays, nous assistons à une décroissance continue des consommations dans la péninsule et donc des productions qui perdaient en cumulé depuis le début de l’année à fin Mai 2014,  2,7% par rapport aux valeurs enregistrées durant la même période en 2013 qui elles-mêmes avaient décru de 4,4% par rapport à la même base en 2012.

Cette décroissance des appels espagnols de puissance électrique entraîne tout naturellement un arrêt des investissements de capacité et une stabilisation depuis 2012 des puissances installées autour des 102GW (Fig.1). Bien sûr les puissances éoliennes installées, elles aussi, depuis la même date, se stabilisent au-dessous des 23 GW nous informe Red Electrica.

Figure 1 : Puissances électriques installées en fin d’année dans la péninsule espagnole et à fin Mai pour 2014 (Red Electrica)

Il apparait donc, de façon tout à fait logique, que la baisse des appels d’énergie sur le réseau entraîne, afin d’éviter les excès de capacité de production, l’arrêt des nouvelles installations d’éoliennes en Espagne. Les seuls enjeux de réductions de coûts ou de progrès techniques ne peuvent pas justifier à eux seuls la pertinence de nouveaux investissements dans ce domaine.

Figure 2 : Consommations annuelles d’énergie électrique sur le réseau ouest européen (ENTSO-E)

Je ne vois pas pourquoi ce phénomène, économiquement raisonnable, à l’échelle de la péninsule ne se répèterait-il pas à l’échelle du continent ouest-européen dont les consommations d’électricité, tout comme en Espagne, décroissent (Fig.2) et dont les excès d’équipements de génération sont notoires et entraînent une baisse continue des prix de gros du MWh (Fig.3) ce qui décourage tout investissement de capacité non subventionné et entraîne, même, la mise sous cocon de centrales à gaz à cycle combiné les plus modernes (GDF-Suez) ?

Figure 3 : Prix de gros, en euros 2010,  du MWh électrique sur la plateforme EEX (Fraunhofer)

Même si la rumeur institutionnelle entretenue, en vigueur en Europe, annonce pour les années à venir, un accroissement rapide de la part des énergies renouvelables dans le mix électrique, la raison économique nous indiquerait plutôt que ces investissements dans de nouveaux moyens de génération, dont les éoliennes et les modules photovoltaïques, devraient décroitre et tendre progressivement vers zéro.

Bien sûr des décisions politiques de maintient des subventions tarifaires aux énergies intermittentes ou d’arrêt de centrales nucléaires existantes sont de nature à contrecarrer cette prévision de bon sens. Dans cette hypothèse il faut s’attendre à un accroissement continu des prix de détail de l’électricité qui intègrent les subventions tarifaires en vigueur.

C’est ce dont nous menacent certains volets de la soi-disant « transition énergétique » annoncée en France, à moins que la poursuite ou  l’accélération de la dégradation économique de notre pays ne stoppe net ce processus de surinvestissement, éminemment politique et annoncé en fanfare. Un mode de gestion plus rigoureux et plus économe des finances de notre pays devrait revenir un jour en vogue.

Par Raymond Bonnaterre

Les GPS perturbés par de terribles éruptions solaires

La NASA a observé deux grosses éruptions solaires en 48h. Celles-ci, compte-tenu de leur puissance, ont été classées X, le plus haut niveau d’intensité.

Observée par le satellite Solar Dynamics Observatory, la première éruption a eu lieu le 10 juin, suivie à peine une heure après d’une deuxième éruption, de moindre intensité.

Ces éruptions solaires de classe X ont provoqué l’éjection dans l’espace d’une importante quantité de plasma. Le nuage de particules magnétiques projetées s’est dirigé vers les planètes alentours, dont la Terre. Si ces particules sont inoffensives pour l’homme, il n’en est pas de même pour les composants électroniques. Plus particulièrement, les satellites et donc les systèmes GPS sont sensibles au passage de telles particules.

Le nuage issu des intenses éruptions solaires a traversé la Terre aux alentours du vendredi 13 juin. Si vos appareils, Smartphones et autres, ont semblé mal fonctionner, c’était peut-être qu’ils étaient en train de se faire traverser par tout un tas de particules magnétiques  chatouilleuses ! Cette activité du soleil coïncide avec un basculement du champ magnétique solaire. Depuis quelques mois, le Soleil tend vers le maximum de son cycle, et son activité ne devrait pas diminuer avant 2015.

Il est à noter que ce cycle solaire est l’un des moins intenses parmi ceux connus. Ceci ne préserve pas d’une super tempête solaire, qui pourrait avoir des conséquences sur le matériel électronique désastreuses au point d’impacter l’économie à l’échelle mondiale. En attendant que le Soleil nous tombe sur la tête, vous pouvez admirer ces éruptions solaires remarquables grâce à la vidéo de la NASA :

Par Audrey Loubens

Un robot filme le cœur de Fukushima

L’eau. C’est l’obsession des exploitants de Fukushima.

Or, celle-ci ne cesse de s’accumuler et son stockage nécessite la fabrication en continu de réservoirs pour éviter qu’elle ne se déverse dans l’océan. Alors même que le projet de Tepco de bâtir un mur de glace pour empêcher l’eau provenant des collines environnantes de passer sous la centrale  vient d’être accepté, limitant ainsi le volume d’eau contaminée à stocker, les ingénieurs japonais détiennent enfin toutes les informations sur l’existence de fuites d’eau, leur cause, leur débit…

En effet, Tepco s‘est rendu compte que de l’eau s’échappait, soupçonnant des dégradations au niveau du circuit d’eau.  Problème : les vannes sont situées au cœur du réacteur n°1, à l’intérieur duquel règne une radioactivité mortelle. Impossible d’y envoyer des hommes. C’est donc un petit robot qui s’est faufilé pour accomplir cette mission d’exploration. Après l’échec  de l’envoi d’un bateau télécommandé, ce petit robot construit par Hitachi et General Electric portait sur ses métalliques épaules l’espoir de Tepco. Il lui aura fallu trois jours pour inspecter la totalité des circuits d’eau.

Son excursion est un succès puisqu’il a mis à jour une importante fuite au niveau d’une vanne reliée à la cuve de confinement. D’après les images, se sont entre 0.75 et 1.5 tonnes d’eau qui s’écoulent chaque heure ! Tout ça à cause d’un joint ayant subi une importante corrosion. Reste aux équipes de Tepco à réparer pour endiguer au plus vite cette fuite colossale et limiter les quantités d’eau accumulées sur le site.

Regardez ce reportage pour découvrir l’origine de la fuite :

Par Audrey Loubens

Sites internet : attention à votre consommation électrique !

A chaque fois que vous réalisez une tâche sur votre ordinateur, ouvrez ou fermez un programme ou un nouvel onglet dans un navigateur, la consommation électrique de votre ordinateur fluctue. La consommation électrique de votre ordinateur n’est pas fixe !

Le projet « Web energy archive » s’est intéressé pour la première fois au surplus de consommation électrique des ordinateurs des utilisateurs dû à la consultation de sites internet. Mené par Green Code Lab, association spécialisée de consultants dans l’éco-conception des logiciels, il a obtenu le soutien de l’ADEME.

Les 100 sites les plus visités étudiés à la loupe

Pour les 100 sites les plus visités en France selon ODJ/Médiamétrie, la consommation électrique moyenne est estimée à 60 milliwattheure (mWh) par page vue sur un ordinateur*. Mais la consommation est très inégale en fonction des sites : elle varie ainsi de 10 à près de 250 mWh. Cela peut paraître peu. Mais en prenant en compte le nombre de pages vues de ces sites, les auteurs estiment que, côté utilisateur, la consommation électrique des 100 sites web les plus visités en France est de 8 gigawattheure (GWh) par an. Cela correspond tout de même à la consommation de plus de 3000 foyers.

Les auteurs parlent ici d’impact dû à la consultation d’un site web. Ces 8 GWh constituent le surcoût de consommation électrique côté client créé par la consultation du site, alors que l’ordinateur est déjà allumé. En prenant en compte la consommation électrique de base du PC, avant ouverture de la page, la consommation est alors estimée à 68 GWh, soit la consommation de 25 400 foyers !

Surfer avec une tablette ou un téléphone portable consommerait près de 5 fois moins d’énergie que sur PC. Mais là encore, la consommation varie de façon importante selon les sites consultés. Ainsi, si la consommation moyenne est de 9 mWh par page, les sites le plus légers consomment 5 mWh et les sites les plus lourds 13 mWh. Cela a un impact non négligeable sur la batterie ! « Sur une hypothèse de 1 heure de consultation par jour, on pourra avoir une différence de 10,6% d’autonomie en moins soit quasiment un cycle de décharge en plus tous les 10 jours », précise le rapport d’étude. Pour le bien de votre batterie, il faudrait donc en théorie privilégier les sites les moins énergivores. 

En réalité, «l’utilisateur ne peut pas faire grand-chose, c’est aux développeurs de sites de changer leurs pratiques pour plus d’éco-conception », estime  Olivier Philippot, membre de Green Code Lab. Selon lui, ils peuvent notamment remplacer le java par du htm5, réduire la taille des images et le nombre de requêtes lancées vers des serveurs à chaque connexion, simplifier les liens avec les réseaux sociaux, etc.

En bref, « l’impact des sites web sur la consommation des ressources des postes clients peut fluctuer en fonction de la plate-forme matérielle, du navigateur et du site web », peut-on lire dans le rapport. Chrome est ainsi la « Ferrari » des navigateurs, consommant près d’un tiers d’électricité en plus que Firefox et Internet explorer.

Serveurs ou utilisateurs : qui consomme le plus ?

Du côté des serveurs des sites, les chercheurs n’ont pas pu faire de mesures. Mais, en prenant en compte les caractéristiques de la page (taille des éléments, nombre de requêtes) et la provenance des éléments, ils ont tout de même pu estimer la consommation moyenne par page du serveur, soit 2,7 mWh. Pour les 100 sites les plus visités en France la consommation des serveurs est ainsi estimée à 0,58 GWh, soit nettement moins que la consommation des utilisateurs.

L’association travaille désormais sur le développement du Label smartweb, une sorte d’étiquette énergie pour les sites Internet. « Un site web pourra afficher cette étiquette pour se prévaloir d’un effort qu’il a fourni sur l’écoconception et la moindre consommation de ressources », prévoit Olivier Philippot. Green code lab compte lancer prochainement une opération de crowdfunding pour financer le projet. 

Pour voir les sites utilisés dans l’étude ou inscrire le vôtre et suivre sa consommation énergétique tous les 15 jours, rendez-vous sur http://webenergyarchive.com

 *Les mesures ont été réalisées sur 2 plateformes PC  (Intel P4HT/Windows XP et Intel Core 2/Windows 7) et sur un téléphone LG Optimus 5 II (LG-E460) fonctionnant sous le logiciel OS Android 4.1.2

Par Matthieu Combe, journaliste scientifique

La première étoile avec une étoile à neutron à la place du cœur vient d’être détectée

Les astronomes savaient que cela existait, mais personne n’en avait encore jamais vu. La théorie prédisant des supergéantes rouges hébergeant en plein cœur une étoile à neutron date de 1975, dans un article co-écrit par Kip Thorne et Anna Zytkow. Ces étoiles agonisantes sont tout naturellement appelées les objets de Thorne-Zytkow, mais jusqu’à ce jour, aucune mesure ni observation n’avaient validé la réalité de telles étoiles.

Une équipe d’astronomes américains vient probablement d’en dénicher une. L’équipe d’Emily Levesque a scruté le ciel et plus précisément la zone du Petit Nuage de Magellan. Ils y ont découvert une supergéante rouge, mais avec des propriétés particulières. L’étoile baptisée HV 2112 présente des quantités de lithium très importantes, ainsi que des taux de rubidium et de molybdène eux aussi très élevés. La présence de ces éléments en de telles proportions serait la preuve de la présence d’une étoile à neutron. Cette dernière se serait nichée dans la supergéante rouge suite à l’explosion d’une étoile appartenant à un système d’étoiles binaires, soit un ensemble de deux étoiles gravitant autour du même centre de gravité. Quand l’une des deux étoiles explose, elle donne naissance à une étoile à neutron plus petite, qui est alors littéralement avalée par la supergéante rouge.

Les observations des scientifiques américaines sont publiées dans Monthly Notices of the Royal Astronomical Society Letters.

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

Deux exoplanètes « semblables à la Terre » n’étaient que des illusions (étude)

Gliese d et g, qui, selon les calculs des astronomes, se seraient trouvées à 22 années-lumière (une année lumière équivaut à 9.460 milliards de km) de la Terre dans la « zone Goldilocks » (Boucles d’or), c’est-à-dire dans une zone assez proche et assez éloignée de l’étoile pour que de l’eau puisse y exister. Par ailleurs, la température et l’atmosphère sont propices à l’apparition de la vie et à son évolution.

Au moment de l’annonce de sa « découverte » en 2010, Gliese g, avait été décrite comme l’exoplanète la « plus comparable » à la Terre qui ait été détectée jusqu’alors.

Trop éloignées de notre planète pour être observées à l’oeil nu ou au télescope, les deux exoplanètes avaient été repérées dans les environs de l’étoile Gliese 581 grâce à l’examen du spectre de cette dernière.

Or, des astronomes de l’Université de Pennsylvania State, pensent que Gliese d et g n’étaient non pas des planètes, mais des signaux envoyés par l’étoile.

« Selon nos recherches, les deux planètes dont tout le monde parle n’existent malheureusement pas », a expliqué Suvrath Mahadevan, co-auteur de l’étude parue dans la revue Science.

« Ce qui avait d’abord été perçu comme des signaux envoyés par les planètes était en fait causé par l’activité stellaire », a-t-il déclaré à l’AFP.

En d’autres termes, les champs magnétiques ou des taches solaires pourraient avoir perturbé la lecture des signaux faite par les astronomes.

Les scientifiques avaient « découvert » six exoplanètes autour de Gliese 581. Mais en écartant l’existence de Gliese g et d –et celle d’une troisième, Gliese f–, il n’en resterait plus que trois, dont aucune n’est habitable.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Royal mise sur la biomasse pour la transition énergétique

Le projet de loi de programmation pour un nouveau modèle énergétique a été présenté par Ségolène Royal le 18 juin 2014. En ouverture du Colloque National Biomasse, elle a détaillé plusieurs annonces concernant la biomasse. Ainsi, « la biomasse contribue largement à la stratégie pour les énergies renouvelables ; le bois énergie est la première source d’énergie renouvelable en France, il représente aujourd’hui 80% de la chaleur renouvelable », note-t-elle.

Les bioénergies dans leur ensemble, c’est-à-dire le bois énergie, le biogaz et les biocarburants, pour la production de chaleur, de carburants, de gaz et d’électricité sont appelés à se développer rapidement. Le projet de loi prévoit en effet un objectif de 32 % d’énergies renouvelables dans la production d’énergie finale en 2030. Dans le détail, nous devrions atteindre en 2030, 40 % d’électricité d’origine renouvelable, 38% de chaleur d’origine renouvelable, 15 % de biocarburants, « un objectif de biogaz injecté dans le réseau étant évalué autour de 10  % », précise Ségolène Royal. Néanmoins, les détails plus précis, à savoir quelle sera la part de la biomasse dans le mix électrique et quelle sera la proportion de biomasse dans la production de chaleur ne sont pas encore connus. Simplement, plusieurs mécanismes sont mis en place pour lancer des dynamiques de développement.

Développer la méthanisation

Ségolène Royal attache « beaucoup d’importance » à la méthanisation. Pour accélérer son développement, elle lance un appel à projet pour 1 500 projets de méthanisation sur l’ensemble du territoire en 3 ans. La ministre veut créer une dynamique et ne pas freiner les ardeurs. « Si ça se fait en un an,  nous reconduirons l’appel à projet l’année prochaine », insiste-t-elle. Elle lance un objectif parallèle : simplifier les formalités administratives pour que les projets puissent être achevés en 2 ans, au lieu des 4 ans nécessaires actuellement.

Fin 2013, 271 installations de production d’électricité à partir de biogaz étaient raccordés au réseau électrique. « La filière biogaz est en bonne voie d’atteindre l’objectif de 625 MW installés en 2020 », prévoit-elle. Rappelons que la CSPE contribue au développement du biogaz à hauteur de 56 millions d’euros par an et le Fonds déchets de l’ADEME à hauteur de 33 millions d’euros en 2013.

Développer la chaleur renouvelable

On retrouve la même volonté de développement du côté de la production de chaleur à partir d’énergies renouvelables. Le mécanisme principal pour y parvenir est le renforcement du Fonds Chaleur de l’ADEME. Celui-ci attribue des aides financières pour le développement des réseaux de chaleur, le solaire termique, la géothermie, les chaudières biomasse et les énergies de récupération, notamment issues d’incinérateurs.

« Le Fonds chaleur de l’ADEME sera renforcé et son montant sera doublé sur trois ans », annonce Ségolène Royal, passant à 400 millions d’euros pour la période 2015-2017, « mais si les crédits sont consommés sur un an, on recommencera l’année suivante », insiste là encore la ministre. « Il n’y a pas de limites », juge-t-elle. On peut tout de même se demander où est-ce qu’elle trouvera les fonds si une telle situation devait se produire.

Pour accélérer le développement de chaufferies collectives biomasse, la ministre incite également les professionnels et les collectivités à se tourner vers les nouveaux prêts à 2 % de la Caisse des dépôts et consignations (CDC) issus du fonds dédié à la transition énergétique doté de 5 milliards d’euros. Environ 500 millions d’euros devraient être réservés aux énergies renouvelables et ces prêts sont accordés sur 20 à 40 ans, sans apport initial.

Le projet de loi projette également de développer le recours au chauffage au bois dans les rénovations et constructions. L’objectif est ainsi d’atteindre 9 millions de foyers français équipés d’un dispositif de chauffage au bois à l’horizon 2020 , contre 7,4 millions actuellement. Pour encourager les ménages à agir, un allègement d’impôts pour les particuliers à hauteur de 30% est mis en place.

Enfin, dès 2015, le Gouvernement lancera chaque année un appel à projet pour des installations en cogénération biomasse de plus d’un mégawatt.

Par Matthieu Combe, journaliste scientifique

Et aussi dans les
ressources documentaires :

La consommation énergétique des sites internet très inégale (étude)

La moyenne de l’énergie consommée par les 600 sites, dont les 100 les plus consultés, est de 60 watt-heures (Wh) pour 1.000 pages consultées, ont indiqué lors d’une présentation à la presse Olivier Philippot et Thierry Leboucq, membres de Green Code Lab.

Mais la différence entre les sites est énorme: « les meilleurs consomment 10 watt-heure et les plus mauvais 259 watt-heure », ont précisé les artisans de ce projet de mesure inédit, baptisé « Web energy archive » et développé avec le soutien de l’Agence de la maîtrise de l’énergie (Ademe).

« Nous nous sommes intéressés uniquement à la consommation des utilisateurs des sites, car jusqu’ici l’attention s’est plutôt focalisée sur les serveurs des data-centers », ont souligné les spécialistes de l’écoconception, qui prend en compte l’impact environnemental des produits.

Or, si la consommation des utilisateurs est plus diffuse, elle est aussi la face cachée de l’iceberg: selon les calculs de Green Code Lab, la consultation des 100 sites français les plus visités équivaut à une consommation de 8 gigawatt-heure par an côté utilisateurs, l’équivalent de la consommation annuelle de 3.000 foyers. Les serveurs utilisés, eux, consomment 0,58 GWh, estime-t-on.

« Les développeurs aujourd’hui ne se soucient pas du tout de l’énergie qui sera consommée et du matériel qu’il faudra pour utiliser leurs produits », a expliqué Thierry Leboucq. « Il est urgent de mettre en place de bonnes pratiques », estime-t-il, alors que les économies d’énergie sont une préoccupation grandissante.

En agissant sur différents facteurs (type de langage informatique utilisé, taille des éléments image et vidéo, nombre de requêtes lancées vers des serveurs à chaque connexion, etc.), « la consommation peut être fortement réduite », assure le spécialiste, ce qui aura aussi comme effet d’accélérer la vitesse de chargement du site.

Alain Anglade, ingénieur à l’Ademe, souligne également que « mieux vaut surfer sur une tablette ou un smartphone, que sur un ordinateur », qui multiplie au moins par cinq la consommation d’énergie pour aller sur un site.

Le projet « Web energy archive » a aussi montré que « la consommation varie d’un navigateur à un autre », note Olivier Philippot, Chrome étant plus énergivore que Firefox et Internet explorer.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Bruxelles veut jeter les déchets dans les poubelles de l’histoire

Dans un projet de directive visant à remettre à plat la législation en matière de gestion des déchets, l’exécutif bruxellois prône l’abolition en 2025 de la mise en décharge des déchets recyclables.

La Commission demande aux Etats de redoubler d’efforts, en portant d’ici 2030 à 70% la part des déchets dits « municipaux » recyclés.

Pour les emballages en particulier, le pourcentage devra être de 80%, avec toutefois plus d’indulgence pour le plastique, où l’objectif est de 60%, que pour le papier ou le fer, qui devront être recyclés à hauteur de 90%.

La Commission préconise aussi, mais sans l’imposer aux Etats membres, de réduire d’ici 2025 d’un tiers le gaspillage alimentaire et les déchets marins. Elle conseille aussi de réserver l’incinération aux seules ordures non recyclables.

Selon la Commission, un tel effort générerait des économies de l’ordre de 600 milliards d’euros, et permettrait de créer 180.000 emplois directs.

Il permettrait à l’UE de maîtriser sa production de déchets, de l’ordre de 2,5 milliards de tonnes en 2011. Seuls 42% d’entre eux ont été recyclés en 2012, le reste étant mis en décharge ou incinérés, avec d’importants écarts entre Etats.

Six pays arrivent en tête, avec moins de 3% des déchets recyclables mis en décharge (Allemagne, Autriche, Belgique, Danemark, Pays-Bas et Suède), mais quatre stagnent (Roumanie, Malte, Lettonie et Grèce), avec plus de 80% des ordures jetées. Entre ces deux pôles, le pourcentage de recyclage est de l’ordre de 50%.

En domestiquant ses poubelles, l’UE peut accélérer sa mutation vers « l’économie circulaire, où le réemploi, la réparation et le recyclage deviennent la norme, et les déchets font partie du passé », a souligné la Commission.

Pour le commissaire européen à l’Environnement, Janez Potocnik, la transition s’impose si l’UE veut rester compétitive « dans le monde du 21e siècle, des économies émergentes et des millions de nouveaux consommateurs ».

« Il y aura des résistances » tant nationales qu’industrielles, a-t-il admis. Mais il a appelé les réfractaires à prendre conscience qu’à l’avenir, « il y aura de la croissance verte ou il n’y aura pas de croissance ».

Les ONG environnementales ont salué dans ces propositions un pas en avant, mais l’ont jugé insuffisant, réclamant notamment des mesures strictes pour limiter l’incinération, afin d’éviter que les Etats n’y recourent comme solution de rechange aux décharges.

L’une d’entre elles, le Bureau européen de l’Environnement, a aussi souligné la nécessité que gouvernements et députés européens imposent l’harmonisation du calcul des taux de recyclage proposée par la Commission, pour que les Etats ne comptabilisent que ce qui est envoyé au recyclage final et ne gonflent pas les taux de recyclage en incluant les matériaux mal triés.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Le Sénat corrige la loi sur les ondes

« Nous sommes furieux ». Laurence Abeille, la députée EELV à l’origine de la proposition de loi, ne décolère pas. Les Sénateurs  ont procédé à des modifications majeures de son texte, contrant ainsi sa volonté de mieux encadrer les rayonnements et d’influer sur les opérateurs téléphoniques. 

Pourtant adoptée en janvier par l’Assemblée Nationale, la « proposition de loi relative à la sobriété, à la transparence et à la concertation en matière d’exposition aux ondes électromagnétiques » a succombé avant même la tenue des débats. En effet, le rapporteur du texte, le sénateur PS Daniel Raoult, a imposé de sérieuses coupes. Ainsi, exit l’interdiction de la publicité pour les terminaux mobiles, plus de coupure du wifi dans les écoles hors utilisation pédagogique, pas de mesure fréquence par fréquence, pas besoin de simulation de l’exposition avant la pose d’une antenne relai ni de concertation des riverains.  Voilà qui a rassuré les parlementaires UMP qui s’étaient opposés à cette loi, la jugeant anxiogène et contraire à l’amélioration de la couverture réseau.  Idem du côté des opérateurs de téléphonie qui ne cachaient pas leur soulagement.

Alors que restait-t-il ? Et bien pas grand-chose, à part le maintien de l’interdiction du wifi dans les établissements accueillant des enfants de moins de 3 ans.

Suite à sa deuxième lecture le 26 juin, le texte de loi a finalement été adopté dans une version allégée intermédiaire. Ainsi, le texte a réintégré des mesures de concertation lors de l’installation d’antennes relai, impose le kit « mains libres » et interdit le wifi dans les écoles (sauf usage pédagogique). 

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

Royal veut faire une énergie d’avenir du bois de chauffage de son enfance

Fait méconnu, le « bois énergie » (l’utilisation du bois comme combustible) est la « première source d’énergie renouvelable utilisée en France », représentant « 80% de la chaleur renouvelable », a déclaré la ministre qui s’exprimait à l’ouverture d’un colloque sur la biomasse organisé par le syndicat des énergies renouvelables (SER) et France Biomasse énergie.

L’ancienne présidente de la région Poitou-Charentes a affirmé qu’elle avait été la « première présidente de région à équiper les lycées de chauffages à bois », malgré les oppositions, y compris au sein de sa propre majorité.

« Toute mon enfance, dans les Vosges, j’ai été chauffée au bois », a également dit Mme Royal, ajoutant qu’elle avait continué à se chauffer de cette manière « dans sa région » et invitant les industriels présents dans la salle à « améliorer la technologie des poêles à granulés à bois ».

Elle a rappelé que les nouveaux prêts de la Caisse des dépôts (jusqu’à 5 millions d’euros sur 20 à 40 ans, sans apport initial) devraient permettre d’accélérer le déploiement de chaufferies collectives biomasse. L’objectif d’équiper 9 millions de foyers (contre 7,4 actuellement) de chauffage à bois devrait être atteint grâce à « la simplification du crédit d’impôts développement durable », a-t-elle déclaré.

La ministre a cependant souligné que si « la ressource forestière est abondante en France » – elle couvre près d’un tiers du territoire – « elle est fortement sollicitée: il convient donc de l’utiliser au mieux et de ne pas la gaspiller ».

Il n’y a pas de risque en la matière, a répondu la directrice générale déléguée de l’Ademe, Virigine Schwartz, rappelant que la coupe du bois en France est très inférieure à l’accroissement naturel de la forêt.

Toutes essences confondues, la forêt française produit 85 millions de mètres cube de bois par an. Seule la moitié est récoltée.

Or ce « taux de prélèvement » pourrait être porté sans dommage à 75% afin de permettre à la France de respecter les objectifs qu’elle s’est fixés, a ajouté Mme Schwartz.

La loi de transition énergétique, dévoilée à la mi-juin, prévoit que la part des énergies renouvelables dans la consommation atteigne 23% en 2020 et 32% en 2030.

Autre sujet: si le bilan carbone de la filière est positif (émissions de CO2 dues à la combustion largement compensées par la fonction de puits carbone de la forêt) selon l’Ademe, la pollution aux particules fines générée par le chauffage au bois en « foyer ouvert » nécessite que les fabricants améliorent les performances des appareils, a souligné la ministre.

Enfin, Mme Royal recommande de sensibiliser les propriétaires d’hectares de forêt, « qui ne perçoivent pas toujours la valeur économique de leur bien ».

La France compte 3,5 millions de propriétaires de forêts, dont 70% détiennent moins d’un hectare. C’est le cas de la ministre qui, dans sa déclaration de patrimoine publiée jeudi dernier, mentionne avoir acquis en 1989 une « parcelle bois » de « 16 ares 80 ca » centiares pour 300 euros, évaluée à 500 euros à la date de la déclaration.

L’industrie du bois pèse environ 50 milliards d’euros de chiffre d’affaires en France, et emploie au total environ 450.000 personnes. La filière bois énergie pourrait représenter 85.000 emplois en France en 2015, selon la ministre.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Le monde comptera 3,2 TW de solaire photovoltaïque et d’éolien en 2030

Les deux principaux moteurs de ce changement global seront le solaire PV et l’éolien terrestre. La puissance photovoltaïque cumulée en 2030 sera de 1,9 TW (0,14 TW en 2013), soit davantage que celle de l’éolien qui atteindra 1,3 TW. La puissance installée des autres EnR (dont l’hydroélectricité) sera de 2 TW.

La part combinée du solaire photovoltaïque et de l’éolien terrestre dans le mix électrique mondial passera de 3% en 2013 à 17% en 2030 (entre 16 et 18% selon les hypothèses retenues). Le troisième élément majeur sera l’hydroélectricité. En revanche, les contributions de la bioélectricité et de l’éolien offshore seront relativement modestes, tandis que celles du solaire thermodynamique (CSP) et de la géothermie seront faibles.

Le monde se dirige ainsi progressivement vers un mix électrique « Wind Water Sun », formule de Mark Jacobson, spécialiste des questions énergie-atmosphère de l’université Stanford.

800 GW de nouvelles capacités photovoltaïques en Asie

Entre aujourd’hui et 2030 la région Asie-Pacifique va installer 1.7 TW de renouvelables dont 800 GW de solaire PV, moitié au sol et moitié sur toitures, et 500 GW d’éolien. En 2030, le tiers de l’électricité de cette région très peuplée où vivent dès aujourd’hui 2 êtres humains sur 3, proviendra des EnR.

Milo Sjardin, directeur de la région Asie-Pacifique au sein de BNEF a déclaré que « la croissance du solaire va être spectaculaire dans cette région ». Une puissance de 800 GW de solaire PV, qui sera installée principalement en Chine, en Inde et au Japon, équivaut à 13 parcs électro-nucléaires français et à 500 réacteurs EPR, soit 31 réacteurs par an pendant 16 ans ! La capacité de déploiement du solaire PV, une technologie sans aucun risque pour les populations vivant à proximité des panneaux, facile à installer, ne produisant pas de déchets toxiques à longue durée de vie, qui ne consomme pas d’eau douce et est très bien acceptée par les populations, est effectivement impressionnante.

En Europe, selon BNEF, la part des énergies renouvelables (y compris hydroélectricité) dans le mix électrique passera à 50%. Et non à 60% comme indiqué par l’AFP probablement du fait d’une confusion entre puissance et énergie, erreur répétée par de nombreux médias francophones. C’est la puissance installée renouvelable qui passera de 40% aujourd’hui à 60% en 2030. La part de la production éolienne terrestre grimpera de 6% en 2013 à 20% en 2030.

La demande électrique européenne ne va augmenter que de 9% durant les 16 années à venir selon les experts de BNEF. Ce faible niveau de croissance, du fait d’une démographie périclitante et des progrès en matière d’efficacité énergétique, aura en France des conséquences au niveau de la production électro-nucléaire dont la part dans le mix électrique doit être réduite de 75% à 50% d’ici 2025.

Les émissions de CO2 ne commenceront à baisser qu’à la fin de la prochaine décennie

La puissance installée des centrales thermiques non durables sera de 5,3 TW en 2030. Le parc de centrales fossiles va passer de 3,5 TW en 2012 à 4,7 TW en 2030, soit une augmentation d’environ un tiers.

La proportion des centrales à gaz, deux fois moins émettrices en CO2 que les centrales à charbon, va augmenter au détriment de ces dernières, en particulier aux USA où 109 GW seront fermées en conséquence de la révolution des gaz de schistes. King Coal, particulièrement polluant, n’a plus la cote outre-Atlantique. Les centrales à gaz sont davantage flexibles que les centrales à charbon et nucléaires et peuvent ainsi être combinées avec les énergies renouvelables fluctuantes.

En Asie, dépendante de gaz naturel liquéfié importé et coûteux, 434 GW de centrales au charbon vont être en revanche installées, l’équivalent de 2 nouvelles centrales par mois.

En Europe, la part du charbon dans le mix électrique va chuter de 19% en 2013 à 8% en 2030. Celle du gaz de 25% à 17%. Grâce à la croissance du solaire photovoltaïque et de l’éolien les émissions de CO2 du secteur électrique seront divisées par deux. « La baisse annuelle de 5% des émissions de CO2 sera principalement le résultat de la hausse des capacités renouvelables et de la hausse du prix du carbone qui provoquera une substitution du charbon et du lignite par le gaz » estiment les experts de BNEF.

A l’échelle mondiale « les émissions globales en CO2 devraient cesser d’augmenter à la fin de la prochaine décennie, ceci du fait de l’addition, par les pays en développement et à croissance rapide, de nouvelles capacités fossiles en parallèle aux nouvelles capacités renouvelables » soulignent les auteurs du rapport.

Les habitants des pays en développement aspirent en effet à vivre selon les standards d’Europe de l’ouest et auront besoin des énergies fossiles en transition, tout comme les européens et les nord-américains en ont bénéficié depuis le XIXème siècle. La grande majorité du CO2 anthropique présent aujourd’hui dans l’atmosphère a été émis par les occidentaux. Les représentants des pays dits « du sud » ne manquent pas de le rappeler à l’occasion de chaque grand sommet climatique.

Les énergies renouvelables, un marché de 5000 milliards de dollars, contre 2700 milliards pour les énergies non durables

En 2030 la puissance photovoltaïque installée dans le monde sera quatre fois supérieure à celle du nucléaire. Compte-tenu du fait que le facteur de charge moyen du nucléaire est environ 5 fois supérieur à celui du solaire PV, la production solaire correspondra à environ 80% de celle du nucléaire. La production photovoltaïque dépassera probablement celle du nucléaire durant la décennie 2030.

La région Asie-Pacifique va attirer 2,5 trillions de dollars d’investissements dans les énergies renouvelables, dont 1,4 trillion en Chine. En Europe 94% des investissements dans le solaire concerneront le segment du petit PV. Une situation très différente de celle de la région Asie-Pacifique où la moitié des capacités PV installées concerneront de grandes centrales.

Dans les Amériques 231 milliards de dollars vont être investis dans le petit solaire PV en toiture, soit 18% de la totalité des investissements dans le secteur électrique de ce continent. Seul le gaz naturel, avec 24% du volume des investissements en Amérique, dépassera le solaire.

Cap vers une « Solar Electric Economy »

Selon plusieurs rapports, dont un du groupe pétrolier Shell, le solaire va devenir la source principale d’énergie de l’humanité durant la seconde moitié du XXIème siècle. Le groupe Total, géant pétrolier français, a investi 1,4 milliard de dollars pour acquérir 60 % du capital de l’entreprise SunPower, anticipant la révolution solaire qui ne fait que commencer.

Mais la compétition sera rude. Président de SolarCity qui domine le tiers du marché solaire résidentiel aux USA, Elon Musk vient d’annoncer la construction d’une « giga-factory » ayant une capacité de production d’1 GW/an de panneaux solaires. Il ne s’agit, selon Elon Musk, que d’une « unité pilote » qui n’est que le début d’une série d’usines géantes capables chacune de produire 10 GW/an.

Ce visionnaire a dans cet objectif acquis pour 350 millions de dollars l’entreprise Silevo qui produit des panneaux à base de silicium et sans argent, ce qui permettra une croissance sans contrainte sur le plan des matières premières. Le silicium est le second élément le plus abondant sur Terre après l’oxygène. Cette non dépendance envers l’élément argent deviendra dans les années à venir un sérieux atout en terme de compétitivité vis à vis des groupes concurrents. Elon Musk a également décidé de construire une gigantesque usine de production de batteries, qui sera en réalité la plus grande usine jamais construite dans le monde. Ces batteries alimenteront à la fois le marché du stockage stationnaire pour assister le solaire, et le marché de la voiture électrique.

C’est ainsi un écosystème complet qu’est en train de construire ce californien, son approche est holistique. ​Il a vraiment la tête tournée vers l’avenir avec son entreprise Space X qui fait trembler l’Agence Spaciale Européenne et avec Tesla, la star de l’électro-mobilité haute qualité dont les ventes battent des records.

« Le soleil est un réacteur nucléaire libre et très pratique » a déclaré le 17 juin 2014 Elon Musk, non sans son ironie habituelle, dont la fondation a d’ailleurs donné 500.000 dollars pour la construction d’une centrale solaire au Japon suite à la catastrophe nucléaire de Fukushima et dont la fortune personnelle dépasse le bénéfice net du groupe Total en 2013. Pour Elon Musk, nous sommes en train de vivre « le mouvement d’une économie hydrocarbonée d’extraction et de combustion vers une économie électro-solaire ».

Les Chinois n’ont pas dit leur dernier mot. Ils pourraient construire des usines de panneaux solaires au Mexique, pays membre de l’ALENA, afin de contourner les taxes douanières imposées par le gouvernement fédéral américain. Et, par ricochet, celles des gouvernements européens via le traité de libre-échange transatlantique. Ou alors en Malaisie où les entreprises First Solar et SunPower ont installé une bonne partie de leur capacité de production d’où l’impossibilité pour les autorités américaines de surtaxer les panneaux solaires provenant de ce pays.

Le « 2030 Market Outlook » de BNEF, rapport majeur qui parait une fois par an, est basé sur une modélisation de l’offre et de la demande du marché de l’électricité et sur l’évolution du coût des différentes technologies.

Par Olivier Daniélo

Dans les ressources documentaires :

Electricité : les énergies renouvelables vont représenter 60% de la production européenne en 2030

L’Europe devrait développer 557 gigawatts de capacités renouvelables supplémentaires d’ici à 2030, selon cette étude réalisée par Bloomberg News Energy Finance et basée sur les tendances du marché de l’électricité, les politiques menées et le coût des différentes technologies.

La production électrique à partir de ressources fossiles comme le charbon et le gaz devrait elle passer de 48% à 27% – l’électricité tirée du charbon diminuant de plus d’un tiers (de 195 à 125 gigawatts), et le gaz augmentant légèrement de 275 à 280 gigawatts.

« Notre étude montre que les améliorations à venir sur les marchés du solaire et de l’éolien permettront d’installer de plus en plus d’équipements non subventionnés dans les années qui viennent », a commenté Seb Henbest, directeur pour l’Europe, le Moyen-Orient et l’Afrique chez Bloomberg News Energy Finance.

« Nous nous attendons à ce que l’Europe investisse près d’un trillion de dollars pour développer ses capacités de production renouvelables d’ici 2030, dont 339 milliards de dollars dans les panneaux solaires sur les toits et 250 milliards pour l’éolien en mer ».

L’amélioration de l’efficacité énergétique permettra de modérer l’évolution de la demande d’électricité à +9% entre 2014 et 2030, et l’étude prévoit une baisse de 60% des émissions de CO2 du secteur énergétique (1,3 milliard de tonnes à 564 millions).

L’Allemagne et la Grande-Bretagne seront à la pointe de cette transition énergétique, selon Bloomberg, ces deux pays représentant près d’un tiers des nouvelles capacités de production. L’Italie devrait apporter 84 gigawatts d’électricité verte avec l’éolien, quand la France développerait 75 gigawatts et l’Espagne 43 gigawatts, surtout à travers le solaire.

Au niveau mondial, Bloomberg anticipe des investissement de 7.700 milliards de dollars dans la production d’électricité, dont deux tiers pour les énergies renouvelables. La région Asie-Pacifique dépenserait 2.500 milliards, les Amériques 816 milliards, et la région Moyen-Orient / Afrique 818 milliards pour cette production durable.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

L’Europe accepte qu’un pays interdise les OGM s’il le souhaite

On ne pourra plus dire que c’est Bruxelles qui impose ses décisions. Sur le sujet des OGM en tout cas. Car depuis le 12 juin, chaque membre de l’Union Européenne est libre d’interdire la culture d’organismes génétiquement modifiés sur leur sol. Les vingt-huit ministres de l’environnement se sont donc mis d’accord pour permettre à chaque nation de choisir si elle autorise ou interdit les OGM sur son propre territoire. Une première puisque jusqu’ici, seule la Commission européenne était habilitée à en décider.

Une fois cet accord validé par le Parlement, la Commission garde le rôle d’autoriser la culture de tel ou tel OGM, mais un pays pourra demander à ne pas être concerné par cette décision afin qu’elle ne soit pas appliquée sur son territoire. De plus, chaque pays qui le souhaite pourra mandater la Commission européenne pour qu’elle demande aux fabricants de telles semences de les exclure des demandes d’autorisations.

A ce jour, seul le maïs MON810 est autorisé en Europe. Sa culture suscite de nombreuses controverses en France ainsi que des affrontements récurrents entre anti et pro-OGM. Désormais libre de décider, le gouvernement français pourrait bien choisir de l’interdire purement et simplement.

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

Quelles sont les entreprises qui ont su optimiser leur outil de production ?

Travailler sur la baisse du coût de la main d’œuvre n’est pas suffisant. Le Syndicat français des machines et technologies de production (SYMOP) en est convaincu, doper l’industrie française passe par une mise à niveau de l’outil de production. Pour aider les industriels français à aller dans ce sens, le SYMOP a décidé de créer un label. Chaque entreprise qui le souhaite peut donc remplir un dossier et demander à bénéficier. Celui-ci est attribué par un comité de labellisation selon le respect de critères objectifs. Tout d’abord, la technologie de production doit être intégrée en France par une entreprise implantée en France. Deuxièmement, les gains de productivités doivent être significatifs. Enfin, il ne doit pas y avoir de conséquences négatives sur l’emploi.

Lancée en 2012, cette initiative a labellisé 56 entreprises dès 2013 au cours de deux sessions. Cette année, une seule session a eu lieu pendant laquelle dix-sept entreprises se sont vues remettre le label Productivez ! 2014. C’est le cas de AZ METALS, un sous-traitant en métallurgie qui a divisé par deux son temps de production tout en profitant d’une baisse des coûts de 13%. Une réussite liée à la mise en place du dispositif ROBOT Start PME et au développement d’un robot dédié à la production à distance de nouvelles pièces. Les opérateurs peuvent dès lors se consacrer à la fabrication de pièces unitaires. De son côté, BEIRENS, spécialiste des cheminées industrielles mécano-soudées pour le chauffage a modernisé sa fabrication en créant une cellule de fabrication cheminée de façon à rassembler les équipements autour d’une même machine. Là encore, les salariés peuvent accroître leurs compétences en ne se consacrant plus qu’à des tâches à forte valeur ajoutée. Au final BEIRENS a vu sa capacité de production tripler et estime ses gains de productivité à 30%. Pour les FORGES DE NIAUX, expert en pièces d’usure destinées au marché agricole,  le choix de l’automatisation a aussi été bénéfique. C’est désormais un robot doté d’une visualisation industrielle intégrée qui assure la manutention et la supervision. Un système qui diminue le temps de chargement des pièces de 80%, la capacité de production sur les installations grande série a bondi de 10%.

Ainsi, en récompensant ceux qui ont fait évoluer leur process, le SYMOP veut mettre en lumière l’importance capitale des outils de production dans la compétitivité des industries françaises. En complément de la création du label Productivez !, le syndicat a décidé de décerner un prix éponyme. Pour la première fois, le prix Productivez ! a donc été décerné à trois lauréats, parmi les treize labellisés 2013 les plus représentatifs du label : Aldes, Ets. Callewaert, Société Alsacienne de Meubles, SAS Forêts et Sciages Autun, Cauquil SAS, Meca-Innov’, Simeto, Usines Desautel, Meda-Manufacturing, SD Services, Les ateliers du Vallon, Magafor et TSA Inox, réparties en trois catégories : Productivité, Innovation Process et Mention spéciale du jury. Le jury était composé de 9 experts de l’industrie mais aussi de l’économie. Autour du président Jean-Paul Papin, directeur de l’agence de programme du CETIM et vice-président des Instituts Carnot , Vincent Charlet, directeur de La Fabrique de l’Industrie, Jean-Philippe Vanot, président de ParisTech, Nicolas Baverez, économiste et éditorialiste au Point, Robin Rivaton, économiste et consultant en stratégie à la Fondapol, Patrice Desmedt, journaliste à L’Usine nouvelle, Roland Dutertre, Compagnon Chaudronnier du Devoir, Eric Fresnel, vice-président du Symop et P-DG de la société

Sleever International, et Jean-Camille Uring, président du Symop, ont remis le Prix Productivité à la Société Alsacienne de Meubles pour sa stratégie de forte automatisation. La SALM a en effet embauché 200 salariés pour la création d’une nouvelle usine dotée d’un îlot robotisé et d’une machine de découpe au jet d’eau, le tout permettant un gain de productivité de 30%. Le Prix Innovation process à échu à Cauquil SAS pour son investissement dans des équipements innovants visant à simplifier et sécuriser la production. Enfin, la Mention spéciale du jury à été décernée à Magafor. Cette entreprise investit régulièrement dans son outil de production et a créé avec un fabricant de machines un transfert rotatif autonome et autocontrôlé assisté d’un robot. Des efforts qui ont divisé par 3 les temps de production.

Une deuxième session de labellisation devrait être organisée au deuxième semestre 2014.

Pour obtenir le label : [email protected] / www.symop.com/productivez/label

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :