Les réseaux électriques pour EnR meilleurs marché que les gazoducs

Mike Jacobs, analyste énergie & climat au sein de l’organisation UCS (Union of Concerned Scientists) a comparé les investissements nécessaires pour que les USA passent à un mix électrique 80% renouvelable avec ceux que l’industrie gazière appelle de ses vœux aux USA. Sa conclusion est que la première option est meilleure marché que la seconde.

L’America’s Natural Gas Alliance et la fondation INGAA ont estimé qu’il faudra investir 614 milliards de dollars durant les 20 ans à venir pour installer de nouveaux gazoducs aux USA et au Canada. Ce qui est équivalent à 14 milliards de dollars par an.

Une étude de l’EIPC (Eastern Interconnection Planning Collaborative) conclut que couvrir avec un grand réseau électrique pour EnR les 39 états de l’est américain, où habitent 220 millions de personnes soit 70% de la population des USA, coûtera 100 milliards de dollars. Et que cela permettra de réduire de 80% les émissions de CO2 d’ici 2050.

Une étude de GE Energy Consulting pour le gestionnaire de réseau PJM Interconnection qui couvre 13 états américains (61 millions de personnes, soit presque autant que la France) estime que le coût de la transmission pour atteindre 30% de renouvelables dès 2026 sera de 13.7 milliards de dollars et permettra une réduction de 40% des émissions de CO2.

Gaz de schiste ou énergie solaire, l’heure du choix

Les USA ont développé massivement ces dernières années la technologie d’extraction du gaz de schiste par fracturation hydraulique, ce qui a fait baisser le prix du gaz sur le marché. L’abondante production de gaz naturel a conduit à une telle baisse du prix du gaz que les producteurs produisent aujourd’hui à perte.

Les prix ont cependant déjà commencé à remonter et certains experts estiment que le gaz de schiste est une bulle qui va se dégonfler dès que les prix auront atteint un niveau compatible avec la rentabilité des projets.

Le gaz de schiste, s’il est préférable au charbon au niveau du bilan CO2, a cependant un bilan environnemental et sanitaire bien moins bon que celui de l’éolien ou du solaire. Et il s’agit d’une ressource non infinie.

Les USA s’apprêtent à construire le 4ème tronçon de l’énorme oléoduc Keystone XL, un projet vivement contesté.

Découverte d’une planète « Godzilla », 17 fois plus lourde que la Terre

Cette planète solide de composition rocheuse, située à 560 années-lumière de la Terre, a été découverte par la mission Kepler de l’agence spatiale américaine (Nasa), ont annoncé lundi des experts lors d’une rencontre à Boston (Massachusetts, nord-est) de l’American Astronomical Society.

Cette méga-planète, nommée Kepler-10c, a un diamètre de 29.000 kilomètres, soit 2,3 fois celui de la Terre.

« La surprise fut totale quand nous avons réalisé ce que nous avions trouvé », a rapporté l’astronome Xavier Dumusque, du centre d’astrophysique Harvard-Smithsonian.

Jusqu’à présent, les astronomes n’envisageaient pas l’existence d’un tel « monstre rocheux », car plus la planète est grande, plus son attraction gravitationnelle lui fait amasser non seulement des matériaux solides, mais aussi et surtout de grandes quantités d’hydrogène, la transformant en planète géante gazeuse, comme Jupiter.

« C’est le Godzilla des Terre! » s’est exclamé Dimitar Sasselov, directeur du projet sur les origines de la vie à l’université de Harvard (Harvard Origins of Life Initiative). « Mais contrairement au monstre du film, Kepler-10c a des implications positives pour la vie », selon lui.

La mission Kepler de la Nasa peut seulement repérer des planètes mais elle ne peut pas vraiment dire si elles sont gazeuses ou rocheuses.

La taille imposante de « Godzilla » suggérait plutôt une planète de type « mini-Neptune », plus grande que la Terre avec une épaisse enveloppe d’hydrogène et d’hélium.

Or un télescope situé sur les îles Canaries a pu déterminer que cette méga-planète avait une masse 17 fois supérieure à celle de la Terre, soit bien davantage que ce qui était attendu.

« Kepler-10c a dû conserver son atmosphère au cours de son existence, car la planète est suffisamment massive pour que l’atmosphère ne puisse s’échapper », a expliqué M. Dumusque.

Kepler-10c, qui tourne autour d’une étoile similaire au Soleil en 45 jours, semble toutefois trop chaude pour que la vie ait pu y perdurer.

Mais cette méga-planète démontre que l’Univers était capable de créer de grandes planètes rocheuses même à une époque où les éléments lourds nécessaires, comme le silicium et le fer, étaient rares (l’Univers primitif ne contenait que de l’hydrogène et de l’hélium).

Elle appartient au système de Kepler-10, qui comprend aussi une autre planète nommée Kepler-10b. Ce système est âgé d’environ 11 milliards d’années, ce qui signifie qu’il s’est formé moins de 3 milliards d’années après le Big Bang, selon les scientifiques.

« La découverte de Kepler-10c est la preuve que des planètes de type terrestre se sont formées très tôt dans l’histoire de l’Univers. Et qui dit planète rocheuse dit possibilité d’apparition de la vie », suggère M. Sasselov.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Delta commande quinze A321 à Airbus, un contrat estimé à 1,2 milliard d’euros

La valeur de ce contrat, d’après la grille indicative de prix d’Airbus, est estimée à 1,65 milliard de dollars environ, soit 1,2 milliard d’euros.

La commande porte sur des A321 ceo (pour « current engine option », c’est-à-dire des appareils disposant d’une motorisation classique, par opposition à l’A321 neo, modèle doté de moteurs consommant moins de carburant et qui entrera en service l’an prochain), a précisé Airbus dans un communiqué.

Ces avions, qui seront livrés à Delta à partir de 2018, seront dotés de moteurs fabriqués par CFM, coentreprise entre le fabricant français Snecma (groupe Safran) et l’américain General Electric.

Comme le rappelle le constructeur européen dans son communiqué, Delta Air Lines, qui est une des principales compagnies aériennes américaines, exploite déjà une importante flotte d’Airbus, dont 126 appareils de la famille A320 et 32 de la catégorie A330. Ce nouvel achat porte à 55 le nombre d’Airbus actuellement en commande par Delta, dont 45 A321 et 10 A330.

Bien que Delta ait préféré Airbus à son rival américain Boeing, il s’agira d’appareils en partie « Made in USA ». Airbus a précisé en effet que nombre de ces avions seraient assemblés sur son site flambant neuf de Mobile, dans l’Alabama (sud des États-Unis). L’usine a commencé à recruter des employés et l’assemblage d’avions y démarrera l’an prochain, en vue d’atteindre une cadence de production de quatre appareils par mois en 2017.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Selon Cedigaz : « le délaissement du gaz menace la sécurité énergétique de l’Europe »

Cedigaz met en avant un « paradoxe », dans une étude publiée lundi: le gaz naturel offre de nombreux avantages par rapport au charbon, comme une meilleure efficacité énergétique, des rejets de CO2 moindres et une production plus flexible, mais sa compétitivité est mise à mal par l’effondrement des prix du charbon (exporté à bas prix des Etats-Unis, où se développe le gaz de schiste), et la montée en puissance des énergies renouvelables.

« Divers facteurs, dont une faible demande électrique, le développement rapide des sources d’énergies renouvelables, la chute des prix de gros de l’électricité, la cherté des prix du gaz par rapport au charbon et la faiblesse des cours du CO2, ont érodé la compétitivité du gaz naturel dans le secteur électrique européen », souligne le document.

La part du gaz dans le bouquet énergétique de l’Union européenne est ainsi passée de 23,6% en 2010 à 19% en 2012, et « la consommation de gaz par les producteurs d’électricité a diminué de 51 milliards de m3 », un recul équivalent à l’ensemble de la consommation annuelle de gaz en France.

Dans le même temps, le secteur énergétique a consommé 10% de charbon en plus, la plus polluante des énergies fossiles.

Conséquence: les centrales à gaz à cycle combiné, dont le coût marginal est élevé, ont été délaissées au profit d’autres moyens de production d’électricité. Ainsi, 25 gigawatts de capacités de production ont été arrêtés, fermés ou étaient menacés de l’être à la fin 2013, selon Cedigaz.

« Au total, près de 30% des capacités de production au gaz pourraient être fermées ou mises en sommeil d’ici à 2015-2016 », souligne l’association professionnelle.

« Cela pose un sérieux problème de sécurité d’approvisionnement énergétique auquel il convient de répondre de manière urgente », prévient-elle.

« L’avantage compétitif du charbon pourrait se maintenir au cours des dix prochaines années à moins d’une réforme structurelle du marché des quotas de CO2 pour permettre une remontée des prix du CO2 » (ce qui rendrait le charbon plus onéreux), estime Cedigaz, qui plaide aussi pour une révision à la baisse des prix du gaz.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Tepco va construire un mur pour empêcher la pollution des eaux circulant sous le site de Fukushima

Parmi les conséquences environnementales de la catastrophe de Fukushima, la pollution de l’océan pacifique par des fuites d’eau radioactive est une préoccupation majeure. A ce jour, ce sont 435 000 m3 d’eau radioactive qui sont stockées sur le site à l’intérieur de réservoirs géants. Les responsables de Tepco peinent à contenir cette immense quantité d’eau, construisant chaque mois des dizaines de nouveaux contenants pour ne pas déverser cette eau dans la nature. A l’eau de refroidissement vient s’ajouter l’eau naturelle présente au voisinage du site de Fukushima. Cette eau s’écoule sous la centrale,  rentre en contact avec l’eau radioactive utilisée pour assurer le refroidissement des réacteurs, et se retrouve contaminée. Tecpco doit donc en assurer aussi le stockage. En attendant de savoir quoi faire de l’eau radioactive, Tepco va tenter d’enrayer la déferlante d’eau d’origine naturelle de façon à contenir les quantités d’eau polluée. 

Pour empêcher l’eau saine de rentrer sur le site, Tepco a proposé  de fabriquer une barrière artificielle. Celle-ci prendra la forme d’un mur de glace, monté grâce à du liquide réfrigérant qui sera introduit dans le réseau de canalisations actuel. L’Autorité de sûreté nucléaire vient de donner son accord au projet qui va débuter dans les semaines qui viennent. Avec ce mur de glace, Tepco va mettre un terme à l’aggravation du problème de stockage de l’eau radioactive, mais en aucun cas le résoudre. Espérons que ce gain de temps sera mis à profit pour établir des solutions pérennes. 

L’accident nucléaire de Fukushima  suite à un Tsunami date de plus de trois ans. Classé comme accident nucléaire majeur de niveau 7, niveau le plus élevé, ce drame a mis un terme à l’investissement du Japon dans l’énergie nucléaire. Le démantèlement de la centrale de Fukushima est estimé à une quarantaine d’années.

Par Audrey Loubens, journaliste scientifique

Le textile moteur d’innovation pour les technologies high-tech

Intégrer des technologies high-tech dans le substrat textile

La quête de fibres hautes performances motive des partenariats entre des entreprises à fort potentiel technologique et des experts en fibres, et de ce ferment émergent de nouvelles technologies encore plus avancées. Le besoin en matériaux textiles hightech se fait croissant car ils répondent aux changements de notre environnement social. Si la dernière décennie a mis en évidence les atouts des nanomatériaux qui offrent des fonctionnalités révolutionnaires, le textile sera peut-être à l’origine d’une nouvelle révolution technologique.

Nanotechnologies et fibres

La structuration à l’échelle nanométrique améliore certaines fonctions cruciales (conductivité, action antibactérienne, résistance au feu), avec la diminution de la taille des composants, l’augmentation des superficies et des interfaces opérationnelles, le renforcement des interactions entre les matériaux. Les nanofibres ouvrent la voie à de nouvelles applications high-tech. Leur faible densité, leur large zone de surface, leur grand volume poreux leur confèrent des atouts incontestables par rapport aux autres fibres utilisées pour les non-tissés, tout spécialement dans la filtration. Aujourd’hui, il reste encore de nombreux freins à la production de nanofibres, car les processus pour les fabriquer sont très coûteux et l’incidence écologique reste à évaluer.

Biotechnologies et techniques textiles

Les biotechnologies intègrent le domaine du textile et cette coopération rapprochée est source de projets innovants. En biomédecine, les textiles se prêtent à l’ingénierie tissulaire, la réparation des plaies et les implants. Les biologistes et les ingénieurs travaillent de près pour développer des biomatériaux fibreux 3D résorbables et adaptables à la physiologie du patient. Les techniques textiles traditionnelles comme le tricotage, le tissage et le tressage sont utilisées avec des fibres PEEK. Les ingénieurs textiles peuvent doser la flexibilité du tissu en fonction de l’objectif thérapeutique souhaité. Chaque structure géométrique confère des propriétés mécaniques et physiques, permettant d’obtenir ainsi un matériau plus poreux ou au contraire un effet barrière. Les polymères, les métaux et les filaments de matière biologique peuvent constituer une structure textile composite correspondant exactement aux caractéristiques voulues et conforme au traitement biologique.

L’électronique organique dans le textile

L’électronique organique pourrait être une révolution technologique pour produire des semi-conducteurs plus écologiques et à moindre coût, dotés de propriétés élargies, notamment pour l’énergie, l’affichage et l’éclairage [105]. On pourrait ainsi concevoir des circuits flexibles insérables dans les vêtements, des panneaux photovoltaïques organiques (OPV), ou encore des solutions d’affichage ou d’éclairage par diodes électroluminescentes organiques (OLED), voire des composants électroniques transistors (OTFT). Un des atouts des polymères semiconducteurs est de pouvoir être mis en forme par des techniques d’impressions sur des substrats flexibles de grande dimension par électronique imprimée. Les investissements et les coûts sont aussi infiniment plus faibles que dans la filière silicium. L’électronique organique devrait représenter un secteur d’activités de 30 milliards de dollars en 2015 [106], poussée par le besoin d’économie d’énergie et de métaux rares, dans l’électronique. De nouvelles applications devraient voir le jour dans des secteurs comme la santé, le vêtement, l’édition, l’emballage, mais l’aspect écologique devra d’abord être étudié de près.

Le textile pour de nouveaux modes de communication sensibles

Les nouveaux matériaux textiles vont contribuer au défi de la dématérialisation, idéal de notre société de consommation boulimique. La progression continuelle de la miniaturisation des composants électroniques toujours plus puissants va permettre d’incorporer ces éléments dans le textile et de concevoir des dispositifs TIC que l’on portera sur soi. Le textile permettra peut-être de nouveaux modes de communication sensibles, dans le prolongement des ordinateurs portables. On voit déjà émerger le concept de « wearable computer », en prise avec tous nos sens. La prochaine génération de textiles intelligents inclura un système autonome de génération d’énergie, dérivée du soleil, du mouvement, voire des fluctuations de température. Ils sentiront notre présence, contrôleront notre santé et s’adapteront à nos besoins individuels. Ces smart textiles pourront être vus comme une « seconde peau » où les technologies embarquées permettront d’amplifier les caractéristiques cognitives de nos sens. Le calcul et la manipulation de données pourraient créer des expériences visuelles ou tactiles transmises à distance au porteur du vêtement intelligent. Tout comme pour le smartphone, le marché nécessitera d’élaborer des textiles intelligents capables d’exécuter plusieurs fonctions en même temps. Alors il y aura pléthore de nouveaux services à développer.

Auteur : Christine Browaeys, préface de Clément Sanchez
Editeur : EDP Sciences (Collection : InterSections)
Date de Parution : 05/2014
ISBN : 978-2-7598-1135-9
Public : Professionnels, étudiants, grand public
Broché : 220 pages
Site web du livre

Et aussi dans les
ressources documentaires :

Reach/CLP : toute l’actualité de mai 2014 2/2

Décisions d’importation de l’UE pour certains produits chimiques

20/05/2014

Une décision d’exécution de la commission du 15 mai 2014 adopte des décisions d’importation de l’Union pour certains produits chimiques (azinphos-méthyl, pentabromodiphényléther commercial, octabromodiphényléther commercial, acide perfluorooctane sulfonique, sulfonates de perfluorooctane, sulfonamides de perfluorooctane et sulfonyles de perfluorooctane) mentionnés sur les formulaires de réponse concernant l’importation qui figurent en annexe, est adoptée conformément au règlement (UE) no 649/2012 du Parlement européen et du Conseil.

http://eur-lex.europa.eu/legal-content/FR/TXT/HTML/?uri=OJ:JOC_2014_152_R_0002&from=FR

Exemptions pour le plomb

20/05/2014

Une directive déléguée 2014/69/UE de la Commission du 13 mars 2014 modifie, aux fins de son adaptation au progrès technique, l’annexe IV de la directive 2011/65/UE du Parlement européen et du Conseil en ce qui concerne une exemption pour le plomb dans la céramique diélectrique des condensateurs pour tension inférieure à 125 V AC ou 250 V CC destinés à être utilisés dans les instruments de contrôle et de surveillance industriels.

Une directive déléguée 2014/70/UE de la Commission du 13 mars 2014 modifie, aux fins de son adaptation au progrès technique, l’annexe IV de la directive 2011/65/UE du Parlement européen et du Conseil en ce qui concerne une exemption pour le plomb dans les galettes de microcanaux (GMC).

Une directive déléguée 2014/71/UE de la Commission du 13 mars 2014 modifie, aux fins de son adaptation au progrès technique, l’annexe IV de la directive 2011/65/UE du Parlement européen et du Conseil en ce qui concerne une exemption pour le plomb dans la soudure d’une interface des éléments empilés de grande surface).

Une directive déléguée 2014/72/UE de la Commission du 13 mars 2014 modifie, aux fins de son adaptation au progrès technique, l’annexe IV de la directive 2011/65/UE du Parlement européen et du Conseil en ce qui concerne une exemption pour le plomb dans les soudures et finitions des raccordements des composants électriques ou électroniques et les finitions des cartes de circuit imprimé, qui sont utilisés dans les modules d’allumage et autres systèmes de commande électrique ou électronique des moteurs.

 

Une directive déléguée 2014/73/UE de la Commission du 13 mars 2014 modifie, aux fins de son adaptation au progrès technique, l’annexe IV de la directive 2011/65/UE du Parlement européen et du Conseil en ce qui concerne une exemption pour le plomb dans les électrodes en platine platiné utilisées pour les mesures de conductivité. Plus d’information sur :

http://eur-lex.europa.eu/legal-content/FR/TXT/HTML/?uri=OJ:JOL_2014_148_R_0017&from=FR

 

Une directive déléguée 2014/74/UE de la Commission du 13 mars 2014 modifie, aux fins de son adaptation au progrès technique, l’annexe IV de la directive 2011/65/UE du Parlement européen et du Conseil en ce qui concerne une exemption pour le plomb dans les systèmes de connecteurs à broches souples autres que du type «C-press» destinés à être utilisés dans les instruments de contrôle et de surveillance industriels. Plus d’information sur :

http://eur-lex.europa.eu/legal-content/FR/TXT/HTML/?uri=OJ:JOL_2014_148_R_0018&from=FR

Exemptions pour le mercure

20/05/2014

Une directive déléguée 2014/75/UE de la Commission du 13 mars 2014 modifie, aux fins de son adaptation au progrès technique, l’annexe IV de la directive 2011/65/UE du Parlement européen et du Conseil en ce qui concerne une exemption pour le mercure contenu dans les lampes fluorescentes à cathode froide, à raison de 5 milligrammes de mercure par lampe au maximum, servant au rétroéclairage des écrans à cristaux liquides utilisés dans les instruments de contrôle et de surveillance industriels mis sur le marché avant le 22 juillet 2017.

Une directive déléguée 2014/76/UE de la Commission du 13 mars 2014 modifie, aux fins de son adaptation au progrès technique, l’annexe IV de la directive 2011/65/UE du Parlement européen et du Conseil en ce qui concerne une exemption pour le mercure contenu dans les tubes lumineux à décharge de fabrication artisanale utilisés pour les enseignes et la signalétique lumineuses, l’éclairage décoratif ou architectural et spécialisé et les créations lumineuses.

Nouvelle proposition de classification et d’étiquetage harmonisé

20/05/2014

L’ECHA a lancé une consultation pour l’harmonisation et l’étiquetage harmonisé de deux nouvelles substances (chlorsulfuron (ISO); 2-chloro-N-[[(4-methoxy-6-methyl-1,3,5-triazin-2-yl)amino]carbonyl]benzenesulphonamide). Les parties intéressées sont invitées à soumettre leur commentaire sur le site de l’ECHA, et ce avant le 4 juillet 2014.

Mise à jour du plan d’actions triennal d’évaluation des substances chimiques

25/05/2014

Un avis aux opérateurs économiques a été publié sur la mise à jour du plan d’actions triennal d’évaluation des substances chimiques (CoRAP) en application du règlement REACH.

Publication de trois documents d’orientation sur les biocides

28/05/2014

L’ECHA a publié trois nouveaux guides d’orientation sur les biocides.

Par Céline GABORIAUD, Ingénieur Environnement aux Ateliers d’Orval

 

Et aussi dans les
ressources documentaires :

Les énergies renouvelables désormais en tête du mix électrique européen

En s’établissant autour de 28% en 2013, elles ont légèrement dépassé le charbon et le nucléaire comme source première de production d’électricité, alors que la consommation électrique a diminué de 1% dans les 28 pays de l’Union européenne, essentiellement en raison de la crise économique.

Par ailleurs, la consommation d’électricité des pays du G7 (États-Unis, Canada, France, Allemagne, Italie et Japon) a stagné en 2013, selon le Bilan énergétique mondial d’Enerdata.

« Cela a des conséquences pour les grands acteurs de l’électricité », a commenté Sylvain Chateau, directeur général adjoint d’Enerdata. Cela « pose la problématique de la rentabilité des investissements qui ont été faits dans les centrales, quand elles tournent un nombre d’heures insuffisant pour rentabiliser l’investissement », explique-t-il.

Ainsi en Europe, plus de 20 gigawatts (GW) de capacités ont été fermées ou mises sous cocon depuis 2010, avec 13 GW supplémentaires annoncés d’ici 2017.

Prenant l’exemple de la France, il a estimé que cela pourrait poser à terme un problème, dans la mesure où les centrales qui seraient fermées rendraient le pays potentiellement « incapable de gérer une future période de pointe » de demande de consommation électrique.

Plus généralement, la consommation d’énergie des Brics (Brésil, Russie, Inde, Chine, Afrique du sud), et en particulier celle de la Chine, a encore tiré l’an dernier la demande mondiale, avec une croissance de 3,5% contre 2,1% pour le G20.

Selon Sylvain Chateau, c’est une croissance « toujours dynamique mais c’est beaucoup plus faible que par le passé et c’est le signe d’une sorte de maturité de la croissance de la demande de ces pays ».

– La Chine en pointe sur les renouvelables –

La Chine représente à elle seule 28% de la consommation d’énergie des pays du G20, devant les États-Unis (20%) et est responsable de 60% de l’augmentation de la demande en 2013. En matière d’électricité, le pays est le plus gros consommateur mondial, contribuant pour 85% de l’augmentation de la consommation du G20 (+2,3%).

La Chine occupe également la première place en matière d’installations d’énergies renouvelables éoliennes et solaires. Selon Enerdata, le pays connaît un « emballement » sur le marché du photovoltaïque, avec 7 GW de capacité installées en 2013, alors que dans le même temps, le mouvement ralentit en Europe à cause de la baisse ou de la suppression des tarifs d’achat.

Même chose sur l’éolien où les capacités installées chinoises représentent 37% de l’ensemble des nouvelles installations dans le monde.

Enerdata confirme par ailleurs le bouleversement du secteur du gaz du fait de l’exploitation des gaz et pétrole de schiste aux États-Unis. A l’horizon 2020, ce pays va devenir un acteur clé des échanges gaziers mondiaux. Près de 30 terminaux de liquéfaction sont actuellement en construction ou en projet et 53 gigamètres cubes de contrats GNL (gaz naturel liquéfié) ont déjà été signés, dont 38 en direction du Japon et de l’Asie.

Sur le plan des émissions de CO2, avec une hausse de 2%, elles ont continué de suivre le rythme de la croissance économique, la Chine étant responsable du tiers des émissions du G20. Cette évolution illustre « le peu de changement dans le mix énergétique » en 2013 en matière de conséquences sur les émissions de CO2.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Le risque d’une collision entre un astéroïde et la Terre est réel

Que ceux qui se moquent d’Abraracourcix arrêtent de rigoler. Car le chef Gaulois n’a peut-être pas tort de redouter les colères du ciel, un ciel qui pourrait bien nous tomber sur la tête ! Pour preuves, de nouvelles statistiques viennent d’être publiées par la Fondation B612 (rein à voir avec la terrible organisation  B613 de la série  Scandal). Depuis l’année 2000,  celle-ci a dénombré 26 impacts d’astéroïdes dont l’explosion induite est équivalente à «  […] la détonation de 1 à 600 kilotonnes de TNT » précise-t-elle. Ces mesures proviennent d’un satellite américain dédié à la surveillance de telles explosions. Problème, c’est 3 à 10 fois plus que les prévisions de la NASA.

 Heureusement, la plupart de ces explosions se produisent au dessus de l’atmosphère de telle sorte qu’aucun débris n’atteigne le sol terrestre, et dans le cas contraire, ces derniers tombent dans des zones inhabitées, principalement en mer. Mais qu’adviendra-t-il lorsqu’un astéroïde se précipitera sur une ville ? Souvenez-vous  de la récente pluie de météorites qui s’est abattue à Tcheliabinsk le 15 février 2013. Avec un diamètre compris entre 15 et 17 m, l’engin extra-terrestre a dégagé une énergie estimée à 440 kilotonnes, soit trente fois Hiroshima. L’onde de choc générée a causé les blessures d’un millier de personnes, principalement dûes à l’explosion des vitres et fenêtres. L’un des fondateurs de la Fondation B612 tient à prévenir les populations du fait que la chute d’un astéroïde de seulement 40 m de diamètre suffirait à balayer une ville entière.

Mais que fait la NASA ? Pour nous protéger de ce danger apparemment sous-estimé, le B612 propose de fabriquer une véritable sentinelle, capable de repérer les astéroïdes dangereux pour les détruire avant qu’ils ne se crashent sur Terre, il s’agit de la Sentinel Space Telescope Mission.

Par Audrey Loubens, journaliste scientifique

L’UE s’entend sur la culture des OGM à la carte

L’accord, qui doit être formalisé le 12 juin par les ministres de l’Environnement, a été adopté lors d’une réunion des représentants permanents des 28, après des années de blocage sur ce dossier.

Au départ opposés à la formule proposée, l’Allemagne, le Royaume-Uni et la France, qui redoutait un cadre trop favorable aux multinationales semencières, s’y sont finalement ralliés, selon le même diplomate. Egalement réfractaire, la Belgique s’est abstenue.

Sans renationaliser la procédure d’autorisation, le nouveau cadre permet à chaque Etat d’interdire la culture d’un OGM sur tout ou partie de son territoire pour des raisons autres que la santé et l’environnement, comme l’ordre public, l’aménagement du territoire ou la lutte contre la dissémination.

La procédure fixée par le projet de directive prévoit que les Etats puissent demander aux semenciers candidats à la mise en culture dans l’UE d’être exemptés du champ d’application de leurs demandes d’autorisation. Si ceux-ci refusent, l’Etat réfractaire prendra la décision d’interdire.

« Le compromis atteint donne au final plus de garanties aux anti-OGM » que la proposition de départ de l’exécutif européen, a estimé un diplomate européen.

« Une garantie légale assez solide » est assurée aux Etats contre d’éventuels recours des multinationales semencières, a-t-il ajouté. La France notamment avait bataillé pour cette sécurisation juridique.

Une deuxième chance est également offerte aux Etats pour interdire une mise en culture autorisée ou en voie de l’être, à la condition qu’ils puissent invoquer « de nouvelles bases objectives ».

Une clause de révision a aussi été introduite, prévoyant que la Commission européenne présente à l’issue d’un délai de quatre ans un rapport au Parlement européen et au Conseil.

Mais les Etats membres anti-OGM ne pourront pas interdire sur leur territoire le transit des OGM autorisés, précise le projet de directive.

Sous ces réserves, l’accord ouvre désormais les terres de l’UE à la culture des OGM, une mesure attendue par les semenciers depuis quatorze ans.

Jusqu’à présent, les divergences des Etats sur les semis OGM rendaient les procédures d’autorisation très difficiles et longues, objet à chaque fois d’empoignades politiques.

Les Etats membres réfractaires n’avaient que la possibilité de recourir à des clauses de sauvegarde nationales, souvent attaquées en justice.

Quatre OGM ont obtenu une autorisation de culture, mais un seul est encore cultivé: le maïs MON810 du groupe américain Monsanto, qui a demandé le renouvellement de cette autorisation. Les autres, deux maïs (BT176 et T25) et la pomme de terre Amflora, ont été abandonnés.

Mais sept autres demandes de cultures sont en attente d’une autorisation, dont le maïs TC1507 de Pioneer, filiale du groupe américain DuPOnt.

cb/csg/plh

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Le coût de production du nucléaire a bondi en France depuis 2010 (rapport)

La Cour estime à 59,8 euros le mégawattheure (MWh) en 2013 le coût de production moyen des 19 centrales nucléaires françaises, soit une augmentation de 20,6% (en euros courants) par rapport aux 49,6 euros de 2010, calculés dans son précédent rapport datant de janvier 2012.

En euros constants, la hausse serait de 16% à 57,5 euros, précise-t-elle, rappelant que le coût de production de l’électricité nucléaire représente environ 40% du prix payé par les consommateurs.

Cette progression s’explique notamment par la « forte croissance » des dépenses d’exploitation par l’opérateur des centrales EDF (achats de combustible nucléaire, personnel, impôts, logistique, etc.), indique le rapport actualisé à la demande de la commission d’enquête parlementaire sur le coût de la filière nucléaire.

« Compte tenu du poids de ces dépenses dans le coût de production de l’électricité nucléaire (41%, soit 24,8 euro/MWh en 2013), cette évolution, qui s’explique notamment par le déploiement du projet industriel d’EDF pour permettre le prolongement de la durée d’exploitation des réacteurs existants, a des conséquences lourdes sur le coût du MWh », souligne l’organisme public dans ce document de plus de 200 pages.

Ce chiffrage intègre aussi les dépenses de maintenance, qui devraient partir en flèche pour atteindre 3,7 milliards d’euros par an en moyenne entre 2011 et 2025, contre 1,7 milliard en 2010.

Ces « investissements de maintenance, en particulier de sûreté, n’ont pas encore atteint leur maximum; ils devraient encore sensiblement progresser jusqu’en 2017, avant de commencer à diminuer », souligne la Cour des comptes.

Le programme dit de « grand carénage » d’EDF prévoit en effet de mener pour 55 milliards d’euros de travaux de maintenance et de modernisation des 58 réacteurs nucléaires français qu’il exploite, à l’horizon 2025, pour pouvoir prolonger leur durée de vie au-delà de la limite de 40 ans initialement fixée lors de leur conception.

mpa/fpo/jag

 

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Usine du futur : le défi de la sobriété

L’industrie consomme environ 20 % de  l’énergie  française et un tiers de l’électricité. Cela  y représente donc un poste de dépenses important. Voici une bonne raison de s’y intéresser pour booster leur compétitivité ! Pour ce faire, l’Agence de l’environnement et de la maîtrise de l’énergie (ADEME) accompagne les entreprises à plusieurs niveaux. Elle les aide notamment à réduire leurs consommations, à analyser la performance énergétique de leurs équipements, à développer la récupération d’énergie fatale et à mettre en place des systèmes de production d’énergies renouvelables.

Miser sur l’innovation et l’accompagnement

L’ADEME soutient l’innovation des industriels notamment grâce aux investissements d’avenir. Entre 2008 et 2013, elle a également mené le  programme ADEME-Total. L’ADEME et Total y ont soutenu la recherche en technologies innovantes pour améliorer l’efficacité énergétique pour un montant total de 43 millions d’euros. Début 2014, environ 50 % des projets sont terminés et 5 technologies sont déjà disponibles sur le marché. Un nouvel appel à projet Recherche sur ces thématiques, porté uniquement par l’ADEME, est envisagé d’ici l’automne 2014. 

L’agence intervient aussi sur l’aide à la décision. « On aide les entreprises à faire des diagnostics sur la performance énergétique de leurs process industriels ou de leurs utilités pour voir, par exemple, sur l’air comprimé et la vapeur quelles sont les marges de manœuvre », affirme Sylvie Padilla, Responsable du service Entreprises et Eco-technologies de l’ADEME. Ces diagnostics permettent de déterminer des plans d’actions. Concrètement, ces aides à la décision prennent la forme d’un soutien financier entre 50 et 70 % du montant de la prestation (qui s’élève en moyenne entre 10 000 et 20 000 euros). Si ces audits énergétiques interviennent pour le moment sur la base du volontariat, à partir de Décembre 2015, ils deviendront obligatoires pour toutes les grandes entreprises, dans le cadre de la Directive Efficacité Energétique. 

Enfin, l’ADEME agit dans le processus de gouvernance du système de Certificats d’économies d’énergie (CEE). « Lorsque les industriels font des actions d’économies d’énergie, pour certaines,  elles peuvent les valoriser auprès des fournisseurs d’énergie qui ont des obligations en matière d’économies d’énergie à faire chez eux ou chez d’autres consommateurs comme les industriels », précise Sylvie Padilla. Par exemple, si un industriel met en place un moteur performant ou un récupérateur de chaleur, une part de son investissement pourra être remboursée par le fournisseur d’énergie grâce à ces certificats. « Cela permet de rendre plus facilement rentables les investissements en matière d’efficacité énergétique », se félicite Sylvie Padilla.

Concrètement, à quels postes s’intéresse-t-on ?

Les postes de consommation varient bien évidemment selon les industries. En 2010, l’industrie manufacturière française a consommé 120 TWh d’électricité et 311 TWh de combustibles. Les postes de consommations électriques majoritaires étaient les moteurs (69%), l’électrolyse (8%) et l’éclairage (4%) Pour les combustibles, là encore, les fours représentaient le poste le plus important (43 %) ; le séchage, le traitement des matières premières et le chauffage des locaux représentant respectivement 27 %, 11 % et 8 % des consommations. 

Tous ces postes peuvent être optimisés. Par exemple, selon l’ADEME, le potentiel d’économies d’énergie lié à l’air comprimé, au froid, au réseau de vapeur et au pompage peuvent être respectivement de 25 %, 20 %, 35 % et 40 % dans le cas théorique où il est possible d’investir dans la totalité des actions d’efficacité énergétique !

De façon globale, selon le scénario prospectif de l’ADEME sur la consommation d’énergie à l’horizon 2030 et 2050, le potentiel de réduction des consommations énergétiques industrielles sont d’environ 20 % d’ici 2030 par rapport à 2010. « Deux tiers de ces actions d’économies d’énergie pourraient être faites par des technologies existantes d’efficacité énergétique et un tiers par des approches innovatrices, comme l’a fait Bonduelle », confie Sylvie Padilla.

Un exemple concret : Bonduelle, vers des usines « sobres » en énergie

Les usines du groupe Bonduelle produisent 24h/24 et 7 jours sur 7 des légumes sous diverses formes. L’énergie utilisée notamment pour stériliser et surgeler les produits y est un poste de dépenses important. En 2010, Bonduelle a ainsi consommé 317 GWh d’électricité et 436 GWh de gaz pour préparer ses légumes. Elle a alors dépensé 38 millions d’euros pour le poste énergie, soit 10 % de son prix de revient.

Pour une meilleure efficacité énergétique, Bonduelle a engagé en 2009 le projet Usine Sobre, avec le support de l’ADEME. Ce projet a permis de passer en revue les trois technologies de transformation du légume du groupe : le surgelé, la conserve et le frais élaboré (salades en sachets ou barquettes plastiques). Dans ce contexte, Bonduelle a mis en œuvre la méthode de l’Energie Minimale Requise (E.M.R).

Cette méthode innovante évalue les besoins énergétiques minimaux nécessaires à la transformation des légumes pour les comparer à ce qui est concrètement mis en œuvre dans les usines. Elle a permis d’identifier des optimisations de procédé, des améliorations matures à installer et des solutions innovantes à développer. Les résultats ont montré qu’il est théoriquement possible de réduire la consommation de 60 % dans ses conserveries. L’entreprise estime donc envisageable de réaliser des économies réalistes entre 20 et 30 %. Un plan d’actions est en cours de déploiement !

Pour aller plus loin :

 

Par Matthieu Combe, journaliste scientifique

L’usine du futur à la française

Le plan « Usine du futur » propose sur le papier de développer les secteurs industriels français liés aux technologies de demain. Numérique, interfaces homme-machine, robotique, réalité augmentée, intelligence artificielle, réseaux sociaux sont des exemples de ces secteurs prometteurs. L’objectif affiché est de ne pas rater le coche de cette nouvelle révolution industrielle !

Une feuille de route validée

Le second comité de pilotage des 34 plans de la nouvelle France industrielle s’est tenu le 7 mai 2014 à l’Elysée. La feuille de route du plan « Usine du futur » a été validée. Elle a notamment retenu les 7 premiers projets pilotes qui serviront de vitrines des usines françaises pour l’export, mais aussi pour les entreprises du territoire. Ils seront lancés au 4e trimestre 2014. Une deuxième vague de projets pilotes sera prochainement planifiée avec 11 autres projets pilotes.

Parmi les premiers projets retenus, on trouve notamment le programme pilote 5E dans l’agroalimentaire qui vise à faciliter le financement des équipements industriels réduisant l’empreinte carbone des unités industrielles, les éoliennes off-shore du Havre, les chantiers navals en Bretagne et une unité de conditionnement de bouteilles de gaz liquide.

Le plan a également retenu le procédé de Moulage par Injection de Métal (MIM), porté par Safran. « Ce procédé s’avère être une méthode de façonnage compétitive pour la production, en grand volume, de petites pièces métalliques, aux formes très complexes et précises, avec des propriétés métallurgiques élevées et avec un réel potentiel pour concevoir de manière innovante ces pièces »,  avance le cabinet d’Arnaud Montebourg, ministre de l’économie, du redressement productif et du numérique.

Enfin, on trouve une ligne pilote de matériaux composites pour l’automobile fabriqués par Excelcar, une société de R & D créée par PSA, et une ligne flexible et automatisée pour des petites pièces en composites dans l’aéronautique.

« Le montant des aides n’est pas encore fixé ; en effet ces différents projets pilotes ont été présélectionnés pour une instruction accélérée. Les dossiers seront finalisés dans les semaines à venir et c’est l’instruction qui suivra qui sera en mesure de définir le montant exact des financements. » précise le cabinet d’Arnaud Montebourg.

Plusieurs aides accompagneront cette nouvelle industrie

Ces vitrines serviront de base de travail pour accompagner la modernisation des PME et des ETI. Leur diagnostic et leurs actions de modernisation se fera sous le co-pilotage des Régions qui financeront des diagnostics industriels pour 2 000 à 3 000 d’entre elles. Le financement des projets de modernisation de ces entreprises et des autres pourra se faire dans des délais très courts par une gamme de prêts de Bpifrance labellisés « Usine du futur ». Ils seront cumulables jusqu’à 12 millions d’euros par entreprise par le biais d’un amortissement accéléré de 2 ans au lieu des 5 à 10 ans habituels.

Ce plan veut aussi coordonner les briques technologiques existantes et développer les technologies nécessaires encore non matures grâce à 6 projets structurants de R&D financés par l’État. Les projets de R&D retenus concernent l’impression 3D, le contrôle non-destructif, la plateforme robotique Industrielle, la Virtualisation et l’Internet des objets, les matériaux composites et la place de l’homme dans l’usine. Les recherches s’étaleront entre 2015 et 2017 pour développer des solutions encore non matures nécessaires au développement de l’usine du futur.

A quoi ressemblera cette usine du futur ?

L’usine du futur sera plus robotisée. Mais Frédéric Sanchez, président du directoire du groupe d’ingénierie Fives, en charge du pilotage de ce plan avec Bernard Charlès, Directeur Général de la société Dassault Systèmes, veut miser sur l’homme et pas seulement sur les machines. Les robots l’assisteront pour améliorer les conditions de travail, s’acquitter des tâches les plus ingrates grâce à des interfaces homme-machine améliorées, mais ne le remplaceront pas. Ce modèle d’usine pourra être exporté dans les pays émergents.

L’usine du futur devra aussi être plus respectueuse de son environnement. Elle misera sur l’éco-conception, l’économie circulaire, économisera les matières premières et abaissera ses rejets. Plus flexible, elle utilisera également des outils de production reconfigurables. Son offre sera plus ancrée au niveau local, plus proche des besoins du marché, s’adaptant plus facilement aux demandes de ses clients. 

Par Matthieu Combe, journaliste scientifique

Pourquoi le cerveau se souvient-il des rêves?

L’origine du rêve continue d’être un mystère pour les chercheurs qui étudient la différence entre les « grands rêveurs », qui parviennent à se souvenir de leurs rêves régulièrement, et les « petits rêveurs » pour lesquels cet événement est plus rare. En janvier 2013 (travaux publiés dans la revue Cérébral Cortex), l’équipe de Perrine Ruby, chargée de recherche à l’Inserm et ses collaborateurs du centre de recherche en neurosciences de Lyon, ont réalisé deux constats : les « grands rêveurs » comptabilisent 2 fois plus de phases de réveil pendant le sommeil que les « petits rêveurs » et leur cerveau est plus réactif aux stimuli de l’environnement. Cette sensibilité expliquerait une augmentation des éveils au cours de la nuit et permettrait ainsi une meilleure mémorisation des rêves lors de cette brève phase d’éveil. Dans cette nouvelle étude, l’équipe de recherche a cherché quelles régions du cerveau différencient les grands des petits rêveurs en mesurant l’activité cérébrale spontanée en Tomographie par Emission de Positons (TEP) à l’éveil et pendant le sommeil chez 41 rêveurs volontaires.

Les volontaires ont été classés en 2 groupes : 21 « grands rêveurs » se souvenant de leur rêve en moyenne 5.2 fois par semaine et 20 « petits rêveurs » rapportant en moyenne 2 rêves par mois. Les chercheurs ont mesuré avec le scanner TEP l’activité cérébrale des grands et petits rêveurs pendant l’éveil et pendant le sommeil. 

Les résultats révèlent que les grands rêveurs présentent une activité cérébrale spontanée plus forte pendant leur sommeil au niveau du cortex préfrontal médian (MPFC) et de la jonction temporo-pariétale (JTP), une zone cérébrale impliquée dans l’orientation de l’attention vers les stimuli extérieurs. 

« Cela explique pourquoi les grands rêveurs réagissent plus aux stimuli de l’environnement et se réveillent plus au cours de leur sommeil que les petits rêveurs, et ainsi pourquoi ils mémorisent mieux leurs rêves. En effet le cerveau endormi n’est pas capable de mémoriser une nouvelle information en mémoire, il a besoin de se réveiller pour pouvoir faire ça » explique Perrine Ruby, chargée de recherche à l’Inserm. 

Le neuropsychologue sud-africain Mark Solms avait remarqué dans de précédents travaux que des lésions de ces deux zones conduisaient à une cessation des souvenirs de rêves. « Ces résultats montrent que les grands et petits rêveurs se différencient en terme de mémorisation du rêve mais n’exclut pas qu’ils se différencient également en terme de production de rêve. En effet, il est possible que les grands rêveurs produisent une plus grande quantité de rêve » conclut l’équipe de recherche. 

Sources
Resting brain activity varies with dream recall frequency between subjects Jean-Baptiste Eichenlaub1,2, Alain Nicolas3, Jérôme Daltrozzo1,2, Jérôme Redouté4, Nicolas Costes4, Perrine Ruby1,2
1 CRNL – Lyon Neuroscience Research Center, INSERM, CNRS, Brain Dynamics and Cognition Team, Lyon, F-69000, France.
2 University Claude Bernard Lyon 1, Lyon, F-69000, France.
3 Unité d’Exploration Hypnologique, CH le Vinatier, Lyon, F-69000, France.
4 CERMEP-Imagerie du Vivant, Lyon, F-69000, France.
Neuropsychopharmacology

 

Comment la simulation et la virtualisation vont devenir les clés de l’usine numérique

L’usine numérique est un outil, généralement un logiciel de simulation en relation avec une chaîne de production robotisée, rendant possible la planification du processus de fabrication d’un produit simultanément à sa conception. Le virtuel et le réel sont ainsi étroitement liés. Le process défini en amont est validé, ou corrigé, étape par étape. Les prototypes sont numériques, ce qui restreint l’usage de matières premières. Il n’est plus nécessaire de réaliser de nombreuses maquettes comme c’était le cas avant puis de corriger éventuellement le tir. Le produit fini est normalement apte à remplir la fonction pour laquelle il a été créé. 

L’exemple de Dassault Aviation montre les bienfaits de l’usine numérique

La simulation numérique a du bon lorsque l’intégration est réussie. Prenons l’exemple de la conception du Falcon 7X, un avion d’affaires signé Dassault Aviation. Lors de sa création, qui a nécessité de nouvelles méthodes d’assemblage, le montage a duré deux fois moins de temps que les estimations habituelles si les procédés de fabrication traditionnelle avaient été employés. Il a fallu seulement sept mois au lieu de quinze. La surface pour construire l’appareil a elle aussi subi quelques changements et a drastiquement diminué, passant de 650 à 250 mètres carrés. 

Présentement, Dassault Aviation vient de démarrer l’assemblage du premier exemplaire du Falcon 5X dans une usine de Biarritz.

L’usine numérique conçue par Siemens

Ce que l’on appelle « Usine numérique » ici, n’est autre que le produit de la fusion du logiciel d’automatisation TIA Portal avec le logiciel CAP Macatronics concept designer conçus respectivement par Siemens Industry et Siemens PLM Software. Il est employé pour optimiser la fabrication de produit. Ainsi, sur une même plate-forme, la conception, le debug et les tests ont lieu en même temps; ceci dans une logique de simultanéité entre la conception virtuelle et l’automatisation du processus de fabrication. 

Les problèmes pouvant se poser au fur et à mesure de la conception sont rapidement perçus et une solution proposée. En fait, la validation du process se fait dès la conception grâce à la connexion entre la partie virtuelle et celle qui est réelle. Il y a un véritable échange entre les deux logiciels et les répercussions sont automatiques en cas de modification dans l’une des parties.

Son utilisation est également pédagogique puisqu’une classe du lycée Vieljeux situé à La Rochelle teste l’outil numérique. Les élèves qui se préparent à un BTS Conception et réalisation de systèmes automatiques bénéficient en effet de la plate-forme d’automatisation et des outils MCD (Mecatronics Concept Designer). Ils travaillent sur une machine de nettoyage automatique de bacs à poisson et sa traçabilité. L’étude porte sur l’ergonomie des postes de déchargement des bacs, la vérification des données (types de poisson, date de pêche…) et la coordination des éléments.

Le virtuel pour appréhender le réel

Le Centre de recherche allemand sur l’intelligence artificielle (DFK) a développé un jeu vidéo baptisé Vistra (Virtual Simulation and Training of Assembly and Services Processes in digital Factories) destiné à la formation. Mis au point par des chercheurs en réalité augmentée, ce logiciel de simulation 3D permet aux employés de s’entraîner virtuellement, et donc sans risques, aux tâches de leur futur poste. Avantage non négligeable, le temps d’apprentissage en serait raccourci.

Par Sébastien Tribot

L’analyse des données industrielles en temps réel par Energiency

Après avoir roulé sa bille comme consultant chez Ernst&Young, Arnaud Legrand s’est aperçu que le lot des contraintes auxquelles doivent faire face les industriels les empêche bien souvent de suivre intégralement les plans d’action recommandés. Par manque de temps, de moyen, où parce que les industriels rencontrent des difficultés à anticiper d’autres paramètres, les raisons varient. En parallèle, l’ingénieur agronome a constaté que les factures liées à l’énergie avaient tendance à être décuplées ces dernières années. Il a donc eu l’idée de créer un logiciel web collaboratif dédié à l’analyse de milliers de données industrielles. Ainsi, la toute jeune start-up (créée en avril 2013) Energiency est née.

La modélisation de la consommation d’énergie pour une intervention immédiate

Le volume de données récoltées par les industries est tellement important qu’ils se retrouvent dans l’incapacité d’en faire usage. « Les industriels commencent à numériser leurs sites et à s’équiper de capteurs et compteurs intelligents pour mieux piloter leur consommation d’énergie. » Or pour un compteur industriel, on recense 300 000 données par an. Energiency propose d’analyser ces données et d’apporter des solutions en temps réel. 

En effet, l’algorithme utilisé par le logiciel, par l’analyse croisée des compteurs et des données recueillies en continu en usine, permet d’élaborer des plans d’action en tenant compte des variables de productions. Le logiciel soulage ainsi les industriels d’une gestion de données laborieuse. 

Le point fort de ce logiciel est qu’il est collaboratif. Tout se passe sur le Cloud. Cela signifie que chaque personne qui travaille dans l’usine, quel que soit son rôle, peut accéder aux données qui lui sont importantes selon son champ de compétence. Tout est là, à portée de clic. L’intervention sur les lignes de productions peut se faire en continu. 

Les bienfaits de l’analyse en temps réel

Le travail de ces données n’est pas vain. Il sert à anticiper les besoins, les problèmes, les écarts de consommation entre les estimations et le réel et ainsi prendre des mesures précises plus tôt qu’auparavant. Jusqu’à 20 % d’économies peuvent être réalisées par ce biais si les recommandations sont suivies et mises en place en temps réel par l’homme. Et c’est bien là le but premier.

Pour l’heure, le secteur agroalimentaire est le seul à bénéficier de ce dispositif. Energiency compte notamment parmi ses clients l’entreprise bretonne Triballat Noyal, dont l’activité se tourne autour des fromages, du végétal et de la nutrition (Sojasun, Petit Billy, Petit Breton, Vrai…). Il s’agit d’ailleurs d’un « grand client » pour la start-up qui a dû en équiper 17 sites de production. Mais, à l’avenir il y a fort à parier que le logiciel d’Energiency conquiert d’autres secteurs.

Ce qui nous ramène au sujet du cahier… L’usine du futur! Comme en témoigne le cas Energiency, on constate qu’elle sera connectée en permanence. Grâce au Cloud, il sera possible d’évaluer en continu les besoins afin de produire les protocoles à suivre et garantir de meilleures performances énergétiques. Le maître mot est donc l’optimisation des performances grâce à une gestion intelligente des données. Cela ne veut pas dire que les machines seront autonomes. Bien au contraire, l’homme aura toujours une place prépondérante dans les process industriels.

Par Sébastien Tribot

Quatrième révolution industrielle : 3 projets d’usine du futur

L’interface homme-machine ainsi que la robotique sont plus que jamais au coeur de l’usine du futur. Il s’agit d’ailleurs d’un des trente-quatre plans industriels lancés en 2013. Comme il est écrit, « la robotique est une des clés pour maintenir et relocaliser la production et l’emploi industriel en France. » Le gouvernement y croit dur et souhaite, grâce au plan, équiper 250 PME.

Voici quelques-uns de ces projets – pas nécessairement français -, en place, à l’état d’expérimentation où à venir.

Une usine expérimentale pour assembler l’E-Fan

Le premier vol officiel de l’E-Fan, un petit biplace tout électrique a eu lieu il y a à peine un mois à l’aéroport de Bordeaux-Mérignac. Il a semble-t-il enchanté le ministre de l’Économie, du Redressement productif et du Numérique, Arnaud Montebourg, qui l’a décrit comme une « révolution aéronautique ».

L’appareil se destine à un marché ciblé: celui des écoles de pilotage du monde entier. En tout, pas moins de 650 000 pilotes devraient être formés d’ici vingt ans. Cela nécessite donc un paquet d’avions-écoles, 21 000 selon Arnaud Montebourg.

La production de l’E-Fan doit débuter fin 2017 dans une usine expérimentale, basée à Mérignac. Au sein de sa surface de 1 500 mètres carrés, elle abritera des méthodes de production innovantes, dont la cobotique ou la coopération « entre un opérateur humain et un système robotique » est l’un des points importants avec la réalité augmentée. Ce sont à peu près 80 appareils qui devraient sortir de ses bancs de production tous les ans. La création de l’usine de construction de l’E-Fan pourrait engendrer quelque 350 emplois indirects locaux.

Les robots dirigés par des puces RFID

En mars 2013, le Centre de recherche allemand sur l’intelligence artificielle (DFKI) a présenté au salon Cebit de Hanovre une usine miniature intelligente qu’elle souhaite mettre en place d’ici 2020; symbole de la « quatrième révolution industrielle ».

L’usine produira des badges plastiques. À cela, rien d’extraordinaire. Ce qu’il y a d’intéressant en revanche, c’est que chacune de ces pièces est munie d’une puce RFID (radio-identification) permettant à l’objet en cours de fabrication de communiquer avec celui qui le fabrique: en l’occurrence des automates.

Concrètement, cela signifie que les puces RFID peuvent donner des instructions aux machines, comme par exemple la langue que le graveur doit inscrire sur le badge, sa couleur, sa forme… Ainsi la gestion se fait en temps réel et va dans le sens d’une plus grande flexibilité.

L’industrie automobile au rang des pionniers

Les robots industriels sont très répandus dans le secteur automobile. Il semble donc normal qu’ils suivent les progrès technologiques de ces derniers pour les intégrer dans leurs usines. Preuve en est avec le groupe Volkswagen. L’année dernière, le constructeur automobile a en effet équipé l’un de ses centres de production de moteurs d’un cobot nommé UR5. Ce dernier a pour but d’ôter les tâches pénibles et répétitives, où à faible valeur ajoutée qui incombent généralement aux ouvriers.

Le directeur du secteur Industrie de Siemens France, Vincent Jauneau, estime que le secteur automobile sera un pionnier en ce qui concerne la « quatrième révolution industrielle ». Il entrevoit un futur dans lequel la production sera réactive, rapide et paramétrable. Les robots, lorsqu’ils seront capables d’user à bon escient des données, permettront de réduire les factures énergétiques et augmenter la productivité.

Que devient l’homme ?

Les robots ont de l’avenir, c’est certain. Toutefois, l’usine sans hommes n’est pas pour demain, rassurons-nous. Les robots sont là pour effectuer les tâches répétitives les moins intéressantes, mais nécessitant de la précision. La nouvelle vague de robotisation soulignera au contraire les qualités de nos ingénieurs en leur apportant davantage « de tâches à valeur ajoutée », c’est en tout cas ce que pense l’ancien directeur industriel d’Air Liquide Emmanuel Julien. Quant à Frédéric Sanchez, coresponsable du plan « usines du futur », il dit lutter pour « une usine où l’homme sera placé au cœur, et pas pour des usines totalement automatisées, comme en Allemagne ou au Japon ».

Hommes et robots travaillant conjointement

La collaboration entre opérateur et robot se précise. De grands groupes industriels se penchent sur le sujet. Pour le moment des doutes concernant la sécurité des opérateurs subsistent. En effet, les hommes peuvent-ils travailler à proximité des robots sans danger ? Or, il s’agit d’assurer la sécurité des ouvriers. Pour ce faire, l’idée est de rendre les robots plus intelligents, en les dotant de capteurs, de caméras, de puces RFID afin de bien percevoir les mouvements des opérateurs et d’interpréter leurs intentions.

Par Sébastien Tribot

Quelles innovations sont indispensables à la construction de l’usine du futur ?

Rendre l »usine plus intelligente est un défi continu. Le développement de technologies avancées est crucial car elles seront intégrées dans l’usine de demain qui sera numérique, tout en laissant l’homme au centre des opérations. Rien n’est épargné, capteurs, puces RFID, simulation 3D, impression 3D, usine numérique… Tout ses outils façonneront l’usine de demain.

Les enjeux ne sont pas des moindres. Les industriels pour être compétitifs doivent optimiser leurs performances énergétiques, réduire les coûts de fabrication, être en mesure de faire face à des besoins modulables en temps réel… Les hommes devront s’appuyer sur les nouvelles technologies, dans une collaboration harmonieuse avec les machines, afin de mieux piloter les process. Et ce, dans une démarche durable. L’usine de demain doit en effet être soucieuse de l’écologie. Il est nécessaire de moderniser le parc industriel français, parfois vieillot. Cela passe bien sûr par la compréhension des processus industriels. C’est indispensable. 

C’est pour cette raison que le ministre de l’Économie, du Redressement productif et du Numérique, Arnaud Montebourg, insiste tant sur l’importance du projet « Usine du futur » comptant parmi les trente-quatre plan de ré-industrialisation et piloté par Frédéric Sanchez. Car il s’agit de rattraper le retard par rapport à nos collègues allemands ou américains dans ce domaine.

Par Sébastien Tribot

Un groupe chimique australien veut envoyer en France ses déchets toxiques

Le groupe possède 15.000 tonnes d’hexachlorobenzène, un produit soupçonné d’être cancérogène pour l’homme et dont l’utilisation est interdite dans la communauté européenne depuis 1981. Il est parfois incinéré pour être détruit.

L’Australie ne dispose d’infrastructures permettant la destruction de ces déchets et des demandes déposées en Allemagne (2007) et au Danemark (2010) ont été refusées par les gouvernements de ces deux pays, après les protestations de groupes de défense de l’environnement, dont Greenpeace.

Orica a produit ces déchets de 1963 à 1991.

Le groupe a indiqué avoir déposé une demande auprès du groupe français Tredi SA, qui dispose des infrastructures nécessaires à la destruction de ces déchets. Quelque 132 tonnes de HCB seraient envoyées dans un premier temps. Si l’opération réussit, le reste de la cargaison suivrait.

« Si la réponse à la demande d’Orica est positive, le groupe pense avoir identifié les moyens de résoudre un leg industriel et envionnemental qui date de plusieurs années », a déclaré Gavin Jackman, en charge des questions de responsabilité sociale au sein de la compagnie.

L’Australie est signataire des conventions de Bâle (1989) et de Stockholm (2001). La première réglemente les transports de déchets dangereux et la seconde vise à éliminer les polluants organiques persistants. Orica indique que sa demande auprès de la France respecte ces deux conventions.

« Il n’y a pas de méthode de destruction viable alternative en Australie et il ne semble pas qu’il y en aura dans un avenir proche », a ajouté Gavin Jackman.

« La seule solution est le stockage à long terme sur le site du parc industriel de Botany (en Australie), ce qui n’est pas acceptable par la communauté ».

Greenpeace a indiqué par le passé être opposée au transport de ces matériaux, en raison des risques d’accident en mer, et à leur incinération, en raison des risques de pollution de l’air.

La quantité de déchets est telle qu’Orica peut construire les infrastructures nécessaires pour la destruction de ces matérieux, autrement que par l’incinération, a estimé Adam Walters, chargé de la recherche au sein de Greenpeace pour la région Asie/Pacifique. « Mais ils veulent juste envoyer tout ça à l’étranger ».

L’hexachlorobenzène découle de plusieurs procédés industriels de chloration, souvent associés aux usines de production de chlore et de soude caustique. Il peut persister longtemps dans l’environnement.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

News informatique : mai 2014

La 5G en préparation au Pays du Matin Calme

Tandis qu’en France le réseau de quatrième génération fait tout juste son apparition, en République de Corée où celui-ci est présent depuis plusieurs années, on prépare déjà la cinquième génération. En effet, le gouvernement coréen entend mettre en place, d’ici 2020, pour la première fois au monde, un réseau de téléphonie mobile 5G. Pour cela, 1,1 milliard d’euros (1 600 milliards de wons) seront investis conjointement par le gouvernement et le secteur privé. Cet investissement visera à créer un marché de 235 milliard d’euros (331.000 milliards de wons) pour une valeur de production de 392 milliard d’euros (552.000 milliards de wons).

Selon le Ministère des Sciences, des TIC et de l’Avenir (MSIP), la technologie 5G permettra des vitesses de transmission de 1 Gbps pour les particuliers, 100 Gbps pour chaque antenne-relais et 1 msec pour un accès 1.000 fois plus rapide que la 4G. Il sera possible de télécharger en moins d’une seconde un film de 800 Mo, contre 40 secondes pour la 4G LTE-A actuelle, communément présente sur le territoire coréen. Le MSIP prévoit une présentation du prototype pré-5G en décembre 2015. Le principal service 5G sera mis en place en décembre 2017 et une démonstration sera faite aux JO d’hiver de 2018, qui seront organisés par la République de Corée dans la ville de Pyeongchang.

Des recherches seront lancées afin de trouver une nouvelle bande 5G dans la bande de fréquence supérieure à 6 GHz. Le MSIP projette de faire du pays le numéro un mondial des appareils mobiles d’ici 2020, pour une part de 20% sur le marché mondial des équipements, et le numéro un mondial en termes de brevets liés aux standards internationaux.Par souci de standardisation de la 5G, des échanges technologiques avec l’Europe et la Chine auront lieux. Il prévoit en outre de créer 16.000 emplois au cours de la période citée. Le ministère projette également le développement et la commercialisation de cinq grands services : réseaux sociaux du futur, images en 3D sur appareils mobiles, services intelligents, services ultra-rapide et hologrammes ultra haute définition (UHD). Cette démarche s’inscrit dans un grand plan stratégique pour le projet 5G appelé « Stratégie de développement industriel pour les télécommunications du futur ». Ce plan compte quatre pillier : l’actualisation avancée du marché 5G, la standardisation mondiale de la 5G, la recherche & développement et la création d’une nouvelle écologie intelligente.

Source : bulletins-electroniques.com

Vers des superordinateurs économes en énergie ?

Les superordinateurs actuels les plus performants, ceux figurant dans la liste dite Top 500, ont une vitesse d’exécution de l’ordre du pétaflop/s (1015 opérations par seconde) et nécessitent une puissance de l’ordre du mégawatt. On atteint les limites permises par la conception actuelle de ces machines : en extrapolant, le passage à une vitesse de l’ordre de l’exaflop/s (1018 opérations par seconde) nécessiterait une puissance de l’ordre du gigawatt, soit un réacteur nucléaire par ordinateur…

Des recherches sont donc menées dans le monde entier pour améliorer la conception des ordinateurs et les rendre plus économes en énergie. Du point de vue théorique, le principal problème a été identifié en 1961 par R. Landauer : l’irréversibilité logique entraîne une irréversibilité physique et donc une dissipation de l’énergie sous forme de chaleur. En d’autres termes, le fait de ne pas pouvoir retrouver les données d’un calcul à partir de son résultat se traduit par un gaspillage d’énergie, indépendamment de la nécessité de refroidir les circuits. Une réversibilité parfaite étant inatteignable, selon le second principe de la thermodynamique, la seule issue est de s’en approcher autant que possible.

La technologie actuellement envisagée pour les microcircuits d’un tel ordinateur « quasi-réversible » est appelée SQUID, pour Superconducting Quantum Interference Device, et utilise l’effet Josephson – apparition d’un courant entre deux matériaux supraconducteurs faiblement couplés. Les premières expérimentations suggèrent que la puissance nécessaire au fonctionnement d’un ordinateur utilisant cette technologie pourrait être un million de fois inférieure aux puissances utilisées actuellement.

La Russie participe à cette quête technologique. Une équipe de l’Institut de Physique Nucléaire Skobeltsyn de l’université d’état de Moscou (MGU) a récemment développé un nouveau microcircuit, dit biSQUID, utilisant notamment un matériau ferromagnétique et envisagent de le tester dès cette année. Cela permettrait de confirmer (ou d’infirmer) les espoirs mis dans cette technologie en vue d’une réduction très importante de la dépense énergétique des grands moyens de calcul.

Source : bulletins-electroniques.com

La crypto monnaie bitcoin pourrait participer à la sécurisation des transactions financières

La récente faille de sécurité de l’entreprise Target, exposant les informations bancaires de 110 millions de clients, illustre l’enjeu technologique actuel que représente la sécurisation des transactions financières. Les crypto monnaies comme bitcoin pourraient offrir une réponse à ce défi par leur « technologie prometteuse ».

Le potentiel des crypto monnaies

Bitcoin est un logiciel open source rendu public en 2009. Ses utilisateurs peuvent transférer des unités de valeur, les « bitcoins », entre comptes du réseau. Chaque transaction est vérifiée par les autres ordinateurs du réseau en échange de nouveau bitcoins, opération appelée « minage ». Il y a aujourd’hui 12 millions d’unités en circulation, 25 sont produites toutes les 10 minutes.

Bitcoin présente plusieurs avantages sur une transaction traditionnelle : l’opération s’effectue de façon décentralisée, avec un coût faible et le système offre de bonnes garanties de sécurité. Pourtant l’extrême volatilité des cours et la limite fixée à 21 millions d’unités permettent de douter de la valeur de cette monnaie. Certains détracteurs y voient même un schéma de Ponzi, où les nouveaux entrants rétribuent les utilisateurs antérieurs.

La vigilance des autorités fédérales

Le congrès américain, inquiet de l’impact sur les monnaies nationales, de l’utilisation criminelle potentielle, et des implications en terme d’impôts, a sollicité l’analyse des agences fédérales. En novembre 2013, le congrès menait une série d’auditions des acteurs du secteur et une analyse comparative des législations mondiales. Plusieurs affaires ont en effet alerté l’opinion publique sur les utilisations criminelles potentielles comme le blanchiment d’argent ou l’achat de biens et services illégaux. De plus, bitcoin est l’objet de fraude interne avec des vols de bitcoins et l’utilisation d’ordinateurs tiers pour les opérations de minage. Pourtant l’enjeu pour le régulateur est d’encadrer ce système sans nuire au développement de ce nouveau secteur économique.

L’intégration du bitcoin dans l’économie

Le cadre juridique de bitcoin a gagné en clarté au cours du deuxième trimestre 2014. La Federal Election Commission (FEC) a autorisé l’utilisation des bitcoins pour le financement des campagnes électorales ouvrant un important marché aux entreprises effectuant ces transactions. Par ailleurs, l’administration des impôts (IRS) a précisé les règles d’impositions. Le bitcoin n’est pas reconnu comme une monnaie mais les conséquences patrimoniales des échanges sont imposées selon les règles en vigueur.

Dans ce contexte, le plus grand investissement dans une entreprise bitcoin fut réalisé le 12 mai 2014 pour 30 millions de dollars. La startup Bitpay, basée à Atlanta, est spécialisée dans les transactions de bitcoins. Parmi ses investisseurs se trouvent le fondateur de Paypal, Peter Thiel, et Richard Branson qui avait déjà annoncé en 2013 que son entreprise Virgin Galactic accepterait les paiements en bitcoins.

Source : bulletins-electroniques.com

News environnement : mai 2014

Impact économique des biocarburants

D’après une étude publiée par Fuels America fin avril, une organisation qui milite pour le développement des carburants alternatifs, l’industrie des biocarburants a créé près de 500.000 emplois dans le Middle West et injecte environ 100 milliards de dollars dans l’activité économique de la région. Le rapport, publié fin Avril, a retenu comme biocarburant les additifs issus de plantes pour le diesel et l’essence conventionnelle. C’est-à-dire principalement l’éthanol issu du maïs, ainsi que l’éthanol cellulosique obtenu à partir de déchets d’usine (tiges de maïs et autres résidus de plante).

L’étude a estimé que 174.000 emplois sont directement impliqués dans l’industrie des biocarburants dans le Middle West, avec plus de 80% d’entre eux dans l’agriculture et le reste dans le secteur manufacturier, commerce de détail et de gros. Le montant total des salaires directs s’élève à 11 milliards de dollars. Les emplois induits par cette activité biocarburant chez les fournisseurs et les biens et services sont également très importants puisque près de 290.000 emplois supplémentaires sont ainsi générés. Les deux poids lourds du secteur sont l’Illinois et l’Iowa avec respectivement 75.000 emplois et 19 milliards de dollars injectées dans les économies locales.

L’étude intervient alors que l’industrie des biocarburants subit une pression croissante. L’agence américaine de protection de l’environnement EPA a radicalement baissé ses objectifs pour l’éthanol cellulosique quand seulement environ 810.000 gallons ont été produits contre les 6 millions attendus, selon Bloomberg News. D’autres réductions sont encore possibles alors que la production totale se rapproche de la « limite de mélange », ce qui signifie que la production de biocarburants atteint les 10% de la consommation d’essence. Les combustibles à plus de 10% de biocarburants ne sont pas autorisés aux Etats-Unis, même si certains pays permettent des mélanges avec des teneurs plus élevées. Les biocarburants sont également menacés sur la colline du Capitole. Un projet de loi été déposé le 10 avril 2014 par le républicain Bob Goodlatte. Selon cette proposition de loi, l’EPA ne pourrait plus approuver de carburants avec plus de 10% d’éthanol. Ce projet de loi a été transmis au sous-comité sur l’énergie et l’alimentation.

Les adversaires des biocarburants affirment qu’ils faussent le marché libre et augmentent le coût des céréales pour la consommation humaine et animale. Des études récentes ont également suggéré que l’utilisation de biocarburants pourrait avoir des conséquences imprévues sur l’environnement, comme encourager les agriculteurs à utiliser les terres protégées pour la culture du maïs, ce qui augmente la pollution par l’utilisation des engrais et met en péril l’habitat des animaux. Jon Doggett, vice-président pour la politique publique de la « National Corn Growers Association », a fait remarquer que ces critiques ne tiennent pas compte d’éléments importants tels que la réduction des importations de pétrole, ce qui réduit la pollution et le déficit commercial. Les biocarburants permettent aussi une agriculture économiquement viable pour les jeunes qui, autrement, se tourneraient vers des emplois urbains. Et beaucoup de fermiers sont très attachés au fait de voir leurs enfants prendre leur suite dans les exploitations.

Adam Monroe, président de la société de biotechnologie Novozymes, a souligné que les sociétés comme la sienne créent des emplois de haut niveau en recherche et développement dans le secteur des biocarburants. Il pense que l’industrie pétrolière se sent menacée par les progrès des biocarburants car ils réduisent la demande en carburants fossiles. Et on sait combien le lobby des pétroliers est puissant aux Etats-Unis.

Il n’en reste pas moins que les biocarburants issus de l’agriculture, biocarburant de première génération, représentent une menace pour l’environnement, mais ils génèrent par ailleurs une activité économique importante qui présente les avantages d’être décentralisée et non délocalisable. Il est donc important de conserver le bénéfice économique mais d’éliminer la menace écologique. La solution pourrait voir le jour avec l’arrivée des biocarburants de deuxième génération, pour lesquels les plantes non alimentaires et les déchets végétaux sont utilisés. L’exploitation de cette ressource présente en plus l’avantage de contenir de nombreuses molécules d’intérêt pour la chimie verte et la pharmacie. Ces molécules sont très importantes car elles permettent d’une part d’augmenter le rendement économique du procédé de production de biocarburants, et d’autre part elles permettent de rendre moins polluantes les voies de synthèse utilisées par les industries chimiques et pharmaceutiques. Le bénéfice écologique s’étend donc bien au-delà de la simple production de carburant alternatif.

Les biocarburants de première génération ont permis la mise en place d’une filière industrielle viable économiquement, comme nous l’avons vu précédemment. Mais il est temps maintenant d’évoluer vers un modèle durable.

Source : bulletins-electroniques.com

Les technologies à base de biomasse pour une production électrique adaptée à la demande

La chaleur produite à partir de biomasse est généralement générée suivant la demande, ce qui n’est pas le cas actuellement pour la plupart des installations de production d’électricité : les installations à bois et de biogaz produisent en général de l’électricité de façon constante et permanente. Cette capacité de production de base est considérée comme l’un des avantages de l’électricité à partir de biomasse par rapport aux autres sources d’électricité renouvelable. Néanmoins, si on souhaite voir la bioélectricité être produite également en fonction de la demande, par exemple pour compenser les fluctuations des énergies éolienne et solaire, un effort doit être fait.

Le Centre allemand de recherche sur la biomasse (DBFZ) de Leipzig (Saxe) a présenté sur ce sujet l’étude intitulée « Utilisation de la biomasse pour une production d’énergie en fonction de la demande », menée avec le soutien financier du Ministère fédéral de l’alimentation et de l’agriculture (BMEL) via l’Agence des matières premières renouvelables (FNR), porteur de projet du ministère pour le programme de financement « Matières premières renouvelables ». Au cours de trois séries de travaux, les chercheurs du DBFZ ont étudié les options technologiques existantes ainsi que l’intégration de l’électricité produite en fonction de la demande dans le réseau électrique, et ont évalué les différentes variantes.

L’étude a analysé à cet égard toutes les approches technologiques commercialisables, et fait ressortir leurs avantages et inconvénients spécifiques. Dans le même temps, des critères ont été élaborés, qui ont permis de comparer et d’évaluer les différentes technologies. Des options technologiques dans le domaine de la conversion thermochimique (par exemple : centrales à cogénération flexibles, installations de gazéification, piles à combustible…), de la production de biogaz (y compris en tenant compte du stockage de gaz et de la gestion de l’alimentation animale), ainsi que dans le domaine des bio-raffineries (en particulier pour la synthèse flexible de carburants et d’autres produits chimiques de base) ont été prises en compte dans cette étude. Un aperçu des technologies de de stockage de l’électricité et de la chaleur a également été donné, afin d’évaluer au mieux les technologies bioénergétiques flexibles. Enfin, l’examen des marchés pertinents et du cadre juridique parachève cette étude.

Bien que les installations au biométhane puissent être dès aujourd’hui considérées comme suivant la demande, tous les autres concepts nécessitent des ajustements techniques individuels, qui se répercutent sur leur rentabilité économique. Cependant, les chercheurs concluent que l’électricité à partir de biomasse est une énergie flexible disponible, qui peut faire coïncider l’offre et la demande avec relativement peu de difficultés techniques. En particulier, les technologies à base de gaz, qui tablent sur des gaz de synthèse ou du biogaz avec de préférence du stockage de gaz naturel dans le réseau, permettent une utilisation très flexible à démarrage rapide. Des variantes de combustibles solides répondent également aux exigences d’une production orientée vers la demande.

Source : bulletins-electroniques.com

Des panneaux solaires qui deviennent panneaux lumineux

Des scientifiques de la Nanyang Technological University (NTU) ont développé une nouvelle génération de matériau photovoltaïque qui, en plus de transformer la lumière en électricité, peut aussi émettre de la lumière. Cela a été développé à partir de pérovskite, un matériau très prometteur pour le développement de panneaux solaires ayant une grande efficacité et un coût très réduit . Ces nouvelles cellules photovoltaïques peuvent briller lorsque de l’électricité les traverse mais elles peuvent également être modifiées pour émettre différentes couleurs.

Les applications seraient d’un très grand intérêt, on peut imaginer un téléphone qui se recharge lorsque son écran est au soleil, ou encore une façade de bâtiment qui génère de l’électricité le jour et se transforme en panneau publicitaire la nuit.

Cette découverte, publiée dans la revue scientifique renommée Nature Materials, s’est faite presque par hasard lorsque le physicien Sum Tze Chien de NTU a demandé à son post-doctorant Xing Guichuan de pointer un laser sur la nouvelle cellule photovoltaïque hybride à base de pérovskite. Ce fut alors une surprise pour le Professor Sum et son équipe de voir briller cette cellule photovoltaïque, car ces matériaux ne font en général qu’absorber la lumière et non la générer. Ce nouveau matériau est donc également adapté à la fabrication de lasers. L’équipe de chercheurs précise également qu’en ajustant la composition de ce nouveau matériau, on peut le faire émettre de très nombreuses couleurs, ce qui le rend aussi utilisable pour des dispositifs émettant de la lumière, comme des écrans plats.

Le professeur Nripan Mathews, également impliqué dans ces recherches, était le premier à avoir expliqué le comportement des cellules photovoltaïques en pérovskite. Il considère aujourd’hui que ces nouvelles propriétés devraient permettre à l’industrie d’utiliser facilement ce matériau dans des technologies existantes. Il s’agit donc de cellules photovoltaïques qui peuvent être semi-transparentes et être ainsi utilisées comme du verre teinté afin de remplacer des fenêtres et générer de l’électricité grâce au soleil. De plus, ce nouveau matériau est cinq fois moins cher que les panneaux solaires à base de silicium, un avantage non négligeable.

Source : bulletins-electroniques

Du carbone enfoui dans le sous-sol, une menace de plus pour le climat (étude)

A partir d’analyses menées aux Etats-Unis, au Nebraska dans la région des Grandes plaines, une couche souterraine pouvant atteindre jusqu’à six mètres de profondeur, enfouie sous des sédiments, s’est ainsi révélée être particulièrement riche en carbone, rapportent des chercheurs dans la revue scientifique Nature Geoscience.

Cette découverte à une telle profondeur est « significative » car elle impliquerait que l’on sous-estime actuellement la quantité de carbone stocké dans les sous-sols de la planète, disent-ils. Or ce carbone, à travers l’érosion, l’agriculture, les activités minières ou la construction de routes, est susceptible d’être mis au jour, de se transformer en dioxyde de carbone (CO2) et donc de contribuer au changement climatique.

« Il y a beaucoup de carbone à des profondeurs où personne ne le mesure », estime Erika Marin-Spiotta, chercheuse à l’Université de Wisconsin-Madison et principale auteur de l’étude, soulignant que la plupart des recherches en la matière se cantonnent généralement aux trente premiers centimètres sous la surface.

La couche de sol à laquelle se sont intéressés les chercheurs s’est formée il y a entre 15.000 et 13.500 ans. Cette couche alors en surface est aujourd’hui située à une profondeur allant jusqu’à six mètres sous la surface actuelle après avoir été recouverte par une vaste accumulation de sédiments il y a quelque 10.000 années.

Un changement assez brutal de climat à cette époque a provoqué un dépôt croissant de sédiments qui a conduit à la séquestration du carbone présent dans la végétation et issue d’incendies.

De telles couches souterraines riches en carbone peuvent potentiellement exister ailleurs dans le monde, enfouies sous plusieurs types de sédiments, explique Erika Marin-Spiotta.

Une partie de ce carbone n’atteindra jamais l’atmosphère et ne jouera donc aucun rôle dans le réchauffement de la planète. Mais certaines couches souterraines peuvent potentiellement être de nouveau exposées, à travers la construction d’une route ou des activités minières, des modifications susceptibles d’apporter vers les profondeurs des microbes ou des nutriments à même de stimuler la dégradation de ce carbone en CO2.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

400 000 autos électriques dans le monde, et moi et moi et moi

Selon l’analyse menée par le ZSW, le Centre de recherche sur l’énergie solaire et l’hydrogène du Baden-Württemberg, le nombre de voitures électriques dans le monde a doublé en 12 mois. Et il y en avait seulement 100 000 en 2012. Ce qui est équivalent à un taux de croissance annuel de 100% depuis 2 ans. Bien mieux que les 0,1% du taux de croissance du PIB français en 2013.
 
Les marchés leaders sont les USA (174 000 unités), le Japon (68.000) et la Chine (45 000). L’Europe traine derrière, avec néanmoins des niveaux honorables pour la France, l’Allemagne, les Pays-Bas et la Norvège.
 
Ce pays scandinave représente aujourd’hui 12% du parc automobile électrique européen alors qu’il ne pèse que 1% au niveau démographique. Oslo est devenue la capitale mondiale de l’électro-mobilité. Le groupe français Renault a annoncé début avril 2014 qu’il lance sa citadine Zoé 100% électrique en Norvège.
 
Les marques de véhicules électriques qui se vendent le mieux dans le monde sont japonaises. Nissan avec la Leaf et Toyota avec la Prius Plug in. Et aussi américaines avec General Motors et ses modèles Ampera et Volt. 
 
Les batteries proviennent principalement d’Asie, surtout du Japon et de Corée du sud. Un marché où, comme dans le solaire photovoltaïque, l’UE et les USA ne sont pas encore parvenus à s’imposer. L’Asie prend chaque année qui passe de l’avance dans le domaine des écotechnologies d’avenir. Les européens y pensent, et puis l’oublient.
 
Par Olivier Danielo

Revue du web #60 : les vidéos étonnantes de la semaine

Cette semaine dans la revue du Web

  • MorpHex, le robot hexapode modulable et télécommandé, est de retour ;

  • Le bras bionique ultra-rapide et attrape-tout de l’école polytechnique fédérale de Lausanne ;

  • Palpitant : du nouveau pour l’expérience la plus longue du monde ;

  • Le gadget (inutile?) de la semaine : Pringles et la machine de Rube Goldberg ;

  • Et en bonus : battre le record du monde de vitesse d’écriture sur smartphone.

MorpHex, le robot hexapode modulable et télécommandé, est de retour

Il avait promis qu’il reviendrait, Kare Halvorsen a tenu parole. Pour débuter notre soixantième Revue du Web, jetons un œil à la version améliorée de MorpHex, le robot sphérique hexapode mis au point par un ingénieur norvégien plutôt débrouillard et touche-à-tout. Conscient des faiblesses de la précédente version – qui lui a tout de même permis de participer à un concours d’innovation organisé par la société Boca Bearing, le « Boca Bearings 2012 Innovation Competition » – Kare Halvorsen a pris le temps de fignoler sa bestiole télécommandée à six pattes pour enfin pouvoir rouler des mécaniques à ses côtés.

MorpHex a pour principal atout de pouvoir prendre différentes formes en fonction de l’usage qui lui est destiné, ou du terrain qu’il devra parcourir. Capable de se transformer en sphère, puis de retrouver sa forme de robot hexapode à l’envi, le bruyant avorton polymorphe (en cause, les servomoteurs) réussit la prouesse de pouvoir se déplacer sur ses six pattes, tel un insecte, ou de pouvoir rouler lorsqu’il adopte sa forme sphérique. La structure centrale du robot est modulable, permettant au robot d’occuper plus ou moins de surface lorsqu’il est en mouvement.

Si l’on se fie au perfectionnisme de notre méticuleux ingénieur norvégien, il ne reste plus qu’à attendre une nouvelle mouture de MorpHex, d’ici un ou deux ans.

Le bras bionique ultra-rapide et attrape-tout de l’école polytechnique fédérale de Lausanne

Il cache bien son jeu, le grand bras orange mis au point par l’école polytechnique fédérale de Lausanne. Ce bras bionique d’environ 1m50 de long, impressionne peu au premier abord, lorsqu’il semble se trouver en position d’attente. Mais qu’on lui lance une raquette de tennis, une balle, ou encore une bouteille, et on se rend vite compte que le membre robotique est plutôt habile et toujours en alerte.

Armé d’une main sophistiquée ne comprenant que quatre doigts, la bestiole dégingandée a été conçue et programmée par le Learning Algorithms and Systems Laboratory (LASA) de l’école polytechnique fédérale de Lausanne, afin de tester certaines solutions robotiques pour la capture d’objets en mouvement. Réussir à attraper des objets volants nécessite l’intégration de nombreux paramètres, ainsi que la capacité à faire face à des événements imprévus, en un temps record.

Pour arriver à ses fins, l’équipe de chercheurs est passée par une première phase d’apprentissage (baptisée « Programmation par démonstration »), phase durant laquelle différents objets sont lancés à plusieurs reprises en direction du robot, alors que le robot est guidé manuellement par l’un des vigoureux laborantins. Aidé par une série de caméras placées tout autour, le robot analyse les données de trajectoire, de vitesse et de rotation, afin de créer le modèle cinétique d’un objet. Le robot apprend alors à se positionner très rapidement et de manière adéquate pour attraper le projectile. Le bras bionique est d’autant plus efficace qu’il bénéficie des petits soins d’un contrôleur qui couple et synchronise les mouvements de la main avec ceux des doigts.

Les concepteurs ne s’y sont pas trompés : ce petit joujou pourrait potentiellement trouver sa place dans l’espace, et permettre de ramasser certains débris spatiaux orbitant autour de la Terre.

Palpitant : du nouveau pour l’expérience la plus longue du monde

L’expérience de la goutte de poix n’a pas fini de nous tenir en haleine. Commencée en 1927 à l’université du Queensland de Brisbane, en Australie, cette expérience scientifique est la plus longue expérience encore en cours du monde. Elle a pour but de mesurer la viscosité de la poix, à l’aide de l’écoulement d’un de ses fragments.

Le protocole expérimental est relativement simple : le professeur Parnell a fait remplir un entonnoir (dont l’extrémité a été préalablement bouchée) avec du goudron chaud qu’il a laissé reposer trois ans, avant de retirer le bouchon de manière à ce que la poix puisse (ou non) s’écouler. Il aura fallu pas moins de huit ans pour que la première goutte ne tombe de l’entonnoir, et à peu près autant pour voir la seconde goutte tomber, comme nous vous en parlions déjà ici.

Critiquée pour son manque de rigueur scientifique – il n’y eut, jusqu’en 1988, aucun contrôle des conditions atmosphériques – quelques efforts ont néanmoins été réalisés pour pallier ces « menus » problèmes, avec notamment l’arrivée de la thermorégulation et l’installation de la climatisation.

Dans un suspense des plus palpitants, la neuvième goutte est enfin tombée, le 24 avril dernier, près de treize ans et demi après la chute de la huitième goutte qui, ironie de l’histoire, ne put être enregistrée en raison d’une avarie vidéo. La neuvième goutte ne s’est pas réellement détachée, mais elle est entrée en contact avec la huitième goutte… cette fois-ci sous les yeux de près de 25 000 internautes, certainement médusés devant ces images « à couper le souffle ».

Le vidéo qui suit est un time-lapse des deux dernières années de l’expérience.

Le gadget (inutile?) de la semaine : Pringles et la machine de Rube Goldberg

Pour venir conclure cette soixantième Revue du Web, invoquons une fois de plus le génie de Rube Goldberg et l’une des fantastiques machines qu’il a inspiré, abonnées aux coups de pubs et aux gadgets (inutiles?) de la semaine. Ici, c’est le géant américain de la chips reconstituée Pringles qui est aux commandes, dans une opération de marketing croisé avec la franchise X-Men. Le but : parvenir à récupérer la dernière chips au fin fond de la boite, opération particulièrement délicate lorsqu’on oublie qu’il suffit de retourner le cylindre droit qui sert d’emballage.

L’installation, comportant exceptionnellement assez peu d’étapes, met en scène les caractéristiques principales de trois des principaux héros de l’univers Marvel : les griffes rétractiles de Wolverine, un aimant pour figurer les pouvoirs de Magnéto, ainsi qu’un tube d’aspirateur amélioré pour évoquer les pouvoirs de Tornade. Avec un sens de la mise en scène un tantinet exagéré, les trois jeunes larrons récupèrent alors l’objet tant convoité, le fameux dernier Pringles, sorte de sot-l’y-laisse de la chips reconstituée.

Ce type d’installation s’inspire, on le rappelle, de l’œuvre prolifique et inventive de Rube Goldberg, un dessinateur et artiste américain mort en 1970, dont les installations avaient pour leitmotiv la transformation d’une tâche excessivement simple en une série de tâches complexes, impliquant la plupart du temps une réaction en chaîne. Chaque élément de la machine vient se frotter d’une manière ou d’une autre à l’élément suivant, remplissant humblement sa fonction, jusqu’à déclencher de fil en aiguille l’action finale, le but initial de la machine de Rube Goldberg.

Bonus : battre le record du monde de vitesse d’écriture sur smartphone

Pour obtenir son ticket d’entrée dans le livre Guinness des records, pas besoin d’avoir des prédispositions particulières : il suffit généralement de se trouver une catégorie totalement loufoque pour pouvoir passer à la « postérité ». Notre bonus de cette semaine vient couronner le travail d’un jeune Brésilien de 16 ans, nouveau détenteur du record du monde d’écriture sur smartphone.

Armé de son seul téléphone intelligent, Marcel Fernandes est parvenu à écrire un petit texte de 25 mots en 18,19 secondes, battant ainsi le précédent record de 18,44 secondes, détenu par un adolescent américain de 15 ans. Pour ce faire, il fallait taper le plus rapidement possible « Les piranhas aux dents aiguisées comme des rasoirs, du genre Serrasalmus et Pygocentrus, sont les poissons d’eau douce les plus féroces du monde. En réalité, ils s’attaquent rarement aux humains. » (texte traduit en français).

Ce record n’est pourtant pas la lubie du seul Brésilien : c’est l’équipe derrière l’application Fleksy – un clavier virtuel amélioré pour smartphone – qui a vu dans ce record l’opportunité d’un petit coup de publicité pour leur clavier virtuel. Mission accomplie.

Par Moonzur Rahman

eBay terrassé par une cyber-attaque

Nom, adresse mail, coordonnées postales, numéro de téléphone, date de naissance et mot de passe, voilà ce que les pirates informatiques ont réussi à dérober à eBay. Face à cette fuite massive des informations sur  leurs clients, eBay leur conseille de changer de mot de passe, et vite ! Le géant américain, qui vient seulement de découvrir l’affaire,  est en train d’en informer sa clientèle par mail et via un message publié directement sur le site. Les hackers auraient agi entre fin février et début mars, dérobant, en plus des fichiers clients, les mots de passe des salariés d’eBay.  Ce butin représente environ 140 millions de comptes clients, de quoi se créer une impressionnante base de données. eBay alerte d’ailleurs tous ceux qui utilisent la même combinaison login/mot de passe pour d’autres services tels que les messageries et les réseaux sociaux afin de tous les modifier. Dans le cas contraire, les pirates pourraient s’introduire dans tous les comptes utilisant ces codes. 

eBay tente toutefois de rassurer en indiquant qu’a priori, car ce n’est pas certain non plus, aucune donnée bancaire n’a été volée, ajoutant dans son communiqué : « Quant aux données PayPal, elles sont stockées et cryptées sur un autre serveur sécurisé ». De plus, aucune activité frauduleuse des informations personnelles n’a encore été détectée. eBay précise que les mots de passe sont cryptés et que les hackers ne disposent pas  des codes bruts mais de séries de chiffres. Une sécurité bienvenue qui laisse espérer que les mots de passe restent confidentiels, leur modification étant une mesure de précaution.

Les pirates ont réussi à accéder à ces données confidentielles en passant par quelques login de certains employés de la firme. Ceux-ci leur ont procuré un accès  au réseau de l’entreprise, et donc aux fichiers clients. Simple et terriblement efficace. 

eBay a annoncé collaborer avec des experts de la sécurité informatique pour renforcer la sécurité et empêcher qu’un tel évènement ne se reproduise.

Par Audrey Loubens, journaliste scientifique

Gaz de schiste : Royal ne ferme pas la porte

« Compte tenu des incertitudes, la France a raison d’appliquer le principe de précaution », insiste-t-elle, rappelant que « pour extraire le gaz, il faut en effet provoquer des explosions souterraines dont on ne maîtrise pas l’impact ».

« On ne sait pas si ces fracturations hydrauliques ne risquent pas de provoquer des fuites de gaz dans les nappes phréatiques et de contaminer l’eau potable », ajoute Mme Royal.

Toutefois, poursuit-elle, « moi, je ne suis pas dogmatique et si de nouvelles technologies non dangereuses apparaissent, pourquoi pas ? »

Déjà en 2011, l’ancienne candidate à la présidentielle de 2007 avait jugé « nécessaire de poursuivre la recherche sur les procédés d’extraction propres à long terme ».

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Real Humans : la contamination reprend !

Dans un monde qui pourrait très (trop) rapidement devenir le nôtre, les hubots (human robots) sont des robots ressemblant de façon troublante aux êtres humains qu’ils remplacent dans leurs tâches domestiques. Mais les « tâches » et la ressemblance ne semblent pas s’arrêter là. 

On savait déjà qu’ils pouvaient servir à d’autres « besoins », et que certains commençaient à légitimer leur existence depuis les expériences encore troubles d’un savant fou dénommé David Eischer. Mais qui est-il ? Comment a-t’il permis aux hubots de se libérer de leur condition de machine ? Quel en est le code ?

Démarrage troublant de cette saison 2 ou l’on découvre dans ces tous premiers épisodes qu’un virus semble avoir affecté les hubots les rendant dangereux et incontrôlables. Puis une organisation « Real Humans » (100% Humain) se met en place avec une jeunesse militante aux arguments plus que convaincants pour certains.

Malgré l’intégration presque « normale » des hubots dans la vie quotidienne des humains, le fossé semble se creuser de façon irrémédiable. 

La famille Engman après s’être assurée que ses hubots (Mia et Vera) ne sont pas infectés, semble toujours touchée par la confusion des sentiments.

Tobias est toujours fou amoureux de « Mimi », et la famille semble perturbée par la réception du hubot de Inger Engman, le grand-père décédé.

Bea blessée, et après plusieurs mois d’inactivité, sème la mort sur son passage sans aucun remord. Elle se lance à la recherche du code de David Eischer avec un certain acharnement, et aimerait récupérer son clone. Elle essaie aussi de regrouper les hubots de David dans sa quête.

Jonas, l’homme brulé, lance son Hub Battle Land, en s’associant avec Silas. Une sorte de grand laser-game version hubots contre humain qui charme Roger, qui était justement à la recherche d’un nouveau travail.

Florentine quand à elle, après sa quête d’une vie parfaitement humaine, réussit à conquérir le cœur de Douglas.

 

 

 

Par Lalie

L’ANSES s’alarme de la toxicité des nanoparticules

Très investie dans l’étude de la toxicité des nanomatériaux, l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (ANSES) vient de rendre publique son avis suite à son travail d’actualisation des connaissances sur les nanomatériaux et leur éventuelle nanotoxicité. Pour l’Agence, la littérature est suffisamment riche en éléments à charge pour se doter d’outils performants pour le suivi et le contrôle des nanomatériaux. Et bien qu’aucune donnée impliquant l’homme de façon directe n’existe, les effets sur la santé observés in vitro ou sur l’animal sont interprétés comme la preuve de leur toxicité, et a minima comme suffisants pour justifier un certain nombre de précautions. L’Anses rappelle que  les recherches effectuées ont montré « la capacité des matériaux à franchir les barrières physiologiques ». Parmi les dangers on retrouve des  effets cancérogènes, génotoxiques, une persistance et donc une accumulation dans le corps,  ainsi qu’un impact sur le système nerveux.

En janvier 2013, la France mettait déjà en place une déclaration obligatoire pour les industriels de déclarer les nanoparticules utilisées. L’Anses veut aller plus loin en durcissant le Reach, notamment en l’étendant aussi aux substances utilisées dans des quantités  inférieures à la tonne, une sorte de nano-Reach.  Une recommandation qui fait grincer des dents l’Union des industries chimiques, très concernées par l’utilisation des nanomatériaux et qui juge un tel renforcement comme un frein au développement des entreprises.

Une deuxième recommandation concerne  « la mise en œuvre de projets pluridisciplinaires permettant de développer les connaissances sur les caractéristiques des nanomatériaux et de leurs dangers, tout au long du cycle de vie des produits ». Une démarche délicate puisque tester la toxicité de tous les nanomatériaux connus prendrait un demi-siècle, selon l’estimation du Centre stratégique français. En 2009, l’Anses avouait son incapacité à conclure dans un sens ou dans l’autre sur la dangerosité des nanoparticules, et déplorait qu’en 2009 seulement 2% de la recherche concernaient leurs effets sur la santé. Un chiffre en nette hausse puisque ce sont désormais 8% des travaux qui s’y intéressent. Une évolution clairement encouragée par l’Anses.

Lire l’avis : www.anses.fr

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

EDF déclare une anomalie sur la tenue au séisme de matériaux dans plusieurs centrales

Selon cette note, des analyses ont révélé que « la tenue au séisme de certaines protections n’a pas pu être démontrée de manière satisfante ».

44 réacteurs sont concernées, selon EDF, qui précise qu' »un risque d’endommagement des matériels importants pour la sûreté situés à proximité existe, plus spécifiquement sur le circuit permettant de faire des prélèvements sur le circuit primaire ».

Ces protections sont des matelas en plomb et servent à « protéger les personnels réalisant des interventions » à proximité du circuit primaire, précise EDF dans sa note.

D’abord détecté en 2012 dans 7 centrales (Chinon, Cruas, Dampierre, Gravelines, Le Blayais, Saint-Laurent et Tricastin), cet « écart de conformité », concerne finalement 44 réacteurs, indique la note datée du 19 mai.

Il a été signalé à l’Autorité de sureté nucléaire (ASN) et EDF a déclaré le 15 mai cet évènement comme « évènement significatif sûreté » dit « générique » de niveau 1 sur les 7 que compte l’échelle internationale INES.

EDF précise que « cet évènement n’a aucune conséquence réelle sur la sûreté et le fonctionnement des installations » et que « l’ensemble des écarts sera résorbé d’ici la fin de l’année 2015 ».

Pour l’association Sortir du nucléaire, « cette anomalie ne saurait être minimisée » car selon elle, « le bon fonctionnement de la centrale nucléaire risquerait d’être perturbé » en cas de chute de ces matériaux de protection.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »