Incertitudes autour du paquet énergie-climat 2030

Des doutes subsistent quant aux réelles intentions de l’UE en matière de politique énergétique et de lutte contre le changement climatique. Selon un document consulté par EurActiv, le Conseil défendrait un objectif contraignant de 30 % d’efficacité énergétique, soit plus que ce que proposait initialement la Commission.

Outre la réduction de leur consommation d’énergie d’ici 2030, les États membres devraient également diminuer leurs émissions de gaz à effet de serre de 40 % et augmenter la part d’énergies renouvelables de 30 % par rapport aux niveaux de 1990.

Ces objectifs sont plus ambitieux que les propositions officielles précédentes présentées par la Commission au cours de l’été. L’exécutif avait en effet suggéré deux objectifs contraignants de 40 % pour les gaz à effet de serre et de 27 % pour les énergies renouvelables. L’ambition de 30 % d’efficacité énergétique est également sur la table, mais c’est le Conseil qui devra trancher la question en octobre.

Mais une autre proposition, moins ambitieuse, circule également. Elle s’appuie probablement sur une note d’information préparée par le secrétariat général de la Commission qui a récolté les commentaires des représentants permanents.

Les chiffres sont similaires à ceux de la Commission, à une différence près : l’objectif en matière d’efficacité énergétique, réduit à 27 %, est « indicatif » plutôt que contraignant.

Retour à janvier 2014

Autrement dit, la Commission reviendrait presque aux propositions qu’elle a avancées en janvier 2014 : 40 %, 27 % et 25 %.

« Dans les tous cas, ces fuites prouvent un sérieux manque d’ambition », indique Adrian Joyce, secrétaire général de l’Alliance européenne des entreprises pour l’efficacité énergétique dans les bâtiments (EuroACE). Il explique à EurActiv que « quand il s’agit d’un objectif global en matière d’efficacité énergétique, un seuil de minimum 35 % commencerait à devenir satisfaisant. Un objectif de 40 % aurait par conséquent un bon rapport coût-efficacité. »

Pour sa part, l’Association européenne de l’énergie éolienne affirme qu’une part de 27 % en énergies renouvelables ne suffirait pas : « 30 % serait le minimum. Un objectif de 27 % représenterait un « scénario de statu quo », qui augmenterait les coûts pour atteindre la feuille de route à l’horizon et qui risque d’augmenter l’utilisation à long terme des énergies fossiles ».

L’organisation écologiste les Amis de la Terre Europe indique :« Ces propositions déstabilisent le paquet climat. On dirait que la Commission s’oriente vers une ambition modeste afin d’obtenir un accord au sein du Conseil. »

Les ministres de l’Énergie et de l’Environnement examineront ces options lors d’une réunion informelle des 5 et 6 octobre, alors que les chefs d’État devraient émettre leurs conclusions le 23 octobre.

5 conseils pour optimiser vos recherches sous Google

Effectuer une requête sous Google n’est pas toujours simple. Pourtant, quelques Tout le monde utilise Google ou presque puisque nous sommes 65.2% à choisir Google , qui comptabilise 114,7 milliards de requêtes  (chiffres datant de décembre 2012).

Si sa qualité est régulièrement remise en cause, Google reste de loin le moteur de recherche le plus utilisé.

Alors autant savoir s’en servir.

  • Pensez aux opérateurs de recherche

Pour chercher une définition, utilisez l’opérateur define.

Par exemple en tapant : define : ingenieur

Chercher des sites proches d’un autre : utilisez l’opérateur related.

Par exemple en tapant related : techniques-ingenieur.fr

Effectuer une recherche directement dans un site, en précédant vos mots clés de l’opérateur site.

Par exemple en tapant : Voiture électrique Site : techniques-ingenieur.fr

  • Utiliser une image plutôt que du texte pour lancer une recherche

Chercher des images similaires à vos propres clichés : allez dans Google Images. Un appareil photo apparait à l’extrémité droite de la barre de recherche. Vous pouvez y faire glisser une de vos images. Google va l’analyser et vous proposer des images en lien avec la votre.

  • Recherche artistiques

Retrouver toutes les œuvres d’un même artiste : il vous suffit de taper le type d’œuvre cherchée, cela peut être une chanson, un tableau, un texte… Puis d’y accoler le nom de l’auteur.  Cela fait apparaitre une galerie de visuels listant ces œuvres.  

Par exemple : film cronenberg

  • Exclure des résultats

Il est possible de lancer une recherche tout en excluant préalablement certains résultats selon des mots clés bannis. Pour cela il suffit d’utiliser le symbole « – » devant les mots qui ne nous intéressent pas.

Par exemple : matériaux innovant -graphene

  • Retrouver la mémoire

Vous cherchez une expression mais vous ne vous souvenez plus de tous les termes ? Le symbole « * » va vous aider.

Par exemple : Le costa * remis à flot

Par Audrey Loubens

L’ISS n’a plus besoin des hommes pour se piloter

Mais que s’est-il passé ?

Vendredi 5 septembre, alors que le commandant Steve Swanson de la Station spatiale internationale (ISS) travaillait sur une expérience de biologie en stockant des échantillons de sang dans un congélateur, il découvre que le dispositif de déploiement est ouvert. Pourtant, alors qu’aucun lancement n’était prévu ce jour là, deux CubeSat ont bel et bien été lancés. Il s’agit de petits satellites en forme de cubes de 10 cm de côté pour un poids d’1,3 kg, dédiés à des expériences scientifiques universitaires. Ce mini format permet de réaliser des tests dans l’espace à moindre coût. 

Une centaine de ces cubes spatiaux appartenant à Planète Labs doit être lancé avec pour mission de recueillir des images de la Terre. Mais ces lancements suivent un calendrier défini au préalable. Et surtout, chaque lancement est piloté par un humain. Sauf que concernant ces deux CubeSats, personne n’était aux commandes.  Steve Swanson prend alors conscience que l’ISS a procédé au lancement des deux nano-satellite de son propre chef !

Cet évènement reste inexpliqué. La NASA enquête mais il n y’a aucun témoin puisque même les caméras de l’ISS n’ont rien filmé. Or, c’est la deuxième fois que la station prend une telle initiative. Le 23 août,  deux CubeSats avaient déjà été lancés hors calendrier et sans intervention humaine. En récidivant, l’ISS renforce le mystère autour de ces lancements apparemment autonomes de la station. 

S’agit-il de simples dysfonctionnements de nature technique, ou faut-il y voir l’action d’une intelligence artificielle capable de prendre ses propres décisions ?

Affaire à suivre…

Par Audrey Loubens, journaliste scientifique

Vidéo / Qu’est-ce qu’une fractale ? Qu’est-ce que le flocon de Koch ?

Quel est le point commun entre les oscillations des battements du coeur, la forme des nuages, le trajet d’un éclair et l’entrelacement microscopique des vaisseaux sanguins ? Les fractales. Ces aberrations mathématiques définissent toutes les formes géométriques que l’on retrouve dans la nature, comme nous vous l’avons déjà expliqué dans notre article « Les fractales sont-elles la clé de l’existence ?« .

Revenons simplement et en images sur cet incroyable mystère scientifique !

Source : kezako.unisciel.fr

Brésil: la déforestation de l’Amazonie en hausse de 29% entre 2012 et 2013

Quelque 5.891 km2 de forêt amazonienne ont disparu pendant cette période, a annoncé mercredi l’Institut national des de recherches spatiales (INPE).

La précédente estimation, remontant à la fin de l’année 2013, faisait état d’une déforestation en hausse de 28% avec 5.843 km2 de forêts rayés de la carte. Les Etats du Para (nord) et du Mato Grosso (centre-ouest) ont été les plus touchés, avec respectivement 2.346 km2 et 1.139 km2 de forêts rasés.

En dépit de cette révision à la hausse, il s’agit du second meilleur résultat enregistré depuis 1988, l’année où ont débuté ces mesures officielles. La déforestation de l’Amazonie au Brésil avait atteint sa plus faible hausse historique en 2011-2012, avec 4.571 km2 de forêts coupées, après un point culminant alarmant de 27.000 km2 en 2004.

L’INPE souligné que le Brésil est parvenu depuis 2004 à réduire de 74% le rythme annuel de la déforestation dans cette vaste région.

Les défenseurs de l’environnement relèvent toutefois que l’augmentation de 2012/13 a coïncidé avec l’approbation d’un assouplissement du code forestier, qui impose aux producteurs ruraux le respect de règles de conservation des forêts.

Le Brésil mesure annuellement la déforestation amazonienne entre le mois d’août d’une année et le mois de juillet de l’année suivante.

Les chiffres pour la période 2013-2014 doivent être publiées avant la fin de l’année. Mais des données encore très préliminaires font déjà état d’une nouvelle augmentation de 9,8%.

Le Brésil, l’un des leaders mondiaux agricoles, est tiraillé entre écologistes qui poussent à la préservation, et les grands agriculteurs et éleveurs qui veulent agrandir leurs surfaces d’exploitation. Le géant d’Amérique latine est notamment le deuxième producteur mondial de soja, dont les tourteaux de soja servent à l’alimentation du bétail dans le monde, principalement en Chine et en Europe, premiers importateurs mondiaux.

La généralisation de la consommation mondiale de viande explique notamment la demande croissante de soja.

Souvent décrit comme le « poumon de la planète », le bassin amazonien couvre environ 7,3 millions de km2 répartis sur neuf pays, au premier rang desquels le Brésil, qui concentre environ 63% de ses 5,5 millions de km2 de forêts équatoriales.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Apple n’utilisera plus ni benzene ni n-hexane sur ses chaines d’assemblage

Apple a donc décidé de plier. Suite à la pétition lancée par l’ONG Green America et le magazine The Nation en mars dernier dénonçant l’usage de produits toxiques sur les chaines de montage d’Apple, la marque à la pomme accepte de ne plus utiliser de benzene et de n-hexane.

Le benzene, incolore et très volatil, est cancérigène, tandis que le n-hexane est un solvant toxique qui s’accumule dans le système nerveux central. En 2009, 137 ouvriers employés par un sous-traitant d’Apple avaient été intoxiqués par ce solvant, quatre en sont morts. 

Suite à cette pétition, Apple a procédé à un état des lieux de 22 usines pendant 4 mois. 18 d’entre elles n’utilisent aucun des deux agents chimiques pointés du doigt. Pour les 4 autres, les seuils mesurés se situent en deçà des valeurs à risque. Toutefois, la firme accepte de supprimer benzène et n-hexane des chaines d’assemblage des iPhone, iPad, iPod et Mac.

On pourrait s’étonner qu’Apple cède si facilement à la pression d’associations environnementales. En fait, Apple est très souvent accusé de négliger la sécurité de ses employés. Les conditions de travail font l’objet de nombreuses critiques et se retrouvent au cœur de plusieurs polémiques. Suicides en série chez son sous-traitant Foxconn, empoisonnements aux produits chimiques (aluminium et magnésium), matériaux métalliques fournis par des groupes armés africains, conditions de travails abusives. Récemment, les ONG China Labor Watch et Green America ont infiltré l’usine d’assemblage de Suqian au nord-est de la Chine. Cette immersion révèle de nombreux manquements avec des issues de secours condamnées, pas d’équipement de protection, des déchets chimiques reversés dans les égouts…

En plein lancement de l’iPhone 6, Apple préfère calmer le jeu

On comprend alors qu’il est plus intéressant pour Apple de faire des concessions sur deux produits chimiques facilement substituables plutôt que de mettre ses usines aux normes et cesser l’exploitation des travailleurs chinois. Toutefois, il y a peu de chance que cette preuve de bonne volonté suffise à calmer la colère des associations environnementales.

Par Audrey Loubens

Sony a décidé de commercialiser son polycarbonate à 99% recyclé

Sony fait-il acte d’altruisme écologique ? Pas seulement. Derrière cette décision de rendre accessible son produit à d’autres entreprises, Sony souhaite rentabiliser sa gamme, quitte à ce que ses propres concurrents en profitent. Le matériau concerné est le SoRPlas, un polycarbonate conçu à 99% à partir de plastique recyclé. Un taux inégalé par les autres PC dont le seuil de recyclage atteint seulement les 30%. 

Sony maîtrise parfaitement la fabrication du SoRPlas puisqu’il le produit depuis 2011 et l’utilise dans ses téléviseurs BRAVIA. Les ingrédients principaux sont des morceaux de plastique issus du recyclage des DVD, de disques optiques ou encore de films optiques de téléviseurs. Mais le secret réside dans l’utilisation d’un ignifugeant « maison », à base de sulfate de sodium. Ce retardateur de flamme reste efficace en tout petite quantité, ce qui permet de proposer un polycarbonate avec seulement 1% de matériaux non recyclés que sont cet ignifugeant et un colorant.

 Le groupe japonais précise que son procédé réduit les émissions de CO2 de 77,3%, ce qui est dans la continuité de son engagement dans le projet Climate Savers de la WWF visant à diminuer les émissions de CO2.

Le polycarbonate est un matériau transparent, solide, résistant à la chaleur et relativement stable dans l’espace. Autant de qualités qui font qu’on le retrouve dans l’automobile (feux, corps de rétroviseur), dans l’emballage, les appareils ménagers (mixeurs, rasoirs) ou encore les équipements électriques et électroniques comme les boitiers. 

Le marché est vaste et pourrait bien permettre à Sony une belle réussite commerciale.

Par Audrey Loubens

Allemagne : explosion dans une usine de produits chimiques dans le nord

Selon un porte-parole de la police locale, interrogé par le journal Bild, « un employé de l’usine est porté disparu » et un blessé serait en cours d’évacuation d’un bâtiment annexe.

« Les maisons alentour ont subi pour certaines de graves dégâts », a indiqué ce porte-parole, Marcus Neumann, au site internet de Bild.

L’explosion a été entendue à plusieurs kilomètres à la ronde et « plusieurs bâtiments » de l’usine sont manifestement en feu, a précisé le porte-parole des pompiers.

Selon le site internet de Bild, un bâtiment s’est effondré, et environ 300 pompiers et 60 policiers ont été mobilisés.

Les habitants des environs ont reçu pour recommandation de fermer leurs portes et fenêtres, selon la station de radio locale Radio Bremen, tandis que des témoins ont fait état d’une épaisse fumée noire au-dessus du site de l’usine.

Deux employés avaient été alertés par une alarme dans l’usine et l’explosion s’est produite peu après leur arrivée sur les lieux, selon le porte-parole de la police interrogé par Bild.

L’explosion a eu lieu à Ritterhude, une ville de 15.000 habitants située au nord de Brême, dans l’Etat régional de Basse-Saxe.

Selon le site internet du journal local Weser Kurier, le site appartient à l’entreprise Bergolin, qui produit notamment des peintures industrielles.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Choisissez le bon site de crowfunding et levez des millions !

Vous avez un projet à financer ? Laissez tomber les banquiers, c’est ringard. Misez sur une plateforme de crowfunding. Il s’agit d’un site qui présente votre projet aux internautes pour que ces derniers fassent une donation s’ils croient en vous. Ce mode de financement est très efficace et présente deux avantages considérables : tester son idée sur un panel important et récolter de l’argent. Un peu, beaucoup et même passionnément. D’après Massolution.com, site de crowfunding, ce sont 20 milliards de dollars qui seront levés par ce biais dans le monde en 2015. Mais pour réussir sa levée de fond, il faut opter pour la bonne plateforme, chacune ayant ses spécificités : généralistes ou thématique spécialisée, prêt, don contre don ou avec prise de participation au capital, française ou étrangère, montant moyen levé, durée de la campagne…

Les plateformes de don

Ce sont des plateformes généralistes qui proposent de donner en contrepartie d’un objet. Par exemple, le donateur aura un sticker contre 1€ ou un prototype numéroté pour 1000€. Ce type de fonctionnement est parfait pour commencer à recruter des clients, les donations étant équivalentes à des pré-commandes. En France, les trois plus grosses plateformes sont MyMajorCompany, KissKissBankBank et Ulule. MyMajorCompany est sans doute la plus connue puisqu’elle a fait exploser trois artistes musicaux : Grégoire, Joyce Jonathan et Irma. Mais cette plateforme finance tout type de projet, comme l’Energycloud, un dispositif de recharge des appareils nomades grâce au contact entre les chaussures et une surface spéciale posée au sol. De son côté, en moins de trois ans KissKissBankBAnk a permis de collecter plus de 11 millions d’euros et a aidé au lancement du Sea Orbiter, le vaisseau d’exploration sous-marine de Jasques Rougerie en levant 344 650€. Quand à Ulule, le site a déjà collecté plus de 18 millions d’euros pour 5540 projets financés. Dernière pépite ayant motivée les internautes, le projet de 1083.fr pour la fabrication de jeans et de baskets éco-conçues. D’autres plateformes existent comme Zentreprendre, Reservoirfunds et Notrepetiteentreprise (partenariat avec MyMajorCompany). Fin 2013, l’Institut français des fondations de recherche et de l’enseignement supérieur s’y est mis en lançant sa propre plateforme de crowfunding Davincicrowd !

http://www.mymajorcompany.com/

http://fr.ulule.com/

http://www.kisskissbankbank.com/

Les plateformes avec prise de participation au capital

Dans ce cas, les donateurs sont des investisseurs qui reçoivent des contreparties financières à leurs dons. Ils deviennent des actionnaires et peuvent prendre part aux décisions concernant l’entreprise.  Ceci est intéressant pour des entreprises déjà matures et vise des montants élevés qui peuvent atteindre plusieurs centaines de milliers d’euros. Les poids lourds de ce segment sont Anaxago, Happy Capital, Smartangels ou encore Wiseed dont le dernier succès en date est le projet Antibio portant sur la mise au point d’antibiotiques : les investisseurs ont récupérer leur mise de départ en à peine 18 mois, Antibio a depuis été revendue à un Business Angel.

https://www.anaxago.com/

http://www.happy-capital.com/

https://www.wiseed.com/fr

Les plateformes de prêt

Il s’agit de la forme de crowfunding la moins spectaculaire, concernant quelques dizaines de projets seulement. Spear et Unilend font du prêt rémunéré tandis que Babyloan est spécialisée dans le micro-crédit. KissKissBankBank a lancé HelloMerci spécialisée dans les prêts solidaires.

http://www.spear.fr/

https://www.unilend.fr/

http://www.babyloan.org/fr/

https://www.hellomerci.com/fr

Quelques principes pour une levée de fond réussie

Quelle que soit la plateforme choisie, il va falloir établir le montant dont vous avez besoin, en tenant comptes des frais tels que la commission reversée à la plateforme qui peut atteindre 10%. Fixez un objectif de collecte plutôt bas car l’argent est débloqué uniquement si ce seuil est atteint. Limitez votre campagne à quelques semaines. Enfin, personnalisez votre descriptif en y mettant un peu de vous, les internautes adhèrent à des coups de cœur plus qu’à des projets froids même s’ils sont économiquement pertinents.

Bonne chance !

Par Audrey Loubens, journaliste scientifique

L’identité de Jack l’éventreur enfin révélée

L’ouvrage Naming Jack The Ripper pourrait bien lever un des plus grands secrets de la criminologie. En effet,  la véritable identité de Jack l’éventreur y est révélée. Il s’agirait d’Aaron Kosminski, un barbier habitant tout près des lieux où ont été commis les cinq assassinats. Pour en arriver à cette conclusion, l’écrivain Russel Edwards s’appuie sur des analyses ADN effectuées sur le châle de la quatrième victime, Catherine Eddowes. Ce dernier l’a acheté en 2007 lors d’une vente aux enchères. Edwards a ensuite fait comparer les résultats à des analyses ADN provenant d’une descendante du tueur présumé. Les résultats de cette comparaison relieraient directement Aaron Kosminski au meurtre. 

Cette annonce est-elle crédible ? Oui , car le barbier d’origine polonaise était l’un des principaux suspects de l’époque. Cependant, bien qu’ayant été identifié par un témoin, celui-ci s’était rétracté et a refusé de témoigner. De plus, les différents témoignages recueillis indiquaient un homme plus âgé qu’Aaron Kosminski. Les enquêteurs n’ont alors pas pu aller plus loin, bien qu’il soit le suspect le plus crédible. Aaron Kosminski avait ensuite été interné par sa famille et est décédé à l’asile l’année suivante.

Toutefois, la communauté scientifique reste réservée, attendant de pouvoir confirmer les analyses ADN. Les tests sur lesquels se base l’auteur Edwards reposent sur un ADN mitochondrial. Celui-ci est utilisé pour confirmer des filiations mère/enfant et pour la datation de lignée, mais il ne peut suffire à identifier un unique individu. Autrement dit, l’analyse à partir d’ADNm confirme qu’il pourrait s’agir de celui de Kosminski, mais pas plus.

A cela s’ajoute des doutes sur la qualité de la pièce à conviction puisque volée par un policier qui voulait l’offrir à sa femme et donc non référencée dans les archives de Scotland Yard.

Nul doute que des analyses complémentaires viendront attester de la validité de cette hypothèse ou non.  En attendant, cette révélation fracassante pourrait bien mettre un terme aux nombreuses spéculations sur ce terrifiant serial Killer qui terrorisa Londres à la fin du 19è siècle.

Par Audrey Loubens

« Sit and stand » : des béquilles utilisables sans les mains

Vous en avez peut-être fait l’expérience, marcher avec des béquilles tout en accomplissant des gestes du quotidien peut s’avérer délicat. Porter un plateau de cuisine par exemple, ou ouvrir une porte sont autant de tâches qui deviennent compliquées dès lors que l’on tient des béquilles entre ses mains. Behzad Rashidizadeh, ancien étudiant de 27 ans à l’Industrial Design College for Creative Studies a peut-être trouvé la solution avec le « Sit and stand ».

À l’inverse des béquilles classiques, qui font habituellement travailler le haut du corps pour décharger le poids de la jambe blessée, ici le système s’appuie sur l’arrière de la cuisse de la jambe valide. Si après une mauvaise chute, votre cheville, votre pied ou votre jambe ont été atteints, vous pourrez malgré tout marcher presque normalement et conserver une totale autonomie dans vos activités habituelles. Car l’attrait de ce dispositif, est qu’une fois équipé de celui-ci, vous gardez les mains libres. Une première. En plus de cela, le « Sit and sat » permet de s’asseoir à tout moment, faisant office de siège lorsque la fatigue se fait sentir.

Le projet, qui était à la base un sujet d’étude, a tout d’une belle histoire. Au commencement, l’étudiant cherchait simplement à améliorer les béquilles traditionnelles pour une cible précise : « les jeunes adultes atteints de blessures temporaires ». Ce n’est que par la suite, après avoir testé lui-même des béquilles, s’être mis en situation pour mieux comprendre les difficultés que l’on peut rencontrer et avoir interrogé des utilisateurs qu’il s’est rendu compte du problème le plus ennuyeux : ne pas pouvoir se servir de ses mains.

Aujourd’hui, le « Sit and sat » fait partie de ces projets innovants concourant au prix James Dyson organisé par la fondation du même nom. Ce concours international doit élire le 18 septembre les lauréats nationaux, puis le 6 novembre le lauréat international. Le vainqueur de la compétition touchera en récompense la somme de 37 500 euros et 12 500 pour son université.

Par Sébastien Tribot

L’activité industrielle en légère hausse, mais reste plombée par le secteur manufacturier

En juillet, la production industrielle a bien enregistré une hausse de 0,2%, mais elle est inférieure au rebond du mois de juin (+1,2%). De mai à juillet, la production industrielle dans son ensemble a même décliné de 0,6% par rapport aux trois mois précédents.

Elle est particulièrement touchée par une baisse de l’activité dans le secteur manufacturier, qui diminue de 0,3% après un mois de juin en hausse (+1,6%), selon l’Institut national de la statistique et des études économiques.

Sur les trois derniers mois, la production manufacturière a même diminué de 1,5% par rapport aux trois mois précédents. Si l’on compare à la même période l’année dernière, de mai à juillet, le secteur manufacturier a vu son activité décliner de 0,9%.

En juillet, l’activité a particulièrement souffert dans l’automobile (-3,4%) et dans la métallurgie (-1,0%).

A l’inverse, la production dans les équipements électriques, électroniques et machines reste bien orientée (+1,1%).

Suivant la même courbe, la production continue de croître dans la chimie (+1,4%) et plus modérément dans le textile et l’habillement (+0,5%). L’activité a également rebondi dans la cokéfaction et le raffinage (+2,4%).

La tendance de l’activité industrielle est conforme aux perspectives d’une croissance morose cette année. Mercredi, le gouvernement a en effet revu à la baisse ses prévisions de croissance de l’économie française à 0,4% en 2014 et 1,0% en 2015.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Nucléaire, solaire : le gouvernement français sait-il vraiment ce qu’il veut ?

François Hollande a été élu sur la promesse de réduire de 75% à 50% la part du nucléaire dans le mix électrique national d’ici 2025, ce qui a naturellement été compris, du moins par les personnes de bonne foi, comme fermer environ 20 GW sur les un peu plus de 60 GW de réacteurs nucléaires que compte la France.

Mais par une étrange pirouette, deux ans après avoir été élu et une fois la fièvre post-Fukushima un peu retombée, François Hollande et Ségolène Royal ont décidé de suivre à la lettre les recommandations d’Henri Proglio, PDG d’EDF. Ce dernier a expliqué que, compte-tenu de la hausse de la demande électrique consécutive à la croissance démographique, ainsi qu’à l’adoption de nouveaux usages de l’électricité comme la voiture électrique, alors la part du nucléaire baissera mécaniquement. Sans qu’il faille fermer de réacteurs.

Un goût amer de trahison

Pourquoi François Hollande n’a-t-il pas expliqué cela clairement juste avant les élections ? Au final le projet de Loi sur la transition énergétique a comme objectif de simplement plafonner la capacité nucléaire. L’article 55 « pose les principes d’un plafonnement à son niveau actuel de notre capacité de production nucléaire (63,2 GW) ». Tout au plus la fermeture de la centrale de Fessenheim (fermeture qui n’est pas encore certaine) sera compensée par l’ouverture de l’EPR de Flamanville. Bref, la transition énergétique au niveau zéro. La stagnation, c’est maintenant.

Le renoncement de l’esprit de la promesse électorale de François Hollande en matière énergétique a franchit récemment un nouveau cap. Dans son discours fin août devant le MEDEF le premier ministre Manuel Valls a déclaré fermement que « la filière nucléaire est plus que jamais une grande filière d’avenir », reprenant ainsi le flambeau d’Arnaud Montebourg en la matière.

« La France ne sait toujours pas ce qu’elle veut »

Dans une interview pour le magazine Plein Soleil (en ligne sur le blog Tecsol dans un billet daté du 8 septembre) Cédric Philibert, expert en énergies renouvelables auprès de l’Agence Internationale de l’Energie, constate amèrement cette réalité : « la France ne sait toujours pas ce qu’elle veut. Quand on pense que François Hollande le jour de l’ouverture de PVSEC (Photovoltaic Solar Energy Conference, la plus importante conférence internationale en matière de recherche et développement photovoltaïque ndlr) a préféré aller inaugurer une installation d’énergie marine. Il semble qu’il n’a pas la juste appréciation de ce qu’est une énergie d’avenir.» 

Mais il y a aussi un facteur plus profond. « Il semble aussi que le milieu énergétique français fuit le PV plus que tout autre chose » estime Cédric Philibert. « Les tenants de l’atome voient la percée du solaire comme la peste » A certaines heures de la journée la production solaire (qui peut d’ailleurs traverser la frontière germano-française) parvient à pénétrer en zone jusqu’à présent réservée au nucléaire. Du coup les réacteurs nucléaires se transforment en vaches à lait moins rentables.

Les énergies marines mises en avant par EDF sont en réalité un moyen particulièrement habile (ou pervers, à chacun son analyse) de détourner l’attention du grand public et des responsables politiques du solaire photovoltaïque, une filière à très gros potentiel, très populaire, de plus en plus compétitive, et qui menace directement les perspectives de l’industrie nucléaire non seulement à l’échelle nationale mais mondiale.

L’hydrolien, que les amis de l’atome font miroiter, appartient au groupe des filières EnR les plus coûteuses. Et même dans l’hypothèse d’une acceptation d’un coût du kWh très élevé, il a un potentiel qui reste relativement limité. Seule une nouvelle approche, le « marélien » d’Hydrocoop, c’est à dire l’hydrolien à concentration qui augmente la vitesse des courants de marée – et donc la production d’électricité – grâce à un système de digues, système ingénieux permettant d’utiliser des hydroliennes simplifiées et ainsi moins coûteuses, permettrait de faire baisser massivement les coûts et ainsi une production appréciable. Mais EDF ignore cette approche.

Etant donné qu’EDF obéit à une logique d’intérêts privés et de protection d’actifs, le groupe ne voit pas d’un bon œil le développement du solaire en France et dans les pays voisins. Compte-tenu du flou réglementaire en France, les investissements régressent. Les énergies renouvelables, formidables moteurs de croissance économique et de créations d’emplois, sont en panne dans l’hexagone.

« Le mensonge donne des fleurs mais pas de fruits. » (proverbe africain)

Une question fondamentale se pose. Le rôle des femmes et hommes politiques élus par les français est-il d’obéir aux logiques de profit d’un lobby historiquement couplé à l’appareil étatique ? Ou de tenir leurs promesses électorales, de respecter le pacte de confiance qu’ils ont établi avec leurs électeurs ?

Pour Corinne Lepage, ex-Ministre de l’Environnement du Gouvernement d’Alain Juppé entre 1995 et 1997 et qui publie le 11 septembre 2014 « L’Etat nucléaire » chez Albin Michel, en France « le nucléaire est totalement imbriqué dans l’État. C’est ce qui explique que, malgré le coût exorbitant, nous continuons, seuls au monde, à vouloir le tout-nucléaire.»

Sans confiance, on ne peut pas gouverner. En matière d’énergie, qui est à la base de toute activité, la démocratie française est malade. Un pays qui n’a pas de perspective claire et démocratiquement choisie en matière d’avenir énergétique n’a pas d’avenir tout court.

Par Olivier Daniélo

Grande barrière de corail: nouveau projet pour éviter de rejeter des déchets à la mer

Les défenseurs de l’environnement sont aussitôt montés au créneau mardi pour dénoncer ce projet alternatif.

Les autorités australiennes avaient donné leur feu vert en janvier au projet de déversement dans les eaux du site classé par l’Unesco de déchets de dragage – jusqu’à trois millions de mètres cube -, dans le cadre de travaux d’extension d’un port d’exportation de charbon à Abbot Point, dans le nord de l’Etat du Queensland (nord-est).

Cette décision avait provoqué un tollé. L’Unesco a appelé l’Australie à mettre en oeuvre des mesures de protection du site si elle veut éviter son placement sur la liste du patrimoine en péril en 2015.

Le Premier ministre du Queensland Campbell Newman a annoncé lundi soir que cet Etat allait soumettre au gouvernement fédéral la nouvelle proposition visant à utiliser les déchets pour développer le port sur terre.

Il s’agit d’une proposition « gagnant-gagnant », a-t-il assuré. Pour son ministre des Infrastructures Jeff Seeney, cela montre que les autorités cherchent « sérieusement à protéger la Grande barrière de corail » tout en développant l’économie.

Le ministre fédéral de l’Environnement Greg Hunt a salué le projet. « J’ai dit à plusieurs reprises que le redéploiement sur terre avait ma préférence et j’ai encouragé les promoteurs du projet à soumettre des solutions viables », a-t-il dit.

Mais pour les défenseurs de l’environnement, c’est l’agrandissement même du port qui menace le site classé.

Le nouveau projet « n’est même pas une rustine, c’est ajouter du sel dans la plaie », a réagi le porte-parole de Greenpeace Adam Walters. « L’idée même que les contribuables du Queensland financent la destruction de la Grande barrière en achetant des déchets de dragage pour construire un port encore plus grand est insultante », a-t-il ajouté.

Le Parti vert a lui estimé que réutiliser les déchets sur terre était préférable à les déverser en mer mais a réclamé des garanties pour l’environnement.

La Grande barrière de corail, étendue de 345.000 km2 le long de la côte orientale, constitue le plus vaste ensemble corallien du monde avec 3.000 « systèmes » récifaux et des centaines d’îles tropicales. Depuis des années, la Barrière souffre du réchauffement climatique, de la prolifération d’une étoile de mer dévoreuse de coraux, des rejets massifs de nitrates et pesticides provenant des exploitations agricoles et du développement industriel sur la côte en raison du boom minier.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Nouvelle concentration record des gaz à effet de serre en 2013

« Nous savons avec certitude que le climat est en train de changer et que les conditions météorologiques deviennent plus extrêmes à cause des activités humaines telles que l’exploitation des combustibles fossiles », a déclaré le secrétaire général de l’OMM, Michel Jarraud, dans la présentation du dernier bulletin sur la concentration des gaz à effet de serre.

Les observations effectuées par les experts montrent que la concentration « du dioxyde de carbone (CO2), du méthane (CH4) et du protoxyde d’azote (N20) ont atteint de nouveaux pics en 2013 », écrit l’OMM.

En outre, les observations révèlent que le taux d’accroissement du dioxyde de carbone (CO2) atmosphérique entre 2012 et 2013 représente la plus forte augmentation interannuelle de la période 1984-2013.

Il ressort par ailleurs de ce bulletin de l’OMM que le forçage radiatif (la capacité de la Terre à conserver l’énergie du Soleil ou à la renvoyer dans l’espace), qui a pour effet de réchauffer le climat, s’est accru de 34% entre 1990 et 2013 à cause des gaz à effet de serre persistants (comme le CO2, le CH4 et le N20).

En 2013, la concentration de CO2 dans l’atmosphère représentait 142% de ce qu’elle était à l’époque préindustrielle (1750), et celles du méthane et du protoxyde d’azote respectivement 253% et 121%.

Les océans absorbent aujourd’hui environ le quart des émissions totales de CO2 et la biosphère un autre quart, limitant ainsi l’accroissement du CO2 atmosphérique.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Reach/CLP : toute l’actualité d’août (2/2)

Journée d’information sur les demandes d’autorisation dans REACH

Le Ministère de l’Ecologie, du Développement Durable et de l’energie organise le 30 septembre prochain, une journée d’information sur la Préparation d’une demande d’autorisation dans REACH.

Guide interactif sur les FDS et les scenarios d’exposition

18/08/2014

L’ECHA a publié un guide interactif sur les FDS et les scénarios d’exposition, destiné aux acteurs qui reçoivent et utilisent les FDS. Il contient des informations clés, des exemples, des vidéos explicatives, des descriptions de chaque rubrique de FDS…

Nouvelles substances à la liste des substances candidates à l’autorisation

19/08/2014

Neuf nouvelles substances ont été ajoutées à la liste des substances soumises à autorisation figurant à l’annexe XIV du règlement Reach, qui compte désormais 31 entrées (Cf règlement n° 895/2014 du 14/08/2014). 

Les substances concernées sont les suivantes : formaldéhyde, produits de réaction oligomères avec l’aniline (MDA technique), acide arsénique, éther de bis(2-méthoxyéthyle) (diglyme), 1,2-dichloroéthane (DCE), 2,2′-dichloro-4,4′-méthylènedianiline (MOCA), tri(chromate) de dichrome, chromate de strontium, hydroxyoctaoxodizincatédichromate de potassium, chromate octahydroxyde de pentazinc.

Toutes ces substances sont cancérogènes, à l’exception de l’éther de bis(2-méthoxyéthyle) (diglyme) inscrit en raison de sa toxicité pour la reproduction.

Ces substances ne peuvent plus être mises sur le marché ni utilisées, à moins qu’une autorisation soit accordée pour une utilisation spécifique.

Mise à jour d’un guide de l’ECHA

19/08/2014

Le « Guide des exigences d’information et évaluation de la sécurité chimique – Chapitre R.7a. » de l’ECHA a été mis à jour afin d’intégrer les nouvelles lignes directrices OCDE récemment adoptées (notamment concernant la génotoxicité).

Cette nouvelle version 3.0 est disponible sur http://echa.europa.eu/guidance-documents/guidance-on-information-requirements-and-chemical-safety-assessment

Reach : de nouvelles méthodes d’essai homologuées

21/08/2014

Le règlement n°900/2014, publié le 21 août, ajoute six nouvelles méthodes d’essai à l’annexe du règlement 440/2008. Cette dernière définit les méthodes d’essai à appliquer pour déterminer les propriétés physicochimiques ainsi que la toxicité et l’écotoxicité des substances chimiques dans le cadre du règlement Reach.

Plus d’information sur : http://eur-lex.europa.eu/legal-content/FR/TXT/?uri=CELEX:32014R0900

Par Céline GABORIAUD, Ingénieur Environnement aux Ateliers d’Orval
 

Et aussi dans les
ressources documentaires :

Accord bilatéral entre l’Inde et l’Australie pour la fourniture d’Uranium

Cet accord stratégique de fourniture d’Uranium doit être rapproché de celui, rapporté récemment, concernant la purification par l’industrie indienne d’oxydes de terres rares, à partir de minerais australiens, pour les besoins des industriels japonais qui veulent se dégager du quasi-monopole chinois dans ce domaine.

 

L’Inde produit son électricité de base essentiellement à l’aide de centrales au charbon, situées dans les ports et alimentées en charbon importé. Les problèmes de logistique au sein de ce vaste continent l’empêchent de brûler le charbon local et abondant. En 2014, ce pays va allègrement émettre plus de 2 milliards de tonnes de CO2 (Figure.1) qui, pour en mesurer l’importance, doivent être rapportées à des émissions mondiales non agricoles qui devraient atteindre les 40 milliards de tonnes durant la décennie à venir.

  • Figure.1 :

 

Il y a dans cet exemple indien l’essentiel de la problématique de génération d’énergie électrique dans le monde d’aujourd’hui qui a le choix entre produire plus de CO2 en brûlant du charbon peu onéreux, ou bien opter pour un développement massif de l’énergie électronucléaire peu consommatrice en combustibles.

Ce choix pays par pays est éminemment politique, la France a opté pour la deuxième option il y a de cela quarante ans, c’était alors un vrai virage énergétique majeur pour notre pays. L’Allemagne, pour des raisons de cohésion populaire, semble avoir opté pour la première option, quoiqu’elle produise encore beaucoup d’électricité d’origine électronucléaire (51 TWh soit autant que l’éolien et le solaire allemand réunis, pour les 7 premiers mois de 2014, nous informe le Fraunhofer), productions de base électronucléaires semble-t-il  prévues pour une durée indéterminée, sous peine de devoir pousser les feux des centrales au lignite local ou au charbon importé ce qui ferait mauvais effet. 

Les Etats-Unis, en raison de leurs ressources naturelles, ont pour l’instant opté pour une voie intermédiaire qui consiste à brûler de plus en plus de gaz naturel, localement peu onéreux, et dont la combustion en cycle combiné émet trois fois moins de CO2 que celle du charbon. Ils ferment, eux, leurs centrales au charbon devenues obsolètes,  non rentables et inutiles et projettent de supprimer 60 GW de capacité de génération électrique à base de charbon entre 2012 et 2020, l’équivalent de plus de 2 fois la puissance actuelle des centrales allemandes au charbon. 

L’Inde possède, à ce jour, 21 générateurs électronucléaires d’une faible puissance nominale cumulée de 5,3 GW et qui produisent un trentième de l’énergie électrique locale. La moitié de ces réacteurs produisent à faible puissance à l’aide d’Uranium local peu disponible, l’autre moitié utilise l’uranium importé de Russie ou du Kazakhstan. D’après la World Nuclear Association 6 réacteurs seraient en cours de construction et la construction de 22 autres réacteurs serait planifiée.

Selon Bloomberg, les autorités indiennes viseraient à atteindre un parc électronucléaire de 63 GW à l’horizon 2032. Une large part de cette puissance électrique générée reposerait alors sur de l’uranium importé.

Ces données illustrent combien va être important le développement de filières de génération électronucléaire d’électricité dans de nombreux grands pays. C’est bien souvent la seule voie réaliste qui permette de résoudre les problèmes d’addiction de certaines nations à la combustion de charbon, choix antérieur délibéré pour disposer à moindres coûts de puissance électrique. Le choix de l’outil du dumping énergétique par la Chine, le plus gros consommateur mondial de charbon et premier émetteur mondial de CO2, illustre cette impérieuse nécessité. Dans le cas de l’Inde, cette conversion énergétique à marche forcée semble être engagée.

Par Raymond Bonnaterre

Les terres rares sont-elles indispensables pour les moteurs électriques, les éoliennes et les panneaux solaires ?

Contrairement au moteur à aimants permanents de la célèbre Toyota Prius japonaise, le moteur à induction triphasé à courant alternatif breveté pour la première en 1888 par Nikola Tesla ne contient pas d’aimants. Zéro consommation de terres rares. Tesla Motors l’explique (en français) sur son site : « Certains moteurs utilisent des aimants permanents, mais pas le moteur du Roadster (et de la Tesla S ndlr) : le champ magnétique est exclusivement produit par de l’électricité.»

Ce qui est valable pour les moteurs électriques l’est aussi pour les génératrices éoliennes. Comme l’explique (en français) le groupe ENERCON, leader Allemand de la production d’éoliennes qui détient 40% des brevets mondiaux du domaine, « les éoliennes ENERCON produisent de l’électricité verte sans l’élément controversé, le néodyme. Le concept d’éolienne sans boîte de vitesse servant de base à tous les types d’éoliennes – de l’E-33/ 330 kW à l’E-126/ 7,5 MW fonctionne avec un générateur annulaire à excitation indépendante. Les champs magnétiques requis pour la production d’électricité dans le générateur sont pour ce faire produits électriquement. Les aimants permanents avec lesquels la plupart des concurrents travaillent et pour laquelle la fabrication nécessite le néodyme, ne sont pas utilisés pour les éoliennes ENERCON pour des raisons d’ingénierie. » D’autres entreprises qu’ENERCON ont adopté cette technologie.

Une partie des éoliennes actuelles utilise du néodyme, mais l’on peut s’en affranchir complètement. Tenter de faire croire que cet élément serait indispensable aux éoliennes, ceci en réalité dans l’unique objectif de freiner le développement des énergies renouvelables et ainsi de continuer à vendre le plus longtemps possible l’électricité obtenue en brûlant des combustibles fossiles, est pour le moins stérile.

Et les panneaux solaires ?

Certains panneaux solaires à couche mince, qui ne représentent qu’une petite part du marché PV global, utilisent des terres rares. Mais les panneaux de la start-up Silevo, achetée il y a quelques mois par le groupe SolarCity fondé par Elon Musk qui est également le PDG de Tesla Motors, sont à base de silicium. Logique pour un enfant de la Silicon Valley. Le silicium est le deuxième élément le plus abondant de la croûte terrestre après l’oxygène.

De plus les panneaux Silevo ne contiennent pas d’argent (qui est un métal rare mais qui n’est pas une « terre rare »). Or comme l’ont montré les scientifiques Andrea Feltrin et Alex Freundlich dans un article (Material considerations for terawatt level deployment of photovoltaics) publié dans la revue à comité de lecture Renewable Energy dès 2008, « si l’usage de l’argent peut dans le futur être réduit alors il n’y a pas d’autre obstacle pour les cellules à base de silicium » dans la perspective de produire des panneaux photovoltaïques à l’échelle des térawatts (millions de mégawatts).

Elon Musk et son associé Lyndon Rive sont en train de construire dans l’état de New-York une gigantesque usine capable de produire 1 GW par an de panneaux solaires de technologie Silevo. L’usine, installée non loin des chutes du Niagara, sera alimentée à 100% par les énergies renouvelables, une belle illustration du miracle de la multiplication des pains (solaires). En moins de 2 ans un panneau solaire délivre autant d’énergie qu’il en a été nécessaire pour le produire. C’est ce que l’on appelle l’energy payback time, le temps de retour énergétique. Et la durée de vie des panneaux est supérieure à 20 ans. Autrement dit avec l’énergie produite par un panneau (par ailleurs recyclables), on peut en obtenir plus de 10. Miraculeux.

Les terres rares ne sont indispensables ni pour l’éolien, ni pour les panneaux photovoltaïques, ni pour le moteur de voiture électrique.

La véritable rareté, et la véritable problématique environnementale, climatique, sanitaire et géopolitique, ce sont les énergies fossiles. Des milliards de dollars sont aujourd’hui gaspillés pour contrôler militairement les régions de la planète qui en sont riches ou par lesquelles elles transitent, notamment au Moyen-Orient et en Ukraine. Les voitures à pétrole posent d’énormes et très coûteux problèmes sanitaires dans les grandes villes du monde. Les marées noires dévastent les écosystèmes littoraux et maritimes. L’extraction du pétrole issu des sables bitumineux constitue une aberration sur le plan de l’efficacité énergétique. L’extraction des gaz et pétrole de schiste consomme massivement de l’eau douce. L’obtention des agrocarburants de première génération requiert des surfaces de deux ordres de grandeur supérieurs à celles nécessaires au photovoltaïque.

D’où l’intérêt des écotechnologies qui permettent de s’affranchir des technologies reposant sur la combustion, a fortiori dans un contexte de croissance de la démographie et de la demande énergétique mondiale.

Par Olivier Danielo

La sauvegarde de l’énergie humaine, le défi du 21ème siècle ?

Qui ne s’est jamais senti découragé et épuisé à la seule idée d’ouvrir sa boîte courriel ?

Qui n’a jamais été pris de court, dans l’impossibilité de réagir correctement face à un partenaire, un confrère, un concurrent, par absence d’une information critique ?

Qui – au contraire – ne s’est jamais perdu dans la quantité d’information, non triée, non vérifiée, à disposition dans son organisation ? 

Voici quelques-unes des questions qui résument l’un des plus grands défis actuels pour les entreprises et leurs salariés. Dans un monde plus ouvert que jamais, où l’information circule instantanément et où il est vital de prendre en compte la globalité de son écosystème, nous sommes en fait trop facilement débordés. 

Les conséquences sont faciles à identifier. D’après le « Fifth European Working Conditions Survey » de la Fondation Européenne de Dublin (Commission Européenne), la France est dans le top 3 des pays « stressés » de l’UE. Le gâchis que cela représente au quotidien est difficile à chiffrer, mais indéniable.

A l’heure où maîtriser, économiser même, les ressources, l’énergie… donnent lieu à des paroles et à des actes, qu’en est-il de la sauvegarde de l’énergie humaine ? Moins de fatigue, moins de stress, moins de tensions interpersonnelles, favorisent une meilleure productivité, une utilisation optimale de l’intelligence collective et une plus grande créativité. Un avantage majeur à la fois pour l’entreprise et le salarié.

Les recettes traditionnelles ne suffisent plus

Il existe déjà des recettes concrètes pour permettre à l’entreprise d’économiser l’énergie de ses salariés, pour qu’ils conjuguent efficience et sérénité. Bien sûr, il y a l’environnement de travail (une bonne luminosité, de l’espace, un volume sonore confortable…) ou les services mis à disposition du personnel, en interne ou dans les environs immédiats, pour lui faciliter la vie.

Mais dans cet univers numérique, mobile et instantané dans lequel nous vivons, cela ne suffit plus. Ce qui aide le plus un collaborateur, lui permet de vraiment se concentrer sur l’essentiel, c’est l’accès immédiat à la « juste » information. C’est-à-dire celle dont il a besoin pour décider, pour agir, pour être devant ses concurrents ; celle qui enrichit les réflexions et élargit le périmètre de connaissance. Celle, enfin, qui facilite l’innovation, clé de voûte des entreprises qui se développent et se réinventent sans cesse. C’est une information précise, vérifiée, non redondante, accessible, en mode « zéro clic ».

Les technologies qui répondent à ces aspects existent déjà et ont toutes en commun le collaboratif et le social. Mieux : en plus de faciliter l’accès à l’information, elles sont également évolutives ; elles apprennent des choix et des préférences de l’individu, pour lui fournir une information filtrée, prête à consommer, sans qu’il ait chaque jour à expliciter de nouveaux ses besoins réels. Cette capacité d’évolution est centrale dans un contexte où une entreprise est tout sauf une structure figée. Elle évolue de jours en jours et les attentes de ses collaborateurs changent progressivement elles aussi. Les outils doivent donc en tenir compte.

Collaboratif et RSX pour mieux utiliser son énergie

Parmi ces derniers, les réseaux collaboratifs d’entreprises sont ceux qui offrent les plus grands bénéfices. Ils sont au cœur des enjeux business et de relations interpersonnelles. Leur objectif est en effet de faire naitre des synergies métier et d’augmenter la puissance des communautés professionnelles qui les utilisent. 

En alliant ces réseaux avec un accès intuitif à l’information pertinente, les idées se partagent mieux, les capacités d’innovation et de découvertes stratégiques se multiplient car la justesse des informations, leur non-redondance sont vérifiées – sans perte de temps. Les salariés disposent ainsi d’un plus grand confort pour partager leurs réflexions et les enrichir avec ceux, parmi leurs pairs, qui seront les plus concernés et capables d’apporter de la valeur. De facto, l’énergie de ces collaborateurs est préservée, voire augmentée.

La bonne nouvelle, c’est que les entreprises prennent conscience des enjeux d’efficience, de développement, de climat social et d’innovation, que cet impératif de sauvegarde de l’énergie humaine recouvre. L’édition 2013 de l’Index International des valeurs, réalisé par l’agence Wellcom, souligne ainsi la très forte progression de la valeur « Innovation » dans les entreprises, pour se différencier de la concurrence et l’apparition, pour la première fois, de la valeur « Communauté » dans le classement. Cette dernière concerne d’ailleurs autant une dynamique interne (salariés) qu’externe (clients).

En effet, si les professionnels comprennent que l’optimisation de l’énergie humaine par une utilisation plus fine des outils collaboratifs est une force, l’idée qu’il s’agit également d’un atout à l’extérieur de l’entreprise fait son chemin. La stratégie de la pertinence et du « zéro clic », appliquée sur les réseaux sociaux externes (RSX)* offre une forte optimisation de leurs processus de vente : un utilisateur, client, revient sur une plateforme lorsqu’il sait que l’information qui lui est présentée est de qualité. Un des critères fondamentaux de cette qualité est la pertinence vis-à-vis de ses centres d’intérêt. Thématique par thématique, il est donc possible de capitaliser d’un point de vue business sur les mêmes approches qui ont rendu ses salariés plus efficients et zen dans son organisation. En approfondissant l’analyse, il apparait même que les clients deviennent sources d’innovation, facilitant l’adaptation permanente de l’entreprise.

À une époque où toute organisation cherche à rationaliser ses investissements, les dispositifs qui favorisent l’économie de l’énergie humaine sont plus qu’une ligne dans la politique RSE des entreprises ou qu’une simple opportunité commerciale. Veiller, agir pour maîtriser la dépense d’énergie humaine de son écosystème est une véritable nécessité. Agir pour favoriser le partage au sein de l’entreprise et avec ses clients est un formidable levier de synergie.

* Les RSX sont des réseaux sociaux sur-mesure, conçus par les entreprises pour fédérer une communauté autour de leur activité, sur une plateforme externe thématique qu’elles maitrisent et sur laquelle elles peuvent s’appuyer systématiquement pour se développer.

Par Florian Leblanc, Executive Vice-President, NYC, Entropic Synergies & Viviane Strickfaden, CEO VS Management
 

Placer les antennes de son routeur Wi-Fi de manière optimale : perpendiculairement

Ce n’est pas parce que le Wi-Fi est partout qu’on sait de quoi on parle. Pour le commun des mortels, le Wi-Fi reste un truc mystérieux qui rend disponible « de l’internet » en en envoyant un peu partout autour de nous (peut-être de manière nocive, pour les plus informés), et qui permet de relier sans fil de nombreux appareils informatiques au « réseau », dans lequel nous baignons – littéralement. Et c’est évidemment lorsque l’on n’a pas de réseau qu’on en entend le plus parler. « Ya pas de réseau ! » ou encore « le réseau est pourri » sont des refrains populaires qui ont cela de frustrant qu’il peuvent être chantés alors même qu’un routeur se trouve dans les parages. Jusqu’à venir nous cueillir dans la tiède torpeur du foyer.

Alf Watt, chevalier blanc du Wi-Fi

Et c’est ici que ce vieux briscard d’Alf Watt intervient. Dans une interview accordée au site américain The Mac Observer, le développeur du détecteur de réseaux Wi-Fi iStumbler – et ancien ingénieur Wi-Fi d’Apple – nous livre une astuce de premier ordre : lorsqu’un routeur possède des antennes omnidirectionnelles externes, plutôt que de les orienter instinctivement et « naturellement » à la verticale, Alf Watt recommande d’orienter l’une perpendiculairement à l’autre.

La réception radio est maximale lorsque le client (l’appareil qui souhaite se connecter) et le point d’accès ont une polarisation assortie, en d’autres termes lorsque les antennes du client et celles du point d’accès sont dirigées le long d’un même plan. Certains appareils ont leurs antennes internes orientées horizontalement, d’autres… verticalement. Penser perpendiculairement reste donc la solution.

Crédit illustration : The Mac Observer

 

Par Rahman Moonzur

Et aussi dans les
ressources documentaires :

La GigaUsine Tesla fonctionnera intégralement à l’énergie solaire et éolienne

Capable de délivrer 500.000 batteries pour voitures électriques chaque année, l’énergie nécessaire à la fabrication des batteries sera 100% photovoltaïque et éolienne, deux énergies complémentaires et très bon marché.

Ci-dessus : vue du ciel de l’usine avec toit solaire et éoliennes sur la colline

Le PDG de Tesla Motors, le multimilliardaire Elon Musk, est aussi le fondateur de SolarCity, le numéro 1 du solaire résidentiel aux USA. SolarCity va construire une gigantesque usine de panneaux solaires de technologie Silevo (haut rendement et zéro dépendance vis à vis de l’élément argent) dans l’état de New-York, usine qui sera alimentée également à 100% par de l’énergie d’origine renouvelable.

Etant donné que l’énergie délivrée par un panneau solaire permet d’en produire 10 autres et que le rapport est encore meilleur pour l’éolien, un cercle vertueux, vraiment durable, se met en place.

La Gigafactory Tesla dans le Nevada sera la plus grande usine de batteries du monde. Elle produira à elle seule autant de capacités de stockage que l’ensemble des producteurs de batteries sur la planète aujourd’hui. L’investissement s’élève à 5 milliards de dollars.

Les batteries serviront en priorité à alimenter la gamme de voitures électriques Tesla (S, III et X), mais pourront aussi éventuellement alimenter d’autres constructeurs automobiles ainsi que servir pour le stockage stationnaire au niveau des maisons et des entreprises équipées de panneaux solaires.

Ci-dessus : les différents types de solutions de stockage

Cinq états américains – Le Nouveau Mexique, l’Arizona, le Texas, la Californie et le Nevada – étaient en compétition pour remporter ce jackpot. C’est le projet sur le site de Reno (qui sonne comme un clin d’œil au groupe Renault) qui l’a emporté. Les travaux de terrassement ont déjà commencé. Le site jouit d’un très haut niveau d’ensoleillement propice à la production photovoltaïque.

Le Gouverneur du Nevada, Brian Sandoval, a déclaré que « c’est un grande nouvelle pour l’état du Nevada. Tesla va construire dans le Nevada l’usine de batterie la plus grande et la plus avancée du monde ce qui se traduira par 100 milliards de dollars d’impact économique pour le silver state durant les 20 années à venir. Je suis reconnaissant qu’Elon Musk et Tesla aient choisi le Nevada. Ces pionniers du XXIème siècle, nourris d’innovation et de désir, sont encouragés par l’engagement du Nevada pour changer le monde. Le Nevada est prêt pour être le leader. »

L’ensemble des matières premières nécessaires pour la construction des batteries proviendra d’Amérique. Tout près de Reno se trouve la King Valley (la vallée des rois) très riche en Lithium. Ce site va être exploité par l’entreprise Western Lithium. La GigaFactory Tesla consommera chaque année une quantité de lithium équivalente à ce que prévoit de produire Western Lithium dans le cadre de la phase 1 de son plan de développement minier.

Croissance verte

« La Gigafactory est un pas important dans la perspective de faire progresser les transports durables et permettra la production en masse de véhicules électriques attractifs pour les décennies à venir » a déclaré Elon Musk, PDG de Tesla Motors. « Avec Panasonic et d’autres partenaires, nous nous réjouissons de réaliser l’ensemble de ce projet »

Il s’agit d’une « journée monumentale » s’est exclamée la porte-parole du Nevada, Marilyn Kirkpatrick. « Il s’agit d’une contribution significative pour stimuler en profondeur l’économie à l’échelle de l’ensemble de l’état du Nevada. » 6500 emplois directs, souvent très qualifiés, seront créés. S’ajouteront ceux liés à la construction de logements pour les salariés, de zones commerciales, de restaurants, de bars, de nouveaux services ainsi qu’à l’implantation d’entreprises d’ingénierie associées à la GigaFactory. Tesla Motors emploie dès à présent 6500 personnes en Californie notament au niveau de l’usine ultra-moderne de Fremont.

Plus qu’une voiture électrique, c’est une approche positive en matière d’écologie qu’apporte Elon Musk : « Free charging on pure sunlight for life », telle est sa devise. La charge solaire gratuite, à vie, pour tous ceux qui s’équipent d’une voiture Tesla.

Ci-dessus : Superchargeurs

Le réseau de superchargeurs Tesla, les plus puissants du monde, est effectivement en accès gratuit. Il permet dès à présent de relier la côte est et ouest aux USA, ainsi qu’Oslo à la côte d’Azur en France. L’ensemble de la France sera couverte dès 2015. Elon Musk est ouvert au partage: « Au cas où Peugeot, Renault ou un autre voudraient partager notre réseau, ils sont les bienvenus ! » a-t-il déclaré au journaliste Jean Botella du magazine Capital. A suivre.

Par Olivier Daniélo

Revue du web #65 : les vidéos les plus étonnantes de la semaine

Cette semaine dans la revue du Web

  • Briser la frontière entre maquillage, effets spéciaux et mapping vidéo ; 
  • « The empty car convoy » : la science au service du spectacle (et de la sécurité) ; 
  • « Om/One », la très élégante enceinte bluetooth en lévitation ; 
  • Le gadget (inutile?) de la semaine : de l’art délicat de se protéger des feux d’artifices en se jetant dedans ; 
  • et en bonus : traverser une aurore boréale à bord de la Station Spatiale Internationale.

Briser la frontière entre maquillage, effets spéciaux et mapping vidéo :

Nobumichi Asai l’a bien compris : projeter des images sur des bâtiments ou dans une pièce pour les animer de manière digitale n’a plus rien de nouveau. Fort de ce constat, l’artiste numérique japonais a décidé de s’attaquer à un tout autre support. Pour débuter notre soixante-cinquième Revue du Web, découvrons Omote, un système alliant les techniques de détection de mouvement les plus novatrices aux dernières techniques de mapping vidéo, une technologie permettant de projeter de la lumière ou du contenu vidéo sur des volumes et des structures en relief.

Sa nouvelle toile ? Le visage de la mannequin japonaise Yuka Semikizu, qui a dû se débarrasser de ses sourcils pour l’occasion, afin d’offrir un support aussi vierge que possible à l’équipe constituée de designers, d’experts en images de synthèse et de maquilleurs professionnels, équipe dirigée par l’artiste lui-même. Le résultat est tout aussi fascinant qu’effrayant : un maquillage digital épousant à la perfection le visage du modèle, véritable masque qui le suit naturellement dans tous ses mouvements. Peu de détails techniques ont pu filtrer, mis à part la nécessité de scanner le visage de la jeune femme, étape nécessaire pour modéliser les moindres contours de son joli minois, puis réaliser la projection en temps réel.

Asai n’est pas un novice en la matière – il a déjà effectué des projections pour le constructeur automobile Subaru – mais c’est la première fois qu’il travaille sur un support non stationnaire. Il ne compte d’ailleurs pas s’arrêter en si bon chemin… Prochaine étape, le mapping vidéo sur tout le corps.

« The empty car convoy » : la science au service du spectacle (et de la sécurité)

Les communicants de Hyundai ont bien compris une chose : il faut du spectacle pour vendre de la sécurité. Chez le constructeur sud-coréen, on n’est pas peu fier de la version 2015 de la Genesis, la berline routière plutôt luxe de la marque asiatique, qui se veut être un écrin rassurant et douillet, bourré de « nouvelles technologies ». Pour le prouver, direction le désert des Mojaves, à l’Ouest des États-Unis, où l’on a pu assister à une drôle de procession formée par six de ces berlines, à la queue-leu-leu. Ne cédant pas aux sirènes de la facilité, les conducteurs vont peu à peu déserter leur véhicule avec force cascades, laissant seul le conducteur de la voiture de tête, le cascadeur en chef, tellement sûr de lui qu’il décide de se bander les yeux… et de ne plus toucher au volant. Les bras en croix sur la poitrine, ainsi soit-il.

Le tracteur routier qui a récupéré les cinq premiers cascadeurs décide alors de mener la danse, puis de piler aussi malicieusement que brusquement devant la file indienne. Vous n’êtes pas les spectateurs involontaires d’un snuff movie, donc pas de suspense : la première voiture pile presque instantanément, suivie des autres Hyundai Genesis, vides. On se congratule, et on peut donc vanter les mérites de l’« Advanced Smart Cruise Control » (ASCC) – un système permettant de maintenir le véhicule à une certaine vitesse, tant qu’elle n’est pas limitée par le trafic – de l’« Automatic Emergency Brake » (AEB) – un système automatique de freinage d’urgence – et du « Lane Keeping Assist System » (LKAS), système d’assistance au maintien dans la voie de circulation – qui permet de suivre assez fidèlement le marquage au sol.

Hyundai rappelle que ces technologies ne sont bien évidemment pas là pour se substituer au conducteur, mais doivent permettre de l’assister en cas de besoin.

« Om/One », la très élégante enceinte bluetooth en lévitation

Bien que le marché des enceintes bluetooth soit complètement saturé, une petite start-up américaine a décidé de foncer tête baissée et de relever le défi, tant elle est sûre de son produit. Ce gadget, c’est Om/One, une petite enceinte au design léché qui n’est pas sans rappeler l’étoile noire de la célébrissime saga créée par George Lucas, Star Wars. Non seulement le rendu audio est de très bonne qualité, mais l’enceinte a également un petit plus qui saute immédiatement aux yeux : elle est en lévitation magnétique. La technologie utilisée a beau n’avoir rien de bien nouveau, on ne peut que fondre devant cette jolie sphère en lévitation, qui vous en coûtera tout de même la bagatelle de 179 dollars, hors frais d’expédition.

Crachant jusqu’à 110 décibels du haut de ses 3 Watts, la petite sphère peut vous accompagner partout grâce à sa batterie lithium-ion d’une autonomie – revendiquée – de quinze heures, qu’il suffit ensuite de recharger en la reliant au socle. Le petit bijou conçu par Om Audio soulève tellement d’enthousiasme que leur campagne de levée de fonds a littéralement explosé tous les compteurs, avec plus de 650 000 dollars récoltés en moins d’un mois, plus de six fois la somme espérée par la petite bande.

Le gadget (inutile?) de la semaine : de l’art délicat de se protéger des feux d’artifices en se jetant dedans

Vous vous souvenez de Colin Furze, l’inventeur le plus dangereusement enthousiaste du monde ? Nous vous parlions déjà de son univers loufoque ici et , réalisant sur sa chaîne Youtube un grand écart inquiétant entre l’univers Marvel et le « Jet Bicyle », qu’il définit lui-même comme le vélo le plus dangereux au monde. La bonne nouvelle, c’est qu’il a survécu, envers et contre tout. La mauvaise nouvelle, c’est qu’il continue de faire des doigts d’honneur à sa bonne étoile, garantissant ainsi un bel avenir à notre rubrique du gadget (inutile?) de la semaine qui, vous l’aurez compris, lui est consacrée.

Le jeune inventeur s’est cette fois-ci mis en tête de créer une combinaison de protection contre les dangers des feux d’artifice (sécurité avant tout), pour lui permettre… de se retrouver en première ligne, au beau milieu du feu d’artifice. Notre petit génie du DIY (« Do It Yourself », le fait-maison) s’inspire de l’hydroformage, un procédé de fabrication par déformation très répandu dans l’industrie automobile, pour parvenir à imprimer le volume nécessaire à son costume d’acier, mélange rigide et contre nature entre un épouvantail, Tin-Man du magicien d’Oz et un sarcophage, en guise de prémonition. Gageons que nous le reverrons bientôt dans ces pages !

Bonus : traverser une aurore boréale à bord de la Station Spatiale Internationale

Pour terminer en beauté – et en poésie – cette soixante-cinquième Revue du Web, rien de tel qu’un petit timelapse concocté par l’Agence Spatiale Européenne, à partir de photos prises à bord de la Station Spatiale Internationale. L’équipage de l’expédition 40 (trois Russes, deux Américains, un Allemand) a en effet eu la chance de pouvoir évoluer au travers d’une gigantesque aurore boréale, probable conséquence de l’intense activité solaire de ces deux dernières semaines.

Dimanche 24 août dernier, deux observatoires avaient filmé une grosse éruption solaire, de classe M 5.6, éruption qui n’était alors pas encore dirigée vers la Terre. Les éruptions solaires peuvent être responsable de nombreuses et intenses aurores boréales, et peuvent également perturber les télécommunications.

Par Moonzur Rahman

Recommandation management #1 : Définir soigneusement le rôle et la portée du management

Manager, une définition

Qu’est-ce que manager ?

Voilà la question préalable que tout un chacun est en devoir de se poser avant de prendre en charge ses responsabilités. Depuis une bonne quinzaine d’années, les organisations ont pris goût à la distribution des titres ronflants. Mais là il ne s’agit pas de titre mais bien d’un rôle à assumer. Manager n’est pas un concept si aisé que cela à définir.

Appuyons-nous sur une bibliographie choisie pour cerner du mieux possible cette notion complexe et polysémique.

Qu’est-ce que le management ?

Bibliographie choisie…

Pour les uns le management est un « art ». Mais ceux qui ont appris à ne pas trop s’en laisser compter préciseront que si le management est un art, c’est avant tout celui d’inciter les autres à faire ce dont ils n’ont pas toujours forcément envie. L’ art des apparences1 en quelque sorte.
Ainsi, la contrainte liée à une soumission de principe (« moi je commande toi tu obéis ») en est la forme la plus rustique. On parle alors de management directif. Bien qu’encore couramment pratiquée, cette forme de management n’est plus vraiment adaptée aux exigences actuelles.
D’autres préfèreront la classique méthode de la carotte et du bâton. Rebaptisée management par les objectifs, elle revient régulièrement au devant de la scène.
Mais les missions sont toujours plus complexes et les « managés » sont aussi des hommes avec leurs propres besoins et ambitions. Ce constat n’est pas nouveau, et des théoriciens expérimentateurs ont ainsi, dès le début des années 60, développé un nouveau modèle de management orienté « participation » mettant en pratique le célèbre couplet à succès du win-win (plutôt démocratique que laisser-faire ou autocratique). Le management participatif était né. Malgré ses atouts, ce type de management, éternellement « révolutionnaire », rencontre encore pas mal de difficultés à sortir des séminaires, amphis et des livres de management. On le croise assez peu en entreprises. Pour d’autres, le management est plutôt un « talent » et manager est un « métier ». ll est tout à fait juste de reconnaître qu’il existe des managers nés, dotés d’un véritable sens inné de meneur d’hommes. Il est pourtant dommage de colporter au delà du raisonnable cette image d’Epinal du manager absolu, de droit divin.
S’il est vrai que certains peuvent quelquefois manquer de charisme2 et cherchent alors à développer leur leadership3, c’est plutôt du côté de la communication et de la compréhension des autres (la négociation4, l’art d’avoir toujours raison5 ou la manipulation6  ?) qu’il faut rechercher le talent. Le bon manager prendra ainsi le temps de développer (grâce au coaching7 ?) ses qualités d’écoute et de prise de décision8.
Les préoccupations du manager responsable9 ne se limitent pas à la gestion des hommes10, aussi complexes soit-elle. Piloter les projets de l’entreprise11 et assurer l’indispensable travail de prospective techno-culturelle12 et managériale13, sont part entière de ses attributions. Enfin, sa responsabilité porte aussi sur des aspects plus prosaïques mais tout aussi essentiels comme la gestion financière14 et organisationnelle15. Tout cela n’est pas simple. Et comme pour toutes choses peu simples, les méthodes et outils… prolifèrent ! Beaucoup ne sont qu’un éternel rhabillage16 des techniques et méthodes du passé. Même si nous connaissons actuellement le temps du changement permanent17 la problématique citée ci-dessus, elle, ne change pas…
Des méthodes et techniques de management vous en trouverez ici18. Bien entendu, prises dans leur contexte spécifique, elles sont toutes relativement efficaces. Mais aucune n’est universelle.
La meilleure ? Ce sera la votre une fois que celle-ci sera au point. En attendant vous pouvez prendre un peu de recul19, ou encore vous attardez sur la « mienne » (si, si, je vous assure !) que je développe ici même avec le management collabhorratif19, non, non il n’y a pas de coquille…
Enfin, au terme de ce texte ne perdez pas de vue qu’une organisation ce sont des femmes et des hommes et non des pions. Les meilleures structures ne sont-elles pas celles qui justement redonnent toute sa dignité à l’Homme20 ?

  • 1 Tu seras un chef : Le management dans l’entreprise de Gérard Layole
  • 2 Cultivez votre charisme : Et développez votre pouvoir de conviction de Chilina Hills
  • 3 Comment développer son leadership : 6 préceptes pour les managers de Ken Blanchard et Mark Miller
  • 4 Convaincre en moins de 2 minutes de Nicholas Boothman
  • 5 L’Art d’avoir toujours raison de Arthur Schopenhauer
  • 6 Petit traité de manipulation à l’usage des honnêtes gens de Robert-Vincent Joule et Jean-Léon Beauvois de Alain Fernandez
  • 7 Le guide du coaching de John Whitmore
  • 8 Les nouveaux tableaux de bord des managers – Le projet décisionnel dans sa totalité de Alain Fernandez
  • 9 Devenez manager ! : L’essentiel de Drucker de Peter Drucker
  • 10 Les rôles en équipe de Meredith Belbin
  • 11 Le chef de projet efficace de Alain Fernandez
  • 12 Freakonomics de Stephen J. Dubner et Steven D. Levitt
  • 11 La Fin du management : Inventer les règles de demain de Gary Hamel et Bill Breen
  • 13 Finance d’entreprise : 2011 de Pierre Vernimmen, Pascal Quiry, Yan Le Fur
  • 14 Le management : Voyage au centre des organisations de Henry Mintzberg
  • 15 Diriger au-delà du conflit de Mary Follet
  • 16 L’acteur et le système: Les contraintes de l’action collective de Michel Crozier, Erhard Friedberg
  • 17 Manageor – 2e édition: Les meilleures pratiques du management de Michel Barabel, Olivier Meier
  • 18 Les illusions du management : Pour le retour du bon sens de Jean-Pierre Le Goff
  • 19 Le management collaboratif version collabhorratif par Alain Fernandez : piloter.org/blog/partager/management_collaboratif
  • 20 Auto-gestion, l’entreprise adulte par Alain Fernandez : piloter.org/blog/manager/auto-gestion

Lire les commentaires lecteurs, donner son avis sur le billet en ligne… 

Par Alain Fernandez

Et aussi dans les
ressources documentaires :

La sonde Stardust a-t-elle récupéré de la poussière d’étoile ?

Le 7 février 1999, la Nasa envoyait dans l’espace la sonde Stardust (« poussière d’étoiles ») avec comme objectif d’étudier les comètes et d’intercepter ces fameuses poussières d’étoiles voyageant dans leur sillon ainsi que des particules interstellaires. Mission qu’elle réalisa jusqu’en 2011, date à laquelle la sonde a épuisé son carburant. Par deux fois, elle s’est approchée de comètes. En janvier 2004, elle passait à travers la queue de la comète Wild 2, à 236 kilomètres de son noyau. En 2002, c’est l’astéroïde Annefrank qu’elle frôlait.

Dans l’espace, la sonde s’est servi du collecteur à base d’aérogel (gel de silicium) dont elle dispose pour capturer des milliers de particules sans détérioration. Elle les a ensuite placées dans une capsule de 46 kilogrammes, puis parachutée celle-ci sur Terre, dans le désert de l’Utah. Les astronomes ont alors pu prendre connaissance de son contenu.

Parmi les échantillons rapportés, sept particules proviendraient de l’explosion d’une supernova. Une cargaison rare – il s’agit des « premiers échantillons de corps céleste autre que la Lune » – et donc très précieuse pour les astronomes qui ont eu fort à faire depuis le retour de la capsule sur Terre en 2006. L’analyse dure depuis huit ans et n’est pas encore terminée. C’est qu’il faut faire le tri parmi des centaines de particules parfois d’un millième de millimètre de diamètre. Les astronomes préfèrent donc prendre des précautions en s’assurant qu’il s’agit bien de poussière d’étoile.

Cette confirmation est d’une importance capitale puisque l’analyse de ces poussières pourrait apporter de nouveaux renseignements sur la formation des comètes et leur développement. La composition de ces particules semble en tout cas différente des prévisions des spécialistes. Leur taille varie également. La structure des « grosses » particules serait comparable à de gros flocons de neige. D’autre part, les chercheurs ont décelé des traces de glycine, un acide aminé, dans certaines d’entre elles. Ce qui pourrait relancer la théorie selon laquelle la vie aurait pu surgir à travers le passage de comètes.

Ce n’est pas tout. Une autre mission spatiale se déroule en ce moment même au-dessus de nos têtes. La sonde Rosetta est en effet en orbite depuis le 6 août dernier autour de la comète 67P/Churyumov-Gerasimenko afin d’étudier son noyau. Elle devrait également, en novembre prochain, y faire atterrir un « robot-laboratoire ».

Par Sébastien Tribot

 

287319/TI053/72-WQ-VBV3201

Première expérience de télépathie réussie, selon des chercheurs

Pour cette expérience, un des sujets en Inde porte des électrodes sur la tête transmettant via internet ses activités cérébrales comme un électroencéphalogramme, alors qu’il pense des messages très simples comme « bonjour » ou « salut ».

L’ordinateur convertit ces impulsions électriques en code binaire, le langage machine, avant de les envoyer à un autre ordinateur qui les transmet au cerveau d’une autre personne en France sous forme de flash lumineux, expliquent ces scientifiques.

Le sujet ne pouvait ni entendre ni voir les mots eux-mêmes mais a été capable d’interpréter les signaux lumineux pour saisir le message.

En fait cela revient à transmettre un message par télépathie.

« Nous voulions voir s’il était possible de communiquer directement entre deux personnes en lisant les activités cérébrales de la première puis en les transmettant à une autre et ce sur de vastes distances via les systèmes de communication existants comme internet », a expliqué Alvaro Pascual-Leone, professeur de neurologie à la faculté de médecine de Harvard, co-auteur de cette expérience.

Des chercheurs de l’université de Barcelone et de la firme espagnole Starlab ainsi que de la société française Axilum Robotics ont également participé à cette recherche parue dans PLOS One daté du 19 août.

Selon ces scientifiques il s’agit d’un premier pas dans l’exploration d’autres moyens de communication.

« Nous pensons que des interfaces directes courantes entre les ordinateurs et le cerveau humain seront possibles dans un avenir pas si éloigné, permettant une communication directe de cerveau à cerveau de façon routinière (…) et créant de nouvelles possibilités dans les relations sociales », concluent ces chercheurs.

Parmi les applications potentielles, ils citent la possibilité de communiquer avec des personnes paralysées et incapables de parler après un accident vasculaire cérébral.

Les scientifiques travaillent depuis une dizaine d’années sur les communications télépathiques.

En 2013, des neurobiologistes de l’Université Duke en Caroline du nord (est des Etats-Unis) étaient parvenus à faire transmettre par une forme de télépathie des informations entre deux rats.

Comme ils sont tenus de le faire dans les grandes publications scientifiques, plusieurs auteurs signalent des conflits d’intérêt. Ainsi trois des chercheurs sont salariés de la firme de robotique et de neurosciences Starlab à Barcelone, qui a financé une partie de la recherche.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Passeur de sciences, le Best of du célèbre blog de science

Ainsi, au travers des 78 récits, l’auteur révèle quel goût a la chair humaine, pourquoi le cerveau des mamans est plus gros après l’accouchement, comment faire repousser des doigts ou encore comment les autorités savent d’ores et déjà prédire les crimes. Auteur du blog éponyme Passeur de sciences, Pierre Barthélémy a sélectionné ses meilleures histoires en biologie, anatomie, astronomie, psychologie… Sa préférée ? Celle concernant un congrès d’urologie où l’un des orateurs n’hésite pas à utiliser sa verge comme cobaye d’un nouveau traitement… qui s’est montré très efficace !

Ex-rédacteur en chef du magazine Science & Vie, cet amoureux de la science est devenu maître dans l’art de vulgariser. Basant ses anecdotes sur des faits scientifiques, l’auteur rend la science accessible à tous, simple et parfaitement intégrée à notre quotidien. 

On s’amusera aussi avec des anecdotes coquines, tout en étant très sérieuses et autorisées aux moins de 10 ans : pourquoi le pénis a cette forme ? Comment le professeur Brindley a révolutionné le traitement de l’impuissance ? Pourquoi les femmes appellent moins leur papa en période d’ovulation ? Qui a vraiment découvert le clitoris ?

A lire d’une traite ou à feuilleter, cet ouvrage original réussit son pari de rendre amusante et facile l’actualité scientifique. 

  • Passeur de sciences, Pierre Barthélémy, Hugo&Cie, 17,50€
Par Audrey Loubens, journaliste scientifique

Samsung dévoile son premier casque de réalité virtuelle

Avec cet appareil, « l’expérience mobile dans la vie quotidienne ne sera plus jamais la même », a estimé DJ Lee, directeur des ventes et du marketing de Samsung, lors d’un événement spécial organisé par le groupe deux jours avant l’ouverture officielle du salon IFA de Berlin, grand messe européenne de l’électronique.

Le nouveau Samsung VR, qui se fixe sur la tête de l’utilisateur, permet d’insérer un smartphone de la marque dans le casque et de le placer devant les yeux, pour avoir une vision très large à 96 degrés, et promener le regard au sein d’un jeu vidéo à 360 degrés, comme dans la réalité.

Le coréen a développé ce produit en partenariat avec la start-up californienne Oculus Rift, qui travaille depuis plusieurs années sur le développement de casques réalités virtuelles, en perfectionnant une technologie empruntée à l’armée américaine.

Ce produit en est à ses balbutiements mais les applications sont multiples. Jeux vidéos et films vont notamment pouvoir devenir plus immersifs.

« Le marché du jeu vidéo va évidemment être l’une des principales applications de ce produit », commente Piers Hardening-Rolls, un analyste du cabinet spécialisé IHS.

« C’est un produit d’appel pour le Galaxy Note 4, qui reste l’écran du casque. (…) C’est une entrée un peu plus rudimentaire sur le marché », alors que les véritables produits d’Oculus Rift proposent des plateformes plus puissantes, ajoute-t-il.

Le casque de Samsung pourrait toutefois plaire par son côté portable, estime-t-il.

Selon lui, ce produit se différencie des lunettes connectées proposées par Google, car il force l’utilisateur à plonger complètement dans l’expérience du casque, contrairement aux Google Glass, qui rajoutent des informations à la réalité devant les yeux de chacun.

rfo/aro/ai

 

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

 

 

1000 GW de solaire et d’éolien d’ici 6 ans dans le monde selon l’AIE

Le seuil symbolique du million de mégawatts de solaire photovoltaïque (PV) (403 GW) et d’éolien terrestre (602 GW) sera franchit en 2020 selon le scénario de base du rapport de prospective à moyen-terme du marché des énergies renouvelables (EnR) publié par l’AIE. Le solaire photovoltaïque pourrait même atteindre une puissance de 515 GW dans le scénario « avancé » de cette agence fondée en 1974 par l’OCDE. Contre 140 GW fin 2013.

En 2013 les EnR, hydroélectricité comprise, ont répondu à 22% de la demande électrique mondiale. Soit une contribution deux fois plus élevée que celle du nucléaire, moitié moindre que celle du charbon et équivalente à celle du gaz naturel. Selon le scénario de base les EnR délivreront 26% de l’électricité mondiale en 2020, toutes filières confondues, soit un gain de 4 points en 7 ans.

L’hydroélectricité conservera la part du lion avec 64% de la production EnR. L’éolien terrestre sera la seconde force renouvelable avec une part de 18%, suivi par la bioélectricité (8,4%) et le solaire PV (6,6%). En 2020, dans 6 ans, solaire PV et éolien terrestre pèseront ensemble a minima 6,4% dans le mix électrique mondial, soit un peu plus que la moitié de la contribution du nucléaire. Solaire PV et éolien entrent ainsi, à une vitesse fulgurante, dans la cour des grands.

Le solaire PV délivrera au minimum 482 TWh par an en 2020, ce qui est équivalent à la consommation électrique française de l’année 2013 (495 TWh selon le bilan RTE). Les contributions du solaire thermodynamique (30 TWh) et de l’éolien offshore (90 TWh) resteront d’un ordre de grandeur inférieur compte-tenu des coûts relativement élevés de ces filières.

Entre 2013 et 2020, dans les pays de l’OCDE, 80% de l’électricité issue des nouvelles capacités installées sera d’origine renouvelable. Et 35% dans les pays non membres de OCDE. Le niveau de croissance du solaire PV et de l’éolien terrestre sera un levier essentiel pour contenir autant que possible le recours au charbon, un combustible facile à utiliser mais dont les produits de la combustion sont particulièrement néfastes pour la santé humaine, problématique qui est d’ailleurs au centre des préoccupations des autorités Chinoises.

Les nouvelles capacités renouvelables ajoutées en Chine entre 2013 et 2020 permettront d’atteindre un gain de +867 TWh par an en 2020, en plus de la production provenant des capacités renouvelables installées avant 2013. Le gain sera de +251 TWh dans l’UE-28, +212 TWh aux USA, +187 TWh au Brésil et +123 TWh en Inde. Ce gain de production renouvelable permettra d’éviter de brûler une quantité équivalente de charbon et de gaz.

Un taux de croissance annuel supérieur en Ethiopie qu’en France 

Le taux de croissance annuel moyen d’installation de nouvelles capacités renouvelables atteindra 117% en Arabie Saoudite sur la période 2013-2020. C’est plus d’un doublement chaque année et un facteur multiplicateur de 226 en 7 ans, record mondial parmi la liste des pays qui dépasseront 1 GW de capacité EnR cumulée en 2020. Le taux de croissance annuel pourrait atteindre 67% en Jordanie, 53% aux Emirats Arabes Unis, 41 % au Qatar, 28% en Israël, 23 % en Afrique du sud, 22 % au Cambodge, 20 % en Ethiopie, 15 % au Nigéria et 12 % au Maroc.

Alors que l’éolien et le solaire PV n’ont jamais été aussi bon marché, l’Europe marque aujourd’hui paradoxalement le pas. Ceci à cause de décisions politiques déconcertantes pour les investisseurs qui ont besoin de visibilité et de garanties. Selon les auteurs du rapport de l’AIE ces obstacles sont incohérents avec les ambitions affichées en matière de réduction des émissions de CO2, une molécule acidifiante pour les océans et à effet de serre.

Coût du solaire : attention à la confusion entre passé, présent et futur 

« Les gouvernements doivent faire la différence entre le passé, le présent et le futur étant donné que les coûts diminuent avec le temps » a déclaré Maria Van der Hoeven, directrice de l’AIE, lors de la présentation du rapport. « De nombreuses filières renouvelables n’ont plus besoin de hauts niveaux de tarifs incitatifs. Elles ont plutôt besoin, compte-tenu de leur nature intensive en capital, d’un cadre de marché qui assure un retour sur investissement raisonnable et prévisible » a-t-elle souligné. « Une réflexion sérieuse sur le design du marché est donc nécessaire pour atteindre un mix électrique plus durable. »

En juin 2014, en Allemagne, les tarifs d’achat des nouvelles installations étaient compris entre 9,01 et 13,01 €-cts/kWh pour 20 ans. Ceci selon la taille des installations. Un niveau comparable au tarif d’achat demandé par EDF pour son projet d’EPR en Grande-Bretagne pointent sans ambages les scientifiques de l’Institut Fraunhofer dans le rapport « Recents facts about Photovoltaics in Germany » dont la dernière mise à jour date du 28 juillet 2014. « En Grande-Bretagne le strike price (un tarif d’achat) négocié pour la centrale nucléaire d’Hinkley Point C est établi à 10,6 €-cts/kWh pendant 35 ans. Et la centrale n’entrerait en production qu’en 2023 » rappellent les experts. Pour l’éolien offshore, le tarif d’achat est de 19 €-cts, soit environ le double de celui du solaire PV en Allemagne et du nouveau nucléaire au Royaume-Uni.

En 2013 le tarif d’achat moyen global du solaire PV en Allemagne était de 32 centimes d’euro par kWh, ce qui donne la (fausse) impression que le solaire PV est, encore aujourd’hui, plus coûteux que le nouveau nucléaire. Or ce chiffre intègre les kWh produits par l’ensemble des unités photovoltaïques mises en place depuis le début du XXIème siècle, et non pas seulement celles installées en 2013. « Cette valeur est hors-sujet pour déterminer l’expansion future du photovoltaïque » expliquent les experts de l’Institut Fraunhofer. L’électricité produite actuellement par les panneaux solaires installés par exemple en 2005 continue d’impacter la facture des consommateurs. Le tarif d’achat de 2005 est en effet toujours en vigueur aujourd’hui pour les contrats signés à cette date. Ce fardeau prendra fin en 2025, quand le contrat de tarif d’achat, établi pour une durée de 20 années, sera terminé.

Un effort européen qui bénéficie aujourd’hui au monde entier

L’effort financier significatif fourni ces dernières années dans un contexte démocratique par les citoyens Allemands, Italiens et Espagnols, dont le PIB par habitant est 3 à 4 fois supérieur à la moyenne mondiale, a permis de créer un marché, de stimuler l’industrie à l’échelle mondiale et ainsi de contribuer à une baisse de 20% du coût du solaire PV pour chaque doublement de la capacité mondiale installée.

Cette baisse massive des coûts bénéficie aujourd’hui au monde entier. Le Salvador, pays où le PIB par habitant est 10 fois inférieur à celui de l’Italie, a par exemple signé le 25 juillet 2014 un contrat à 7,7 €-cts le kWh pour une centrale de 60 MW. De son côté le Chili, dans le cadre du projet « Espejo de Tarapacá », envisage de coupler les centrales photovoltaïques en construction dans le désert d’Atacama avec une centrale de pompage-turbinage à eau de mer de 300 MW. Soit une trentaine de fois la puissance de celle d’El Hierro inaugurée au début de l’été dans l’archipel Canarien et qui assiste un parc éolien. Le kWh hydro-solaire obtenu sera délivrable 24 heures sur 24, 7 jours sur 7, et vendu directement sur le marché chilien. Sans aucune subvention.

Par Olivier Daniélo

ZTE Open C: le premier portable sous Firefox OS arrive en France !

Réglo Mobile commercialise désormais le premier smartphone fonctionnant sous Firefox OS en France : le ZTE Open C. Sans engagement et désimlocké, il est proposé à 79,9 euros. Une offre de remboursement différé de 10 € est proposée jusqu’au 21 septembre, permettant ainsi de l’acquérir pour 69,9 euros.

Côté technique, le ZTE Open C est un mobile 3G d’entrée de gamme pourvu d’un écran de 4 pouces (10 cm), d’une résolution de 800×480 pixels, doté d’un capteur photo/vidéo de 2 mégapixels, de 512 Mo de RAM, de bluetooth 4.0 mais sans NFC. Il possède un processeur Qualcomm Snapdragon double coeurs cadencé à 1,2GHz et 4 Go de stockage extensible via une microSD. Le tout fonctionne avec une batterie de 1400 mAh. La résolution de l’écran et de son appareil photo est donc assez faible, en adéquation avec son prix.

Quelles sont les particularités de Firefox OS?

Les smartphones tournant sous Firefox OS présentent comme particularité principale d’être les tout premiers à être intégralement fabriqués autour de normes Web ouvertes. Chaque fonction est développée comme une application écrite en HTML5. La fondation Mozilla le pousse comme une alternative plus ouverte qu’ Android, iOS et Window Phone, mieux adaptée aux smartphones d’entrée de gamme.

Firefox OS est doté d’une interface simple, intuitive et relativement économe en ressources. L’ensemble des applications est à retrouver dans le Firefox Marketplace. Une particularité supplémentaire est à noter : Firefox OS permet de tester les applications sans avoir à les installer sur son smartphone.

Un an après le lancement des premiers appareils, Firefox OS est disponible sur 8 smartphones dans 19 pays. Après s’être attaqué en priorité aux pays émergents ou en développement, Mozilla débarque en France et en Allemagne, prêt à s’attaquer au marché européen de l’ouest.

En France, Mozilla vise les 20 % d’utilisateurs de téléphones portables français non encore équipés de smartphones. Pour William Chhao, directeur général de ZTE Terminaux Mobiles France, interviewé par Lesmobiles.com, « ces consommateurs ne vont pas chercher à acheter un smartphone aux caractéristiques techniques surdimensionnées, mais un téléphone au design attrayant. Ils souhaitent peut-être un smartphone, mais n’en veulent pas les travers. Ils n’ont été touchés ni par Android, ni par iOS et n’auront donc aucun à priori vis-à-vis de Firefox OS« .

Pour aller plus loin :
Découvrir les smartphones Firefox OS
Page Zte Open C de Réglo Mobile

Par Matthieu Combe, journaliste scientifique