Trois exoplanètes à portée de télescope

eso1615a
Sur le site de l’Observatoire européen austral (ESO), à la Silla au Chili, des astronomes belges ont utilisé le télescope TRAPPIST pour découvrir 3 planètes de taille et températures semblables à celles de Vénus et de la Terre à seulement 40 années lumière de la Terre. Elles sont en orbite autour d’une naine rouge, donc froide et peu lumineuse. C’est la première fois qu’on observe un système planétaire autour d’une telle étoile. Cette découverte enthousiasme aussi car ces planètes sont certainement les meilleures cibles pour chercher la vie au-delà du système solaire. Les résultats ont été publié dans la revue Nature du 2 mai 2016.

A quoi ressemble le cœur du système ?

eso1615bL’étoile  2MASS J23062928-0502285, maintenant rebaptisée TRAPPIST-1, est une étoile très froide (température de surface de l’ordre de 2500°C contre 6000°C pour notre Soleil) : 2000 fois moins brillante que le Soleil, elle est tout juste plus grande que Jupiter. De telles étoiles bien que couramment observées dans la Voie Lactée n’avaient jamais été vue en compagnie d’un système planétaire. Et pour Mickael Gillon, l’un des auteurs de l’étude, la découverte de planètes autour d’une naine est une aubaine car la faible luminosité de l’étoile permet de bien mesurer les effets du passage des planètes sur la lumière qui nous parvient. Avec les étoiles trop brillantes, cet effet est trop infime pour que nous puissions les étudier avec les technologies actuelles.

A quoi ressemblent ces trois planètes ?

Les observations complémentaires menées par d’autres télescopes de l’ESO ont pu montrer que les 3 planètes découverte ont des tailles proches de celles de la Terre. Les deux premières planètes ont une période de révolution de 1,5 et 2,4 jours. Pour la troisième, on ne sait pas encore. Elle se situe entre 4,5 et 73 jours. Même si elles sont bien plus proches de leur étoile, les deux premières planètes ne reçoivent que 2 à 4 fois la quantité de lumière reçue par la Terre. Autre particularité, leur période de révolution et de rotation devrait être à peu près identiques, ce qui implique qu’elles montrent toujours la même face à leur étoile, ce qui en fait des planètes avec de fort contrastes.

Sont-elles habitables ?

Il est un peu tôt pour se prononcer complètement, mais les astronomes estiment que les deux premières sont un peu trop proches de l’étoile pour être dans la zone d’habitabilité et la troisième un peu trop loin. Cependant, il pourrait exister des zones d’habitabilité à leur surface. En effet, des modèles théoriques montrent que si sur des planètes de ce type, une atmosphère un peu plus dense que l’atmosphère terrestre se crée, la chaleur circule et certaines régions peuvent alors devenir habitables.

Des analyses bientôt à portée de télescopes

Plusieurs télescopes géants terrestres (classe 30m) actuellement en construction (comme l’E-ELT de l’ESO) devraient être capables d’étudier la composition atmosphérique de ces planètes pour y trouver ou non de l’eau et/ou des traces d’activité biologique. En outre, comme ces planètes sont vraiment idéales pour la recherche de vie extraterrestre toute la communauté va être mobilisée. Hubble doit déjà les observer cette semaine. Plus tard, ce type de système pourra être facilement étudié grâce au successeur de Hubble, le JWST dont le lancement est prévu en 2018. Nous ne sommes qu’au début d’une grande quête car TRAPPIST n’était qu’un prototype pour un programme bien plus ambitieux que l’université de Liège est en train de déployer : le projet SPECULOOS qui va chercher de manière extensive d’autres systèmes comme celui-ci à proximité de notre système solaire.

Sophie Hoguin

Record du monde de compétitivité du solaire PV : 2,6 centimes le kWh à Dubaï !

Epoustouflant: 2,99 cents le kWh ! C’est la meilleure des cinq offres que vient de recevoir l’opérateur DEWA (Dubai Electricity and Water Authority) de la part du groupe saoudien Abdul Latif Jameel associé à l’espagnol Fotowatio Renewable Ventures ainsi qu’au groupe Masdar (Abu Dhabi Future Energy Company). Ceci dans le cadre de la troisième phase de construction du parc solaire Mohammed bin Rashid Al Maktoum qui totalisera une puissance de 800 MW.

Annoncé par Saeed Mohammed AlTayer, le directeur de DEWA, ce record du monde en matière de compétitivité photovoltaïque permet de diviser presque d’un facteur deux le coût du solaire PV comparativement au deal de la seconde phase du projet réalisé il y a moins d’un an et demi.

La seconde offre la plus compétitive (3,69 cents) a été délivrée par JinkoSolar, géant chinois producteur de modules photovoltaïques polycristallins, tandis que la troisième (3,96 cents) émanait du saoudien ACWA Power en partenariat avec l’américain First Solar, l’un des leaders mondiaux du solaire à couches minces. Les deux dernières offres ont été proposées par deux géants français : Engie, ex-GDF-Suez (4,40 cents) et EDF (4,48 cents). Ce qui constitue « moins de la moitié du coût du très controversé projet de centrale nucléaire à Hinkley Point C » porté par EDF en Grande-Bretagne, constate non sans ironie le journaliste australien Giles Parkinson, fondateur du média de référence RenewEconomy.

A ce stade la DEWA étudie les offres sur le plan technique et commercial afin de sélectionner celle qui lui semble être la plus pertinente.

Un tsunami solaire des Emirats Arabes Unis au Mexique

La compétitivité redoutable du solaire observée aux Emirats Arabes Unis n’est pas un cas isolé. Au Mexique un contrat solaire PV (1000 MW) a été signé en avril 2016 à 3,60 cents par l’énergéticien italien ENEL Green Power. Auxquels il convient d’ajouter 0,50 cent selon Cédric Philibert, expert EnR de l’Agence Internationale de l’Energie, soit un total de 4,10 cents. Et le Français Engie a obtenu début mars 2016 un contrat à 4,85 cents au Pérou (40 MW). Aux USA les contrats s’établissent à présent autour de 3 cents explique le magazine en ligne spécialisé CleanTechnica, c’est-à-dire à 4,3 cents en intégrant la subvention fédérale du gouvernement américain (30%) dont bénéficie le solaire PV.

Le record de compétitivité à Dubaï (2,99 cents) s’explique en partie par un coût de la main d’œuvre modeste et par un ensoleillement optimal. Mais surtout par le fait que Masdar est liée au fond souverain d’Abu Dhabi (l’Abu Dhabi Investment Authority), ce qui permet d’obtenir des taux d’intérêts très bas, bien inférieurs à ceux que peuvent offrir les banques commerciales. Un projet solaire, c’est en effet essentiellement du capital (CAPEX). Contrairement aux centrales thermiques à flamme le coût du combustible est nul. Pour reprendre la formule de Jeremy Rifkin « le soleil n’envoie pas de facture ». Le niveau du taux d’intérêt impacte ainsi fortement le coût final du kWh.

Selon un expert du solaire PV appartenant à l’une des entreprises qui ont répondu à l’appel d’offre mais qui préfère rester anonyme:
« C’est en effet par le biais de Masdar, mais malgré tout ils devraient perdre quelques millions sur les 25 ans. Ils s’achètent une image pour les futures projet dans la zone. » Une affirmation difficile à vérifier. Ce qui est sûr c’est que l’offre la plus attractive, qui est ici critiquée, est 33% plus économique que l’offre la plus coûteuse. La compétition est rude.

En France le solaire PV est presque aussi bon marché que le nucléaire historique

Selon Richard Loyen, le président du syndicat des professionnels du solaire (ENERPLAN), le grand solaire PV au sol est à présent à 7 c€/kWh (8 cents) dans le sud de la France, un niveau proche de celui du coût du nucléaire historique déjà amorti (6 c€/kWh), et presque deux fois inférieur à celui du nouveau nucléaire (EPR). Ce coût deux fois plus élevé que celui observé à Dubaï est le fruit d’un ensoleillement moins généreux qu’en péninsule arabique, une main d’œuvre plus coûteuse et des taux d’intérêt bien plus élevés.

« Sur le marché de la fourniture d’électricité au réseau il y a aujourd’hui des appels d’offre dans le monde à 4, 5 ou 6 centimes d’euros. On est capable aujourd’hui de challenger le nucléaire, bien évidemment » et aussi les « nouvelles centrales à gaz et nouvelles centrales à charbon » a affirmé Richard Loyen sur BFM-TV le 1er mai 2016. « On est sur le trend de 100 GW par an qui seront atteints avant 2020 » a ajouté l’expert.

Face à cet effondrement vraiment massif et spectaculaire des coûts, même les solaro-sceptiques les plus endurcis sont aujourd’hui contraints d’admettre qu’ils ont eu tord. David Keith, professeur à Harvard, a par exemple déclaré récemment: « J’étais dans l’erreur concernant les limitations économiques de l’électricité solaire » (Greentech Media, 28 avril 2016). Cette évolution du monde de l’énergie a conduit les géants français ENGIE (sous la houlette d’Isabelle Kocher) et TOTAL (Patrick Pouyanné) à une réorientation stratégique profonde. Le solaire est bien entendu au cœur de cette révolution. Thierry Lepercq, cofondateur de Solairedirect, start-up rachetée par Engie en 2015, vient d’être promu Directeur Général Adjoint du géant français, en charge de la recherche & technologie et de l’innovation.

L’avenir des groupes qui, par idéologie ou faute de vision et de capacité d’anticipation, ont lourdement investi dans l’industrie du nouveau nucléaire est en revanche inquiétant, a fortiori quand de l’argent public est concerné : cette industrie ne sera désormais plus jamais compétitive avec celle du photovoltaïque. Tout tentative d’acharnement thérapeutique et de maintien sous respiration artificielle de cette filière du siècle dernier risque de conduire à un naufrage encore plus douloureux. AREVA a déjà commencé le plongeon infernal.

Le secteur du solaire PV n’est pas le seul à battre des records de compétitivité : un contrat éolien terrestre à 3 cents le kWh a été signé en janvier 2016 au Maroc. Abderrahim El Hafidi, Vice-Ministre de l’énergie et de l’environnement a estimé que ce contrat est « extraordinaire » et qu’il annonce une «vraie révolution ». Combiner solaire PV et éolien permet d’ailleurs de réduire les besoins en outils de flexibilité.

Prendre la bonne route

De son côté, Ségolène Royal, Ministre de l’écologie, a choisi de mettre en avant un projet de 1000 kilomètres de route solaire. La technologie Wattway retenue, développée par Bouygues-Colas, aura un coût qui sera très supérieur à 30 centimes le kWh selon Olivier Apper, conseiller énergie de l’Institut Français des Relations Internationales (IFRI). Il sera en réalité probablement supérieur à 100 centimes le kWh si l’on intègre l’inévitable écrasement du rendement et de la durée de vie des cellules photovoltaïques en milieu routier. Soit un coût d’ un ordre de grandeur supérieur à celui du grand PV au sol dans le sud de la France ! Dans une tribune intitulée « Route solaire : un magnifique coup de pub…A quel coût ? » Olivier Apper, non sans ironie, s’interroge : « la technologie peut presque tout, sauf inventer le moteur à eau. Peut-on dans ces conditions dépenser sans compter ? ». Président du Conseil Français de l’Énergie, une organisation membre du Conseil Mondial de l’Energie, cet expert souligne que « c’est le consommateur d’électricité qui paiera la note par le biais du mécanisme de la CSPE. Ce consommateur en est-il informé ?».

L’ingénieur Matthew Klippenstein y est allé aussi de son couplet dans une amusante tribune publiée le 26 avril 2016 dans le magazine de référence Greentech Media. Tout comme le journaliste Antoine de Ravignan dénonçant « un gouffre financier » dans une tribune intitulée « Routes solaires : une fausse bonne idée » et publiée dans le magazine Alternatives Economiques le 27 avril 2016. « Les éléphants blancs, ces gros projets inutiles et ruineux, ça trompe énormément (…) Avant de se lancer sur les routes électriques, il serait urgent de lever les obstacles mis en travers des énergies renouvelables qui roulent.». Clémentine Vaysse du journal marseillais indépendant MarsActu émet de son côté l’hypothèse que Ségolène Royal aurait été frappée d’un « coup de soleil ». Et la journaliste estime que « De scandale d’Etat à projet d’avenir, il n’y a visiblement qu’un pas. »

Avec ce projet Wattway porté par Ségolène Royal, « en France, on roule sur la tête » estime Oxygn, spécialiste du solaire PV cofondée par Marc Maionchi et Christophe Vanopbroeke. Basée à Marseille, cette PME a publié un excellent dossier de synthèse au sujet de la plus grande centrale PV d’Europe (300 MW) construite près de Bordeaux, dossier dans le cadre duquel sont révélés les très pervers bâtons dans les roues qui ont été placés volontairement par des fonctionnaires de l’état français : « un pays qui a l’art de cultiver les chausse-trappes pour les développeurs de centrales au sol (…) Tout est fait pour nous freiner dans notre atteinte de taille critique et d’optimisation du bilan financier. »

Aux Emirats Arabes Unis, en Inde, en Chine, en Afrique, en Amérique latine, aux USA, en Allemagne et en Italie, le futur est vraiment solaire. Au royaume de l’atome, on le cherche encore. Particulièrement lucide et bien informée l’avocate Corinne Lepage, fondatrice de CAP21 Le Rassemblement Citoyen, auteur du livre « L’état nucléaire » et ancienne Ministre de l’environnement, estime que « le nucléaire n’est plus à terme un atout pour la France, c’est un boulet ».

Olivier Daniélo

GreenLys livre ses conclusions sur l’effacement

Le projet GreenLys a nécessité 43 millions d’euros d’investissements, dont 9,6 millions d’aides de l’Ademe. 400 citoyens résidentiels volontaires et 4 sites tertiaires ont pris part à l’expérimentation, portée par 5 principaux partenaires : ErDF, ENGIE, Gaz électricité de Grenoble (GEG), Schneider Electric et Grenoble INP. 82 % des ménages s’estiment satisfaits du projet, 63 % ont décidé de garder les équipements de pilotage en fin d’expérimentation et 84 % sont prêts à recommander les technologies de GreenLys à leurs proches.

Schneider Electric a déployé sa solution Wiser d’équipements de pilotage des appareils électriques, notamment de chauffage et de chauffe-eau chez les testeurs particuliers. Engie a développé un système d’information permettant de piloter à distance ces appareils et de décaler leur mise en service, pour limiter la demande de pointe sur le réseau. Plusieurs tests d’effacement ont eu lieu au cours du projet : de 15 minutes à plusieurs heures, de 2 à 5 fois par jour. « Le standard est un effacement d’une heure, deux fois par jour », affirme Nicolas Flechon, Directeur de projet GreenLys chez GEG.Le client pouvait déroger à cet ordre sur la Box pour redémarrer le chauffage ou l’eau chaude sanitaire.

Lisser la pointe et décaler les consommations dans le temps

Plus de 60 000 effacements ont eu lieu avec l’accord des testeurs. Les retours d’expériences montrent que ces effacements n’ont pas eu d’impact sur le confort des expérimentateurs. La variation de température constatée au cours d’un effacement est située en moyenne entre 0,1 et 0,2°C.

Le projet a délivré un enseignement capital. Si l’effacement diminue la demande en puissance et en énergie pendant le temps de l’opération, il opère un simple décalage de consommation dans le temps. « L’effacement ne permet pas de faire d’économies d’énergie, c’est un déplacement de consommation qui peut être intéressant pour le système électrique ou le client lorsque l’énergie est moins chère », prévient Nicolas Flechon. Dans les minutes qui suivent l’effacement, le chauffage électrique connait une en effet surconsommation en puissance de 50 %. La surconsommation en énergie est comprise entre 40 et 60 % immédiatement après l’effacement et jusqu’à 95 % après 24h. Cet effet rebond est néanmoins maîtrisable avec des stratégies de reprises adaptées en rallumant les radiateurs de façon graduée.

Des simulations de tarifications dynamiques ont été explorées pour donner de la valeur aux services de pilotage et d’effacement. Cette tarification consiste à faire évoluer le prix de l’électricité en temps réel pour s’ajuster aux contraintes du réseau et éviter le recours aux moyens de production de pointe (gaz et charbon), plus onéreux et plus polluants. Deux offres simulées ont été testées : elles permettraient une réduction de facture des clients de 5 % en moyenne. Le projet conclut que le business  model de l’effacement diffus demeure compliqué, en raison des faibles économies d’énergie induites. « Il faudra trouver d’autres incitations pour favoriser l’émergence de ces offres », prévient  Nicolas Flechon

L’effacement, plus rentable dans le tertiaire !

L’effacement a été testé sur quatre sites tertiaires. Les bâtiments 38 EQI et 38 TEC de Schneider Electric, le site Europole de GEG et la patinoire de la ville ont été équipés de l’offre « Prosumer » de Schneider Electric. Celle-ci permet de piloter les équipements de chauffage, ventilation et climatisation (CVC), ainsi que les infrastructures de production et de stockage d’électricité.

Plus de 200 effacements liés aux équipements de CVC ont été réalisés par Engie sur ces différents sites. L’écart avec la température de consigne ne dépassait pas 1°C afin de ne pas nuire au confort des occupants. Les résultats sont les mêmes que dans le résidentiel : l’appel de puissance est amplifié lors de la bascule de consigne et le report de consommation est supérieur à 95 % dans les 24h suivant l’effacement. En revanche, avec un tarif vert A5, des gains sur la facture jusqu’à 16 % peuvent être réalisés certains jours. Avec les tests réalisés dans le cadre de GreenLys, le retour sur investissement pour l’offre Consumer a été estimé à environ 7 ans.

Par Matthieu Combe, journaliste scientifique

Voie lactée : les doyennes des étoiles préservent notre histoire

Une équipe internationale d’astronomes de l’Institut d’Astrophysique Leibniz de Postdam (Allemagne) et de l’UCLA (Californie – USA) a réussi à étudier les plus anciennes étoiles connues jusque là au cœur de notre galaxie. Des fossiles vivants de plus de 10 milliards d’années nichés à plus de 20000 années-lumières de chez nous.

Utiliser des étoiles variables de type RR Lyrae

voie_lacteeLes astronomes ont utilisés le spectographe AAOmega du télescope anglo-australien (Siding Spring – Australie) pour s’intéresser à d’anciennes classes d’étoiles appelées variables de type RR Lyrae. Ces étoiles ne brillent plus que par intermittence, une fois par jour, ce qui rend leur étude difficile, même si elles présentent l’avantage d’être des « chandelles standards » (ce sont des objets astronomiques dont la luminosité est connue). Les RR Lyrae permettent de faire des estimations de distance très exacte et on ne les trouve que dans des populations d’étoiles de plus de 10 milliards d’années. Les scientifiques ont enregistré les vitesses de centaines d’étoiles simultanément dans la direction de la constellation du Sagittaire, c’est-à-dire en direction du centre de notre galaxie. Grâce à ces enregistrements, ils ont pu découvrir les premières données restantes de la formation de la Voie lactée.

Une stratigraphie cosmique

La Voie lactée est composée de multiples générations d’étoiles qui ont traversé le temps depuis sa création à nos jours. Les éléments lourds, que les astronomes appellent d’un nom global de « métaux » sont brassés dans les étoiles, les générations les plus jeunes sont plus riches en métal. Dès lors, on s’attend à ce que les composantes les plus anciennes de notre galaxie soient des étoiles pauvres en métal. La plupart des régions centrales de notre galaxie sont constituées d’étoiles riches en métal, à peu près comme notre Soleil. Elles forment au sein du bulbe de la Voie lactée, une barre de très forte densité d’étoiles. Ces étoiles sont connues pour graviter à peu près autour du centre de la galaxie, en tournant toutes dans le même sens et en suivant une orbite en forme de terrain de football américain. L’hydrogène de la galaxie suit lui aussi ce type de rotation. En conséquence on pensait que toutes les étoiles du centre de la galaxie tournaient dans cette même direction. La surprise qui attendaient les astronomes c’est que justement les RR Lyrae ne suivent pas ce type d’orbite et semblent avoir des mouvements aléatoires. Cela signifierait qu’elles datent de l’époque où la Voie lactée était en train de se former et qu’elles garderaient donc la mémoire de la formation de la Voie lactée avant même la constitution de la barre.

Bientôt beaucoup plus de données

Les prochaines étapes de cette exploration du passé de la Voie lactée passeront par l’observation d’un échantillon d’étoiles beaucoup plus important (3 à 4000 au lieu de 1000 aujourd’hui) et par l’analyse détaillée de la composition en métaux de ces étoiles. L’archéologie galactique n’en est qu’à ses débuts et nul doute qu’elle va faire un bond en avant dans quelques mois avec les premières publications issues des données récoltées par la sonde Gaia de l’ESA. Lancée il y a 3 ans, son objectif était justement de mieux connaître notre galaxie aujourd’hui et hier.

Sophie Hoguin

Les amandes d’abricot présentent un risque d’intoxication au cyanure

Un composé d’origine naturelle appelé amygdaline est présent dans les amandes d’abricot et il se convertit en cyanure après l’ingestion. L’intoxication au cyanure peut provoquer des symptômes tels que nausées,  fièvre, maux de tête, insomnie, soif, léthargie,  nervosité, douleurs articulaires et musculaires ou encore chute de tension artérielle. Dans les cas extrêmes, le pronostic vital peut être engagé.

Des études indiquent qu’une quantité de cyanure entre 0,5 et 3,5 milligrammes (mg) par kilogramme de poids corporel peut se révéler mortelle. Le groupe scientifique de l’EFSA sur les contaminants de la chaîne alimentaire a établi un niveau de sécurité pour une exposition unique ponctuelle (connue sous le nom de dose de référence aiguë, ou «DARf») de 20 microgrammes (µg) par kilogramme de poids corporel. Cette dose est 25 fois plus basse que la dose mortelle la plus faible signalée.

Sur la base de ces seuils et des quantités d’amygdaline habituellement présente dans les amandes crues d’abricot, les experts de l’EFSA estiment que les adultes pourraient consommer une grande amande ou trois petites amandes d’abricot (370 mg), sans dépasser la DARf. Pour les jeunes enfants, la quantité indiquée serait de 60 mg, ce qui correspond à environ la moitié d’une petite  amande.

Le fruit de l’abricot n’est pas en cause

La consommation normale d’abricots ne pose pas de risque pour la santé des consommateurs. L’amande est la graine qui se trouve à l’intérieur du noyau d’abricot. On l’obtient après avoir cassé la coque dure du noyau d’abricot et, par conséquent, elle n’entre pas en contact avec le fruit lui-même.

Il semble que la plupart des  amandes crues d’abricot vendues dans l’UE sont importées depuis l’extérieur de l’Union et vendues aux consommateurs via internet. Les vendeurs en font la promotion en tant qu’aliment permettant de lutter contre le cancer, et certains encouragent activement un apport allant de 10 à 60 amandes par jour, respectivement pour la population générale et les patients atteints de cancer.

L’évaluation des bénéfices allégués des  amandes crues d’abricot dans le cadre d’un traitement contre le cancer ou de toute autre utilisation ne relève pas du mandat de sécurité sanitaire des aliments assuré par l’EFSA ; ce volet n’est donc pas couvert dans l’avis scientifique.

L’EFSA a consulté ses partenaires dans les États membres de l’UE pour discuter de cet avis scientifique et des évaluations précédentes réalisées par les autorités nationales (voir le rapport ci-dessous). Cette évaluation des risques informera les gestionnaires des risques de la Commission européenne et des États membres qui réglementent la sécurité des aliments dans l’UE. Ils décideront si des mesures sont nécessaires pour protéger la santé publique de la consommation d’amandes crues d’abricot.

Source : efsa

La capacité des disques durs enfle grâce à l’hélium

Si l’hélium, gaz 7 fois plus léger que l’air, est connu pour gonfler les ballons-sondes et autres dirigeables, on sait moins qu’il est capable de gonfler aussi la capacité des disques durs. En janvier dernier, Seagate, l’un des principaux fabricants mondiaux, a ainsi annoncé la sortie de son premier modèle à 10 To à base d’hélium, la capacité record actuelle. Pour autant, Seagate n’est pas un pionnier en la matière, puisque son grand rival, Western Digital, avait annoncé pareil exploit quelques mois auparavant.

UltrastarHe10_standing_right_label_HRC’est HGST (Hitachi Global Storage Technology) qui est à l’initiative de cette nouvelle méthode industrielle destinée à accroître les capacités de stockage. Cette filiale de Western Digital avait commercialisé le premier disque dur rempli d’hélium dès novembre 2013, alors d’une capacité de 6 To. «Notre gamme HelioSeal est l’aboutissement de 5 à 7 années de développement, confie Marc Bonnet, ingénieur support technique client chez HGST France. L’une des difficultés à résoudre était d’empêcher l’hélium de fuir, ce qu’il fait très facilement.» Le mot anglais Seal signifie que le disque dur est en effet scellé et donc étanche, contrairement à un disque dur classique qui contient de l’air. «Ce qui signifie par ailleurs qu’aucun polluant externe, susceptible de provoquer une panne, ne peut pénétrer à l’intérieur du disque dur» poursuit Marc Bonnet.

L’usage de l’hélium n’est pas nouveau en soi. Ce gaz inerte était déjà employé pour améliorer la précision d’une opération très minutieuse pendant la fabrication du disque dur : l’écriture des motifs Servo, qui balisent les pistes circulaires sur les plateaux, et qui serviront plus tard au bon positionnement des têtes de lecture/écriture des données. La faible densité de l’hélium – 0,139 contre 1 si on prend l’air comme référence – permet de réduire les contraintes mécaniques et donc les vibrations qui s’exercent sur les têtes.

L’idée était d’exploiter cette même propriété physico-chimique de manière permanente cette fois, dans le cycle de vie dudit disque dur. «Les plateaux d’un disque dur tournent typiquement à 7200 tours/minutes et, à cette vitesse, les frottements de l’air produisent des vibrations qui nuisent à la précision, explique Marc Bonnet. Remplacer l’air par de l’hélium réduit ce phénomène. Il est dès lors possible d’empiler jusqu’à 7 plateaux sur une même épaisseur d’un pouce, et donc d’augmenter la capacité de stockage.»

Un coût total de possession inférieur

D’autres bénéfices sont à mettre au crédit de l’hélium. «Moins de vibrations, c’est aussi une fiabilité accrue, détaille Marc Bonnet. Ainsi, il y a un an, nous avons pu relever le MTBF (Mean time beetween failures ou temps moyen entre pannes, NDLR) à 2,5 millions d’heures au lieu de 2 millions auparavant. Ce gain est également dû à l’échauffement moindre, de l’ordre de 3 à 4°C. Enfin, la consommation électrique diminue d’environ 25%».

La technologie à l’hélium est en toute logique synonyme de coûts de production plus élevés, le temps qu’elle se démocratise. Des coûts que HGST ne communique pas et qui se répercutent sur le prix d’achat. Toutefois, les clients de ces disques durs à haute capacité calculent sur le long terme. «Ce sont les grands fournisseurs de services cloud qui entretiennent des fermes de serveurs, précise Marc Bonnet. Le coût total de possession est un facteur primordial.» Autrement dit, l’ensemble des coûts engendrés par le disque dur – consommation électrique, maintenance éventuelle… – tout au long de son existence.

En guise d’argumentaire commercial, HGST s’est livré à une estimation comparative qui implique 160 serveurs hébergeant 1920 disques durs. Pourvue de disques durs de 10 To à l’hélium, cette installation totaliserait une capacité de 19 pétaoctets (soit 1024 téraoctets) et nécessiterait une puissance électrique de 10 kilowatts. Avec des disques durs de 8 To à air, la capacité serait de 15 Po moyennant une puissance électrique de 17,3 kilowatts. Ces fermes de serveurs fonctionnant 24 heures sur 24, les économies réalisées seraient donc très vite significatives.

La sécurité du bisphénol A pour le système immunitaire doit être réexaminée

Ce rapport, préparé par l’Institut national néerlandais pour la santé publique et l’environnement (RIVM), analyse de manière critique deux études par Menard et al.(2014) décrivant les effets prénataux et périnataux du BPA sur le système immunitaire ;  ces études n’avaient pas encore été publiées lorsque l’EFSA avait passé en revue la littérature scientifique disponible pour son évaluation des risques du BPA en 2014.

Le rapport recommande de promouvoir la recherche sur des alternatives au BPA et de conseiller aux consommateurs de réduire leur exposition au BPA via leur alimentation et les autres sources d’exposition.

L’EFSA a accepté la demande du Ministère néerlandais de la Santé de se pencher sur les résultats du rapport publié par le RIVM, et elle examinera spécifiquement la toxicité du BPA pour le système immunitaire à la lumière de ces nouveaux éléments. Le groupe d’experts de l’EFSA sur les matériaux en contact avec les aliments, les enzymes, les arômes et les auxiliaires technologiques (groupe CEF) devrait publier une déclaration dans les mois qui viennent.

Seuil de sécurité temporaire

En décembre 2014, le groupe CEF de l’EFSA avait réduit la dose journalière admissible (DJA) pour le BPA de 50 microgrammes par kilogramme de poids corporel par jour (µg/kg pc/jour) à 4 µg/kg pc/jour.

La DJA avait été fixée de manière temporaire, afin de prendre en compte les incertitudes entourant les effets possibles du BPA sur la glande mammaire ainsi que sur les systèmes reproducteur, nerveux, immunitaire et métabolique chez les animaux de laboratoire.

Le poids total des preuves scientifiques disponibles n’avait pas permis aux experts de l’EFSA de conclure si, oui ou non, ces effets étaient susceptibles de se déclarer chez les animaux et les humains et s’ils seraient nocifs. Pour tenir compte des lacunes dans les connaissances disponibles à l’époque sur ces effets éventuels, un facteur d’incertitude supplémentaire avait été appliqué.

L’EFSA réévaluera le BPA en 2017-2018

En fixant cette DJA temporaire, l’EFSA s’est engagée à procéder à une réévaluation du BPA lorsqu’une étude sur deux ans réalisée par le National Toxicology Program des États-Unis sera publiée en 2017.

Parallèlement à cet examen du rapport RIVM, l’EFSA a commencé à se préparer à cette prochaine évaluation des risques du BPA en développant un « protocole scientifique » pour une recherche documentaire structurée et un examen transparent de tous les éléments scientifiques nouveaux qui ne figuraient pas dans son évaluation précédente. Une procédure de passation de marché public est en cours pour la collecte et l’extraction de données sur la toxicologie du BPA à partir des études scientifiques publiées depuis 2012.

Début 2017, l’EFSA organisera une consultation publique sur ce protocole, qui consiste en une méthode procédurale prédéfinie encadrant la collecte, l’extraction et l’évaluation des données. Les parties prenantes représentant les pouvoirs publics, les milieux universitaires et la société civile pourront s’exprimer sur l’approche planifiée par l’EFSA avant le début de ses travaux. L’avis scientifique final devrait être achevé en 2018.

Contexte

Les deux études examinées dans le rapport RIVM sont les suivantes :

Source : efsa

Big Brother dans votre voiture ?

Pour de nombreux automobilistes, la voiture connectée est synonyme d’aide à la conduite. Pour la majorité des Français, ces échanges de données avec des capteurs placés sous le bitume et dans les véhicules permettront d’éviter les embouteillages, d’avoir un meilleur rendement énergétique et d’améliorer la sécurité.
« Mais les véhicules peuvent en dire long sur les conducteurs, bien plus qu’ils ne l’imaginent. Il faut les informer et se mobiliser pour une réglementation qui leur permette d’être protégés et de rester maîtres de leurs données », demande Didier Bollecker, président de l’ACA (Automobile club association).

Or, selon une étude menée par Research Now pour la FIA (Fédération internationale de l’automobile) en 2015, de multiples données sont transmises sur le profil du conducteur : sa conduite, la localisation du véhicule, les informations personnelles émanant du smartphone directement au constructeur. De quoi inquiéter l’automobiliste : 84 % de nos compatriotes redoutent l’utilisation des données à des fins commerciales. La même proportion craint le piratage de celles-ci et la divulgation d’informations personnelles.

Face à cette menace, la CNIL a décidé de lancer les travaux du pack de conformité « véhicule connecté ». Ce pack proposera des lignes directrices, pour une utilisation responsable des données dans les prochaines générations de voitures.
Lancés il y a deux ans, ces packs sont des guides des « bonnes pratiques » rappelant les obligations légales et simplifiant les formalités administratives.
En quelque sorte une « boîte à outils » de la conformité spécifique au véhicule connecté.

Ce pack de conformité permettra aussi de déterminer à qui appartiennent les informations « produites » par les équipements connectés : au constructeur, à l’automobiliste, aux fabricants des appareils connectés… ? Parallèlement à ces travaux de la CNIL, la Fédération Internationale de l’Automobile a d’ailleurs lancé une campagne intitulée « My Car My Data » destinée à sensibiliser les automobilistes sur les données qu’ils émettent tout en permettant davantage de liberté au niveau de leur utilisation.

Pour Éric Antibi, directeur technique NetApp France, « la connectivité automobile ne fonctionnera que si la collecte, l’accessibilité et l’analyse des données sont gérées et pensées correctement, sous-tendues par des technologies adéquates pour gérer le stockage des données, suffisamment évolutives pour accompagner le développement de nouvelles fonctionnalités. » De son côté, la FIA estime que les consommateurs devraient pouvoir choisir le fournisseur des services numériques intégrés aux voitures connectées, plutôt que d’être prisonniers d’accords passés entre le fabricant et un opérateur de télécoms.

Reste à convaincre les constructeurs automobiles. « Ils pensent qu’il ne serait pas approprié que l’UE établisse des règles supplémentaires et spécifiques pour la protection des données liées aux services et véhicules connectés. Aucun autre secteur ou produit, même pas les smartphones ou les ordinateurs, qui traitent pourtant un grand nombre de données personnelles, ne sont soumis à une législation spécifique », a déclaré un porte-parole de l’Association des constructeurs européens d’automobiles (ACEA).

Philippe Richard

Affaire Volkswagen : 52 véhicules déjà testés

Nous le savions, les tests actuels d’homologation ne sont pas représentatifs des conditions réelles de circulation. Sur les 15 constructeurs testés, 9 constructeurs français et étrangers – Renault/Dacia, Kia, Fiat/Chrysler, Mercedes Benz, Volkswagen, PSA, Nissan, Opel et Ford présentent des anomalies.

Si les tests n’ont pas dévoilé la présence de logiciels truqueurs, ils ont montré des dépassements significatifs en conditions réelles de circulation. Par ailleurs, chez plusieurs constructeurs, les systèmes de dépollution utilisés ne fonctionnent que dans de faibles plages de températures. Selon les résultats de l’enquête, « sur les 23 véhicules Euro 6 testés, 10 émettent lors de l’essai sur piste 5 fois plus que la limite d’émissions (80 mg/km) et 3 dépassent cette même limite de plus de 10 fois ». Concernant les émissions de CO2 sur piste, « les écarts sont significatifs, les trois quarts des véhicules testés présentant des émissions supérieures de 20 % à 50 % à la déclaration des constructeurs ». Cela confirme « même à faibles vitesse et accélération, les écarts importants constatés par les usagers entre consommations de carburants annoncées par les constructeurs et consommations réelles».

Pour les les véhicules déjà en circulation et les véhicules neufs en cours de commercialisation ne respectant pas les normes d’émissions, les constructeurs devront présenter des plans d’amélioration précisant le nombre de véhicules concernés, l’origine des anomalies constatées et les mesures envisagées pour réduire ces émissions. « Pour les véhicules neufs les autorités d’homologation devront décider si les mesures proposées sont suffisantes ou s’il convient, de suspendre la vente », prévient Ségolène Royal dans un communiqué.

Par Matthieu Combe, journaliste scientifique

Assurance et objets connectés : surveillance ou assistance ?

Officiellement, leur collaboration permettra d’améliorer le bien-être des utilisateurs. Prévention, coaching, monitoring, maintenance prédictive, assistance… : on nous promet une meilleure santé et une couverture des risques tout en payant moins cher nos contrats.

Cette promesse a été concrétisée en avril 2015 aux États-Unis avec l’offre « Vitaly » de l’assurance John Hancock. Grâce à un bracelet connecté FitBit, l’assureur peut surveiller l’hygiène de vie de ses clients. À la clé ? Des réductions pouvant atteindre les 15 %. Quelques mois plus tard, Allianz proposait dans l’hexagone une offre similaire via un boitier télématique. Au même moment, Axa France mettait en place de nouveaux contrats d’assurance habitation, des services de prévention et d’assistance reposant sur des capteurs connectés.

Depuis, les autres groupes sont arrivés sur ce marché. Harmonie Mutuelle a signé un partenariat avec Orange pour financer, à hauteur de 1,2 million d’euros sur trois ans, des expérimentations et des projets dans le domaine de l’e-santé. Malakoff Médéric a annoncé avoir investi 1,4 million d’euros dans la start-up spécialisée dans la santé connectée Ignilife pour exploiter la plate-forme web et mobile de coaching, Vigisanté.

Pour l’instant, ces contrats s’adressent aux particuliers, mais des contrats d’assurance connectée pourraient prochainement viser les entreprises. L’agriculture, le bâtiment et la construction paraissent comme des secteurs d’activité prioritaires.

Mais l’apparition de ces nouveaux contrats pose différentes questions. Premièrement, cette hyper personnalisation signifie-t-elle la fin de la mutualisation des primes d’assurance ? « Les Big data produites par les objets connectés vont permettre d’individualiser l’offre, mais ça ne remet pas en cause la mutualisation. Si on prend le cas de l’assurance conducteur « Pay how you drive », même s’il se comporte bien sur la route, il reste confronté à des risques extérieurs, dus aux autres conducteurs ou à la météo », affirme Jean-Baptiste Mounier, porte-parole d’Axa.

La récupération de très nombreuses données à caractère personnel pose inévitablement la question de leur confidentialité et de leur protection. Quelles garanties auront les clients quant au respect de leur vie privée ? La tentation est forte de revendre de telles informations à des entreprises ou à des régies publicitaires, voire à leur employeur ou à des cabinets de recrutement…

« La protection des données et les cyberrisques ont un impact sur notre business modèle et nous sommes convaincus qu’il faut travailler main dans la main avec le monde académique », a rappelé Véronique Weill, Directrice des Opérations du Groupe Axa, lors de la journée Sciences de la donnée organisée par l’IRIT (Institut de Recherche en Informatique de Toulouse) le 11 avril dernier.

Preuve que la protection des informations récoltées par les capteurs commence à devenir problématique, le 12 avril, la CNIL et 29 autorités dans le monde ont annoncé qu’elles mèneront ce printemps une opération conjointe d’audit en ligne pour examiner l’impact sur la vie privée des objets connectés utilisés au quotidien. Les tests réalisés en mai prochain par la CNIL concerneront trois catégories : les objets domotiques, les objets de santé et les objets dits de bien-être. Cet audit évaluera la qualité de l’information délivrée, le niveau de sécurité des flux de données et le degré de contrôle de l’usager sur l’exploitation de ses données.

Par Philippe Richard

Instructions pour la conférence « Comment optimiser votre journée de travail ? »

Afin de participer pleinement à la conférence en ligne du mardi 3 mai à 11h, voici – ci-dessous -un document à imprimer et les instructions pour le remplir :

1 Téléchargez fiche vierge « Ma planification quotidienne » :

2 Imprimez-là.

3 Commencez à la renseigner en suivant les instructions de préparation fournies dans la « fiche guide » ci attachée.

4 Venez nous rejoindre au webinaire …(soyez ponctuels J )

A demain !

L’ADN et le quartz pour stocker nos données pour l’éternité


5-aAutrefois, vous aviez l’habitude de
stocker vos données sur des CD-R. Désormais, vous préférez utiliser des DVD-R ou -RW, des clés USB, ou des disques durs externes. Mais un problème, de taille, se pose : selon les recherches du Laboratoire national d’essais, la durée de vie de ces supports de stockage ne dépassent pas 5 à 10 ans, en moyenne – 20 ans grand maximum. Ces dispositifs sur silicium à la durée de vie limitée finissent inéluctablement par ne plus fonctionner. Et avant cela, sur le long terme, les informations stockées s’altèrent.

Alors, comment faire pour préserver vos données ? Bien sûr, vous pouvez sauvegarder vos fichiers sur plusieurs supports, puis changer de support tous les 5 ans, voire plus tôt. Mais cette solution demeure assez périlleuse – il suffit que votre disque dur “crashe”, ou que la surface de CD/DVD ne se raye par accident, pour que toute tentative de récupération ne soit vaine.

Une autre solution pourrait être le Cloud, les “nuages” d’Internet. Il est ainsi possible de stocker vos documents en ligne, sur Google Drive, par exemple. Mais cet archivage 2.0 “a un coût”, relève 01 Net : “à l’échelle de la France, la préservation du patrimoine s’élèverait entre 2 et 20 milliards par an”.

En outre, tout comme les disques durs, les “data centers”, ces sites physiques sur lequels se trouvent regroupés des ordinateurs, des systèmes de stockage et des équipements de télécommunications, ne sont pas éternels. Nous ne sommes mêmes pas certains que le Web existera toujours dans un futur lointain. Ou que nos données seront toujours lisibles par les “équipements du futur”.

L’usage du Cloud et des supports de stockage physiques actuels est donc limité dans le temps. Heureusement, des projets sont actuellement menés, partout sur le globe, pour trouver une technologie capable de conserver nos données numériques pour l’éternité.

Nos données, stockées dans l’ADN

Des chercheurs se sont tournés vers l’ADN. A l’Ecole polytechnique fédérale de Zurich, des scientifiques ont “encodé” 83 Ko de données provenant de manuscrits du Moyen- ge, sur un fragment d’ADN, et l’ont inséré dans une minuscule capsule de silice (de 150 nanomètres de diamètre). En l’exposant à des conditions extrêmes, ils ont simulé un vieillissement accéléré. Résultat : au bout de 2000 ans de stockage, les données numériques étaient toujours intactes, non altérées.

Stockées suivant ce procédé, à une température de –18 °C, les informations pourraient être préservées pendant des centaines de milliers d’années. Avec l’ADN, les capacités de stockage sont en outre démultipliées : les disques durs actuels permettent de stocker jusqu’à 5 To, quand une molécule d’ADN permettrait de stocker 300 000 To.

Mais ce procédé reste pour le moment très coûteux et difficile à généraliser – même si selon le Dr Nick Goldman, du laboratoire européen de biologie moléculaire (EMBL), le coût pourrait “baisser suffisamment” pour que cette technologie soit accessible d’ici 10 ans.

De leur côté, des chercheurs de l’ICS (CNRS) de Strasbourg travaillent, non pas sur l’ADN naturel, mais sur des polymères synthétiques. Ainsi, grâce à la biologie de synthèse, il serait possible d’aboutir à un système moins coûteux et davantage adapté à l’usage d’interfaces électroniques.

Concrètement, les scientifiques de l’ICS ont inscrit un code binaire sur un polymère synthétique, en se basant sur les méthodes de séquençage du génome. “Plutôt que de se servir des 4 bases azotées de l’ADN, les chercheurs ont utilisé 3 monomères. Deux de ces monomères représentent les chiffres 0 et 1 du langage binaire. Un troisième monomère est intercalé entre les bits afin de faciliter l’écriture et la lecture de la séquence codée”, expliquent les chercheurs sur le site du CNRS.

En outre, cette technique permet le développement de “codes-barres moléculaires”. Les séquences fourniraient ainsi “un étiquetage extrêmement complexe à falsifier. L’utilisation de monomères et de codes secrets, connus seulement par le laboratoire et l’industriel, rendrait les contrefaçons extrêmement difficiles”, indique l’équipe de recherche. D’ici une vingtaine d’années, les chercheurs n’excluent pas l’utilisation de “disques durs moléculaires” pour stocker nos données.

Des informations gravées dans le quartz pour l’éternité

Autrefois, nous gravions nos textes dans le marbre. Pourquoi ne pas continuer à graver nos informations dans la pierre, afin de les conserver presque éternellement ? Des scientifiques du laboratoire de Hitachi et des chercheurs de l’Université de Kyoto ont conçu un support de stockage à base de quartz.

hitachi-quartz-kyoto

Le procédé consiste à graver des informations sur un bloc de quartz, avec un laser, et de lire les données au moyen d’un microscope optique. Le support final : une plaque de quartz carrée, de 2 centimètres de large et de 2 millimètres d’épaisseur, étanche, “résistant à l’eau, aux produits chimiques et aux intempéries”. Selon Hitachi, ce support dure résiste aussi à “2h d’exposition à une température de 2 000 degré celsius”. Grâce à une technique de vieillissement accéléré, les chercheurs indiquent que la durée de stockage peut atteindre “des centaines de millions d’années”.

Quand il sera commercialisé, ce support de “stockage perpétuel” sera d’abord réservé aux entreprises ayant de grandes quantités de données à sauvegarder, indique Hitachi. Mais à terme, le constructeur nippon espère qu’il permettra de conserver (quasiment pour l’éternité) des informations “historiques” – des documents administratifs, des données culturelles, voire des informations personnelles, que tout un chacun désirera céder à la postérité.

Par Fabien Soyez

L’Europe mobilise 50 Md€ pour numériser l’industrie

Dans le cadre de la stratégie pour la création « d’un marché unique du numérique » présentée en octobre 2015, la Commission européenne a dévoilé la semaine dernière la partie « soutien à la numérisation de l’industrie européenne ». Le train de mesures proposées vise à favoriser le passage au numérique de l’industrie et des services connexes. Plusieurs mesures phares prendront effet dès cette année.

Un intérêt économique majeur

De prime abord, le coût paraît faramineux : une étude du Parlement européen estime ainsi que pour la seule Allemagne il faut investir 40 Md€ chaque année jusqu’en 2020 pour la numérisation de son industrie et que ce chiffre monterait à 140 Md€ pour toute l’Europe.

Il faut cependant mettre cette dépense en regard des gains espérés : par exemple, explique le document, l’amélioration de la qualité pour aller vers le zéro défaut par les 100 premiers industriels pourraient leur faire économiser plus de 160 Md€ de frais pour retour, réparation ou mise au rebut de produits défectueux. C’est selon des études de PwC ou de Boston Consulting Group une augmentation du chiffre d’affaires de l’industrie de plus de 110 milliards d’euros par an en Europe sur les cinq prochaines années.

Coordonner et partager

La Commission propose tout d’abord de jouer un rôle de coordinateur et de médiateur entre les initiatives nationales et régionales (plus de 30 sont déjà lancées en Europe – voir infographie). Cela prendra la forme de deux rencontres par an entre représentants des initiatives nationales, leaders industriels et partenaires sociaux pour présenter les différentes actions en cours et faire le point sur les financements. La Foire de Hanovre où a eu lieu la présentation du plan et des premiers contacts en marque le coup d’envoi. Début 2017, se tiendra un forum annuel réunissant toutes les parties prenantes de la chaîne de valeur du numérique.

500 M€ pour des plateformes d’innovation

Le plan prévoit la mise en place de centres techniques disséminés partout pour que chaque industrie, petite ou grande, puisse avoir accès aux savoirs, à des moyens de tester les dernières technologies digitales et à des formations pour les salariés. Ces plateformes d’innovation seront basées dans des universités, centres de recherche ou d’autres formes de cluster selon les spécificités régionales. Les fonds alloués au développement de ces plateformes prendront la forme d’appel à propositions réguliers au cours des 5 prochaines années. Pour les Etats ne disposant pas de structures existantes, la Commission les invite à investir en faisant appels aux fonds régionaux de l’UE.

Renforcer les partenariats public-privé

Les fonds européens de partenariats public-privé (PPP) actuellement en place couvrent déjà toute la chaîne de numérisation utile à l’industrie : de la robotique et l’électronique à la G ou au Big Data. Ils comprennent aussi le PPP Factories of the Future (FoF) créé pour soutenir la mise en place de solutions basées sur les nouvelles technologies de l’information. D’autres PPP pourront voir le jour en fonction des priorités de recherches qui seront identifiées. En 2016, sera ainsi lancé le PPP sur la cybersécurité.

De nombreuses autres mesures

Bien sûr, pour accompagner cette mutation, la Commission planche déjà sur les cadre législatifs et réglementaires : pour la libre-circulation des données, leurs protections, ou encore les systèmes autonomes et l’internet des objets. Par ailleurs, l’aspect compétences n’a pas été oublié et il est prévu d’étudier les conditions dans lesquelles les citoyens et les travailleurs pourront acquérir les compétences nécessaires à leur employabilité et à la maîtrise du nouvel environnement qui se dessine. L’agenda de travail sur cet aspect doit être fixé plus tard en 2016.

Sophie Hoguin

Les pleurs des bébés n’échappent pas aux stéréotypes de genre

Une nouvelle étude, publiée dans BMC Psychology le 14 avril 2016, démontre que nous n’hésitons pas à juger les bébés à l’aune de stéréotypes, même en l’absence de différence avérée entre filles et garçons. Alors que les voix des bébés filles ne sont pas plus haut perchées que celles des bébés garçons, les adultes jugent pourtant du sexe et de la féminité ou de la masculinité des bébés rien qu’en écoutant leurs pleurs.

C’est ce qu’ont découvert des chercheurs et chercheuses de l’Institut des neurosciences Paris-Saclay (CNRS/Université Paris-Sud) basés à l’Université de Saint-Étienne.

Les stéréotypes considérant qu’hommes et femmes diffèrent par leurs capacités affectives et cognitives sont très répandus et orientent fortement la psychologie et les comportements humains, influençant la structure et le fonctionnement des relations sociales. Ces stéréotypes affectent ainsi le comportement des adultes face aux enfants – par exemple la couleur des habits et les activités proposées diffèrent entre filles et garçons. L’impact de ces stéréotypes sur la perception des pleurs de bébés n’avait cependant jamais été étudié.

Des chercheurs et chercheuses de l’Institut des neurosciences Paris Saclay (CNRS/Université Paris-Sud), de l’Université Jean Monnet, Saint-Étienne, du département de psychologie de l’université du Sussex et du Hunter College de New York, viennent de démontrer que les adultes considèrent que les garçons doivent avoir une voix plus grave que les filles, et appliquent ce jugement aux pleurs de bébés de trois mois. Le hic est qu’à cet âge, les pleurs des bébés filles ne sont pas plus aigus que ceux des bébés garçons !

Le pleur est le moyen naturel et privilégié que possède le bébé pour attirer l’attention de celles et ceux qui s’occupent de lui. Ce signal sonore porte donc des informations, tant sur l’identité de l’individu (à chaque bébé son pleur) que sur le stress qu’il subit (faim, douleur, peur). Les parents et les autres personnes en charge du bébé sont habituellement très doué·es pour analyser ces informations.

Une étude publiée par la même équipe dans Nature Communications en 2013 avait ainsi montré que mère et père sont capables de reconnaître leur propre bébé par ses pleurs. Ils peuvent également évaluer le degré d’urgence exprimé par le bébé et réagir en conséquence.

Dans l’étude publiée ce 14 avril 2016 dans la revue internationale BMC Psychology, des bébés âgés de trois mois ont d’abord été enregistrés en train de pleurer à la sortie du bain. L’analyse de la structure acoustique des pleurs montra alors qu’il n’était pas possible de distinguer filles et garçons sur la base de la hauteur des pleurs : des individus des deux sexes pleuraient dans l’aigu, d’autres dans les mediums, tandis que certains avaient une voix de basse.

La première série d’expériences montra pourtant que les adultes n’hésitaient pas à attribuer un sexe aux bébés en classant les pleurs graves comme ceux de garçons et les pleurs aigus comme ceux de filles. Dans les expériences qui suivirent, les pleurs de ces bébés étaient présentés à des adultes, soit comme des pleurs de garçons, soit comme des pleurs de filles.

Les auditeurs et les auditrices devaient alors se prononcer sur le degré de masculinité ou de féminité des bébés. Sans hésitation, elles et ils classaient les prétendues filles aux pleurs aigus comme plus féminines que les autres, et vice-versa pour les garçons.

Les adultes considèrent donc que la féminité pour les filles ou la masculinité pour les garçons puisse se traduire dans leurs pleurs. Les mêmes résultats furent obtenus avec des pleurs dont la hauteur avait été artificiellement modifiée, sans qu’aucune autre caractéristique ne soit changée. Ainsi les adultes utilisent ce qu’ils connaissent des voix humaines après la puberté – les voix d’hommes sont en moyenne plus graves que les voix de femmes – et l’appliquent aux bébés, qui pourtant échappent à cette règle.

Dans une dernière série d’expériences, les mêmes pleurs étaient proposés à deux groupes d’adultes. Aux adultes du premier groupe, les pleurs étaient étiquetés « filles » tandis qu’ils étaient « garçons » pour le second groupe.

Interrogés sur leur perception des pleurs, tous les participant·es ont noté les pleurs les plus aigus comme ceux exprimant le plus de besoins de la part du bébé. Mais les hommes adultes ont considéré que les pleurs des « garçons » exprimaient plus d’inconfort que les mêmes pleurs présentés comme « filles ». Les femmes quant à elles notaient les pleurs sans prêter attention au sexe indiqué. Les hommes auraient-ils tendance à considérer que les garçons ne pleurent que lorsqu’ils ont vraiment mal ? Et que les filles pleurent pour un rien ? Voici des stéréotypes qui pourraient avoir la vie dure !

En conclusion, ces résultats montrent que nous projetons sur les enfants des idées issues du monde des adultes. Il est donc possible que nous passions parfois à côté du besoin réel des bébés. Comprendre l’impact de cette méprise sur le développement des bébés pourrait représenter un important enjeu de société.

Source : cnrs 

L’Arabie Saoudite s’engage dans l’ère post-pétrole

Alors que des dizaines de chefs d’Etat ratifiaient au siège des Nations-Unis à New-York le texte de la COP 21, l’Arabie Saoudite, pilier de l’ère pétrolière, préparait l’annonce de sa mutation. Le travail est énorme pour ce pays où les hydrocarbures représentent 90% des revenus de l’Etat et l’essentiel des exportations.

Le fleuron Aramco

Pour mettre en œuvre cet ambitieux plan de transition, le premier producteur de brut au monde a besoin d’argent. Or, la chute dramatique des cours du brut a considérablement affaibli les finances du Royaume. En 2015, le déficit public a quadruplé, atteignant 367 milliards de riyals  (89 mds €), soit près de 15% du PIB. C’est pourquoi le Prince-héritier, Mohamed Bin Salman, a décidé d’ouvrir 5% du capital de la Saudi Aramco. Cette opération est gigantesque puisqu’elle valoriserait la compagnie pétrolière nationale à 2 000 milliards de dollars (1 780 mds €), ce qui la placerait de facto comme première capitalisation boursière du monde loin, très loin, devant Apple (580 mds €). Il faut dire qu’avec 260 millions de barils de réserve et des coûts de production les plus bas du monde, la Saudi Aramco est une des rares compagnies à pouvoir affronter sereinement des cours durablement bas du baril. Les revenus tirés de cette privatisation partielle alimenteront notamment le fonds souverain créé par Ryad, le plus important du monde puisqu’il a l’ambition de contrôler 10% de la capacité d’investissement mondiale.

Ouverture de la société

Cette politique d’ouverture devrait toucher en profondeur la société saoudienne encore très réglementée. La participation du secteur privé dans l’économie sera encouragée pour atteindre 65%, et ce, afin de faire diminuer le taux de chômage à 7% contre 11,6% actuellement. La participation des femmes à la vie économique devrait également être facilitée. Le Prince-héritier plaide également pour l’instauration d’une TVA dans les pays du Conseil de coopération du Golfe (CCG), le club des pétromonarchies de la péninsule arabique, à l’horizon 2018. Toutes ses initiatives répondent au besoin de créer de nouvelles sources de financements aux programmes sociaux concédés par la monarchie et que les revenus du pétrole ne peuvent plus couvrir.

Enfin, un système de visa devrait être mis en place pour donner davantage de droits et de visibilité aux immigrés dont le statut actuel est très insatisfaisant en termes de Droits de l’Homme.

Romain Chicheportiche

Revue du web #90 : les vidéos les plus étonnantes d’avril 2016

Testez le Flyboard Air !

Après le jetpack, le drone et le hoverboard, voici un nouvel objet volant ultra futuriste : le Flyboard Air…

Après quatre ans de dur labeur, l’entreprise Zapata Racing a eu la joie de présenter cet incroyable engin. A bord, un audacieux pilote qui tient une télécommande dans sa main afin de maîtriser la puissance du moteur. Pour se diriger, rien de plus simple : il se penche d’un côté ou de l’autre.

Capable d’atteindre une vitesse de 150 km/h, le Flyboard Air peut monter à plus de 3000 mètres. Petit bemol : il ne disposerait que d’une autonomie de 10 minutes, ce qui limite grandement les escapades…

 

Des vidéos immersives sur Facebook

Baptisé Surround 360, le nouveau projet de Mark Zuckerberg nous promet de superbes vidéos immersives : 17 caméras haute résolution (8K) dont 14 disposées en cercle afin de réaliser des images panoramiques.

Pour concurrencer Facebook, YouTube  a déjà annoncé la diffusion de vidéos à 360 degrés, en direct.

La guerre est ouverte.

 

Le snack du futur imprimé en 3D

Vous mangez toujours la même chose ? Que diriez-vous d’essayer un nouveau snack : une sorte de boule composée de terre et de graines conçue en impression 3D. Peu ragoûtant ? Détrompez-vous !  Ce serait l’avenir de la création culinaire…

Ce projet baptisé « Edible Growth » (littéralement « pousses comestibles ») a été imaginé par Chloe Rutzerveld, étudiante en design à l’Université technique d’Eindhoven (Pays-Bas).

 

Le robot bipède de Google

La société américaine Boston Dynamics et la société japonaise Schaft (toutes deux filiales de Google) n’en finissent pas de donner naissance à de nouveaux robots militaires aux capacités étonnantes.

Après Atlas, un robot capable de se relever seul après avoir été poussé dévoilé récemment par Boston Dynamics, voici un nouveau robot d’une stabilité à toute épreuve.

Conçu cette fois par Shaft, ce petit robot bipède marche dans la neige, porte une charge de 60 kg, gravit des marches et trébuche à peine quand on s’amuse à lancer un objet dans ses jambes motorisées. Un vrai dur.

 

Une Tesla évite la collision… en pilote automatique

On accuse souvent les voitures sans conducteur d’être plus dangereuses que les autres. Pourtant, une Tesla modèle S dont le pilote automatique était activé est parvenue à éviter un accident toute seule.

Alors que la Tesla était sur l’autoroute, une camionnette blanche qui roulait à sa gauche, lui a coupé la route afin de prendre la première sortie. La Tesla a immédiatement détecté le danger. Deux choix s’offraient à elles : freiner brusquement (mais une voiture la suivait de près) ou mordre la bande d’arrêt d’urgence, solution plus sûre adoptée aussitôt.

Une bonne nouvelle pour Elon Musk !

 

Escrimeur : 0 / Drone : 1

Lui aussi a parfaitement compris comment éviter les obstacles : ce drone créé par des chercheurs de l’Université de Stanford, en Californie, esquive tous les assauts d’un escrimeur.

Avec un temps de réponse de moins d’un tiers de seconde, ce drone peut modifier sa trajectoire en un rien de temps.

Construction, automobile, usine du futur… Les applications possibles ne manquent pas !

 

Un Rembrandt imprimé en 3D

« The Next Rembrandt » est une toile inédite du peintre Rembrandt qui vient d’être révélée à Amsterdam. Sa particularité : elle a été imprimée en 3D par une équipe d’historiens, d’analystes de données et de développeurs.

Un programme développé en partenariat avec Microsoft a analysé le style de l’artiste, dégagé les grandes tendances de son oeuvre et dressé le portrait-robot d’un tableau.

Résultat : le portrait d’un homme d’une quarantaine d’années, blanc, barbu, portant un chapeau. La forme de son visage, l’écart entre ses yeux, et la position du nez ont également été analysés par l’algorithme de façon à copier le plus possible les peintures du maître.

Les faussaires high tech ont livré un résultat impressionnant.

 

Un robot-serpent inspecteur des sites pétroliers sous-marins

Si vous êtes atteint d’herpétophobie, ne vous sentez pas obligé de visionner la vidéo qui suit. Non seulement, il y est question d’un serpent, mais en plus ce reptile est muni de deux yeux luminescents peu sympathiques.

Kongsberg, une entreprise publique norvégienne, a dévoilé ce robot le 18 avril dernier. Son rôle : surveiller les installations de forage pétrolier de la compagnie Statoil et mener des activités de maintenance.

Sa morphologie lui permettra de se faufiler partout et d’effectuer des manœuvres complexes.

Une génération entière de Norvégiens risque de devenir herpétophobe, mais n’est-ce pas un risque négligeable quand on pense à l’économie réalisée grâce à ce petit serpent bionique qui remplacera bientôt les onéreux sous-marins utilisés jusqu’à présent pour remplir ces missions ?

Par Iris T.

Coupler stockage de CO2 et géothermie !

Dans la plupart des projets de stockage géologique, le CO2 est injecté à l’état supercritique. Plusieurs millions de tonnes peuvent alors être stockées chaque année sur un même site. Néanmoins, les sites répondant aux critères de sécurité et de pérennité du stockage pour de tels volumes sont souvent éloignés des  gros émetteurs industriels, ce qui impose d’importants coûts logistiques supplémentaires liés au transport du CO2. Sans prix élevé de la tonne de CO2, ces projets restent très chers pour les industriels et peu attrayants.

« Tant qu’il n’y aura pas une augmentation significative du prix du carbone sur le marché mondial, on aura du mal à motiver un industriel à payer des millions pour se débarrasser de son CO2 », regrette Christophe Kervevan, chercheur au Bureau de Recherches Géologiques et Minières (BRGM). « Notre approche qui consiste à stocker le CO2 sous forme préalablement dissoute dans la saumure, tout en récupérant l’énergie géothermique, permet ainsi d’ajouter un bénéfice économique au bénéfice environnemental, ce qui nous semble susceptible de plus motiver les industriels », se félicite-t-il.

Le projet CO2-DISSOLVED s’est intéressé au stockage de CO2 sous forme dissoute dans des aquifères profonds salés, typiquement situés entre 1.500 et 2.000 m de profondeur. Si l’injection de CO2 supercritique permet de stocker plusieurs millions de tonnes par an, un doublet géothermique unique ne permettrait de dissoudre qu’un maximum de 150 000 t/an de CO2 (limite physique due à la solubilité du CO2 dans la saumure pour les débits d’eau généralement obtenus dans les doublets géothermiques). Cette option constitue donc une solution pour les petits émetteurs industriels jusqu’ici non considérés dans les projets classiques de stockage géologique du CO2. L’idée est donc d’appliquer ce nouveau concept de stockage à de tels sites industriels,  à condition qu’ils soient situés au-dessus d’aquifères salins profonds. Ainsi, il n’y aurait pas à construire de longs pipelines pour transporter le CO2 jusqu’à son lieu d’injection.

Le projet a constitué un inventaire des sites industriels potentiellement compatibles avec cette technologie, c’est-à-dire émettant moins de 150 000 t/an de CO2 et situés au droit de ressources géothermales avérées. Sur les 800 émetteurs recensés en France, plus de 650 sites industriels compatibles ont pu être identifiés, notamment dans les bassins Parisien et Aquitain. Cela représente un total de 25 millions de tonnes de CO2/ an, soit tout de même l’équivalent de près de 17% des émissions industrielles nationales de CO2 (données 2011 du registre français des émissions polluantes).

Carte France faibles émetteurs et géologie
653 sites sont potentiellement compatibles en France. PHOTO// BRGM

Quelle installation mettre en oeuvre ?

La technologie repose fondamentalement sur un doublet géothermique standard (ensemble de deux puits) qui permettra de récupérer la saumure chaude puis de la réinjecter après l’avoir chargée en CO2 dissous. Il est ainsi possible d’associer au stockage la récupération d’énergie géothermique, utilisable localement pour les besoins propres de l’industriel émetteur de CO2 et/ou pour alimenter un réseau de chaleur proche.

Le puits « producteur » pompe la saumure chaude d’un aquifère salin profond. En surface, la chaleur est récupérée via un échangeur. La saumure refroidie est ensuite réinjectée en profondeur via le puits « injecteur ». « Le diamètre intérieur du puits injecteur est typiquement de l’ordre de 20 cm, à l’intérieur duquel on ajoutera une ligne d’injection du CO2 d’environ 1 à 2 cm de diamètre, explique Christophe Kervevan. En fonction des conditions opérationnelles, ce système permettra de contrôler le diamètre des bulles, leur densité et leur flux pour assurer de toujours rester en dessous de la limite de solubilité du CO2 dans l’eau ».

illust_CO2
Représentation schématique du concept CO2-DISSOLVED. PHOTO// BRGM

Quels impacts sur l’aquifère?

Ce type de stockage est beaucoup plus simple à gérer que le CO2 sous forme supercritique. « Dans l’approche «classique», la bulle de gaz a naturellement tendance à vouloir remonter à la surface du réservoir, car elle est plus légère que l’eau. Sa migration vers les couches géologiques supérieures est bloquée par la couverture imperméable qui surmonte le réservoir mais l’augmentation de la taille de cette bulle au-fur-et-à-mesure de l’injection aura tendance à repousser latéralement la saumure initialement en place ;  les impacts au niveau de l’aquifère de l’injection peuvent ainsi potentiellement se faire sentir à plusieurs dizaines de kilomètres du lieu d’injection. Avec le CO2 sous forme dissoute et le système de doublet qui, par principe, réinjecte exactement le volume d’eau pompé, on s’affranchit de ce problème, car le CO2 reste piégé dans la saumure. » affirme Christophe Kervevan .

Par le biais de modèles et d’expérimentations en laboratoire, le projet s’est intéressé à l’impact de l’eau enrichie en CO2 sur la roche constitutive de l’aquifère. Des minéraux gréseux et carbonatés, caractéristiques des principaux aquifères profonds ciblés en France, ont été utilisés pour étudier les réactions chimiques induites par l’injection d’une saumure acidifiée par sa teneur élevée en CO2 dissous. « Dans le cas des roches carbonatées (typiques d’un aquifère comme le Dogger du bassin de Paris), les résultats montrent que l‘injection de CO2 ne va pas créer une dissolution catastrophique de la roche et une destruction du sous-sol. Les simulations les plus pessimistes ont tendance à montrer que les zones impactées par la dissolution complète ou partielle de la roche induite par la circulation de l’eau acidifiée seraient d’un diamètre de l’ordre de la dizaine de mètres. Les calculs qui ont ensuite été faits démontrent un risque extrêmement faible de perturbation mécanique induite qui pourrait être observable en surface », analyse  Christophe Kervevan.

« Il n’y a rien de très dangereux : il s’agit d’un doublet géothermique basse température (T < 90°C) standard, dont la technologie est parfaitement connue et maitrisée, dans lequel l’eau a tendance à être plus agressive vis-à-vis du réservoir, en particulier si l’on travaille sur un réservoir carbonaté. La zone couverte par le panache d’eau froide et de CO2 dissous tient dans un cercle d’un diamètre de l’ordre de 2 ou 3 km maximum autour du point central d’injection. Et l’étendue de la zone impactée par ces phénomènes de dissolution est de quelques dizaines de mètres maximum », estime le chercheur.

Quelle durée d’exploitation ?

Un puits géothermique a généralement une durée d’exploitation d’une trentaine d’années, car à force de réinjecter de l’eau plus froide, l’aquifère a tendance à se refroidir. Le panache d’eau plus froide s’étale au cours du temps et finit par atteindre le puits de production, ce qui diminue l’intérêt de l’exploitation. Avec l’injection de CO2, on ajoute une complexité : le transfert de masse est en effet beaucoup plus rapide que le transfert thermique.

« Alors que cela prend généralement de 30 à 40 ans pour que l’eau froide commence à atteindre le puits de production, au bout de 2 à 10 ans, suivant les conditions d’exploitation, nos simulations montrent qu’on peut commencer à observer une augmentation significative de la concentration en CO2 au niveau du puits de production (de l’ordre du 1/10ème de la concentration injectée) », prévient Christophe Kervevan. La capacité d’injection du CO2 va donc avoir tendance à diminuer au cours du temps. « La stratégie pour améliorer la durée d’exploitation du puits géothermique et conserver le plus longtemps possible la capacité maximale d‘injection du CO2 est d’augmenter le plus possible la distance entre les deux puits au niveau du réservoir (alors qu’en surface, les têtes de puits sont distantes de quelques mètres). Pour ce faire, il est soit possible de jouer sur les angles de forage des puits pour atteindre jusqu’à 2.000 m d’éloignement à 1.500 m de profondeur. Dans les cas où l’aquifère est moins profond, on peut également envisager d’éloigner de 1 ou 2 km les têtes de puits en surface, ce qui nécessite alors de construire un pipeline entre la sortie de l’échangeur et le puits d’injection. Il est néanmoins probable que l’arrêt de l’injection de CO2 (faute de capacité d’injection suffisante) doive intervenir avant la fin de l’exploitation du doublet géothermique », précise le chercheur du BRGM.

La technologie est-elle compétitive ?

Une évaluation économique détaillée a été menée sur le cas-test de la sucrerie-distillerie d’Artenay (Loiret). L’implantation fictive d’un système « CO2-DISSOLVED » y apparait beaucoup plus intéressante qu’une technologie de captage-stockage de CO2 supercritique habituelle.

Pour cette usine dont les fumées issues du procédé de distillation sont à forte concentration de CO2 et ne nécessitent pas l’installation d’un système de séparation avant injection, le coût du système complet est estimé à une vingtaine de millions d’euros. Sur les 30 ans d’exploitation du doublet géothermique, la rentabilité est évidemment fortement dépendante du prix de la tonne de CO2. « Sur l’exemple d’Artenay, si la tonne de CO2 coûte plus de 30 €, il est ainsi toujours plus rentable d’associer l’exploitation géothermique à l’injection de CO2, plutôt que d’exploiter uniquement la géothermie», assure Christophe Kervevan. Suivant les scénarios d’opération sur 30 ans, le coût de la tonne de CO2 ainsi capturée et injectée varie entre 39 € dans le cas le plus favorable et 72 € avec les options les plus pessimistes, avec une moyenne à 51 €. Ces calculs économIques ne pourront néanmoins être validés que lorsqu’un pilote aura été mis en oeuvre. Dans un projet précédent, le coût de la tonne de CO2 stockée par injection à l’état supercritique avait été estimée à 89 €.

La phase suivante du projet, déjà sélectionnée pour un financement du groupement d’intérêt scientifique Géodénergies, permettra notamment de compléter les travaux scientifiques sur les interactions entre le CO2 dissous, l’eau et la roche et sur les méthodes de monitoring de l’aquifère. L’intégration d’une pompe à chaleur installée en surface en vue d’améliorer le rendement énergétique global du système sera également évaluée. L’acceptabilité sociétale et les aspects juridiques d’un tel projet seront par ailleurs étudiés. Le principal défi est désormais de trouver un site industriel pour l’implantation future d’un pilote de démonstration d’ici 2020. L’appel est lancé !

Par Matthieu Combe, journaliste scientifique

Le Power-to-Gas, la solution pour stocker l’électricité ?

Le Power-to-Gas permet de stocker l’électricité produite par les énergies renouvelables sous forme d’hydrogène par électrolyse de l’eau. Cette technologie permet ainsi de compenser les aléas naturels des sources d’électricité éoliennes et photovoltaïques en stockant sous forme de gaz leur production, lorsque celle-ci dépasse la demande des réseaux auxquelles elles sont connectées. Le Power-to-Gas apparait donc essentiel dans les scénarios ambitieux de développement des énergies renouvelables, notamment à partir de 2030. Il constitue la seule solution pour relier le réseau d’électricité et de gaz.

Plusieurs formes de Power-to-Gas sont possibles !

L’hydrogène produit par Power-to-Gas peut être utilisé pour différentes applications. Il peut soit être injecté directement tel quel dans le réseau de gaz, jusqu’à près de 20%, soit être combiné à du gaz naturel pour former le carburant Hythane© (mélange de 80 % de méthane et 20 % d’hydrogène). Ces deux formes de valorisation sont étudiées dans le cadre du projet GRHYD à Dunkerque, pour alimenter 100 logements grâce au Power-to-Gas et faire rouler plusieurs dizaines de bus à partir de 2017 .

L’hydrogène peut aussi être utilisé pour alimenter des véhicules à pile à combustible hydrogène ou être consommé à des fins industrielles. Il peut aussi être reconverti en électricité via une pile à combustible à un moment de plus forte demande. Cette option a été étudiée dans le cas du projet MYRTE en Corse. L’intérêt était d’illustrer la possibilité d’écrêtement des pics de demande d’électricité par l’utilisation d’hydrogène produit à partir d’énergie solaire, en le reconvertissant ensuite en électricité selon les besoins.

Mais il est également possible de combiner l’hydrogène à du CO2 issu de fumées industrielles pour la production de gaz naturel de synthèse. Ce dernier peut alors être injecté dans le réseau de distribution de gaz de façon simple et sans limite. Cette option sera étudiée dans le cadre du projet Jupiter 1000, le premier démonstrateur de méthanation en France à Fos-sur-Mer. Lancé fin mars pour un coût de 30 millions d’euros, l’unité de 1 mégawatt de Jupiter 1000 devrait être mise en service en 2018.  Ce démonstrateur permettra d’étudier la validité technico-économique du procédé ; l’objectif étant de faire émerger une nouvelle filière de production de gaz renouvelable à l’horizon 2030.

Comment rendre le Power-to-Gas compétitif ?

Le coût de production de la filière hydrogène par Power-to-Gas est actuellement trois fois plus élevé que le prix de gros du gaz naturel, se situant aux alentours de 100 €/MWh, ce qui freine le développement de la technologie. Ce coût est néanmoins comparable à celui du biométhane obtenu par méthanisation (qui évolue dans une fourchette comprise ente 45 €/MWh et 125 €/MWh, selon la taille de l’installation et les produits méthanisés).

Le principal frein au développement du méthane de synthèse demeure son prix. Selon une prospective de l’ADEME et des gestionnaires de réseaux français GrDF et GRTgaz, parue en septembre 2014, « En 2030, la filière hydrogène resterait environ 2 fois plus chère que les prix de gros du gaz naturel fossile selon les évolutions estimées par l’AIE (34 €/MWhPCS), et le méthane entre 2,8 et 4 fois en fonction de la technologie et de la valorisation ou non des co-produits. En 2050, les coûts de production de la filière hydrogène seraient environ 1,7 fois plus élevés que le prix de gros du gaz naturel fossile (avec toutes les incertitudes associées à cet horizon…), mais pourrait être compétitive si l’on intègre une taxe carbone de 90 €/tCO2, hypothèse retenue dans le scénario AIE 450. La filière méthane de synthèse se situerait quant à elle dans une fourchette de coût entre 2 et 3,5 fois plus élevé que le prix du gaz naturel fossile. Dans ces conditions une taxe carbone de 220 €/tCO2 serait nécessaire pour compenser l’écart du coût de production avec valorisation de co-produits, et 330 €/tCO2 sans cette valorisation. »

Ce manque de rentabilité ne décourage pourtant pas les professionnels. En parallèle des démonstrateurs pour tester les procédés et les débouchés, les industriels réfléchissent  à des modèles économiques innovants pour améliorer la compétitivité du Power-to-gas. Ils pourraient mettre en place des certificats verts pour vendre plus cher le gaz renouvelable aux consommateurs (comme c’est le cas en Allemagne). Ils cherchent également à obtenir l’exonération des taxes liée à la consommation énergétique et préconisent l’instauration d’un mécanisme pour facturer au réseau électrique le service rendu en absorbant ses surplus sur le réseau gazier.

A l’horizon 2030, l’Ademe évalue le potentiel d’électricité valorisable en France en ayant recours au Power-to-Gas à environ 2,5 à 3 TWh par an pour produire entre 1,8 et 2 TWh de gaz de synthèse. En 2050, il serait possible de valoriser entre 21 et 72 TWh d’électricité pour produire de 14 à 46 TWh de gaz de synthèse. La filière hydrogène représenterait entre 5 et 10% de la capacité installée, le reste étant réalisée par la filière méthanation pour s’affranchir des limites d’injection dans le réseau de gaz.

Par Matthieu Combe, journaliste scientifique

Corri-door : 200 bornes de recharge électrique rapide

Corri-door, c’est 200 bornes de recharge rapide de 50 kilowatts réparties sur les grands axes autoroutiers français ou à proximité immédiate. Il est désormais possible de relier deux villes éloignées de plus de 150 km en véhicule électrique, sans risquer la panne de courant. Bientôt, une borne de recharge rapide maillera les grands axes tous les 80 kilomètres.

Dans ce cas, exit la recharge lente nécessitant d’immobiliser son véhicule pendant 8 heures. Les bornes du réseau Corri-door, installées par le groupe français Cahors et exploitées par Sodetrel, filiale d’EDF, permettent de recharger la batterie d’un véhicule électrique à hauteur de 80 % en 30 minutes.

160 bornes sont d’ores et déjà installées ; parmi elles, 110 sont en exploitation commerciale. L’ensemble des 200 bornes devraient être installées et en service d’ici juin prochain. L’état d’avancement du déploiement des bornes Corri-Door peut être suivi sur sodetrel-mobilite.com.

Se rassembler pour mieux déployer les bornes

Le réseau de charge du projet Corri-Door a été reconnu de « dimension nationale » par une décision ministérielle du 29 janvier 2016, ce qui l’exonère de la redevance d’occupation de l’espace public. C’est une bonne nouvelle lorsque l’on sait qu’une borne de recharge rapide coûte en moyenne 40 000 euros.  Le projet a nécessité 10 millions d’euros d’investissements. Il fallait donc qu’il soit porté par de grands acteurs. La Commission européenne a financé 4,85 millions d’euros dans le cadre du projet du programme Réseau transeuropéen de transport « RTE-T », le reste a été apporté par un consortium privé. L’opération est coordonnée par EDF, sa filiale Sodetrel est propriétaire du réseau de bornes de charge et assure son exploitation. Quatre constructeurs automobiles – Renault, BMW, Nissan, et Volkswagen -, ainsi que ParisTech, participent au projet.

Plusieurs partenariats commerciaux ont été élaborés pour accueillir les bornes. A noter la présence de sociétés d’autoroute (Sanef, APRR, Vinci Autoroutes et Atlandes), d’opérateurs de distribution de carburant et d’enseignes de la grande distribution.

Il faut dire que grâce à ce nouveau maillage, les industriels espèrent faire changer d’échelle le marché de la voiture électrique. En 2015, selon l’Avere, plus de 20 000 véhicules électriques ont été immatriculés et la France compte désormais un parc roulant de plus de 65 000 véhicules électriques. Ils représentent près de 1% des immatriculations de véhicules neufs. Loin encore de l’objectif  de deux millions de voitures électriques en circulation en Europe à l’horizon 2020.

Comment minimiser l’impact sur le réseau ?

Les bornes ne sont dotées que d’une seule place de stationnement. Tri-standards (AC, Combo et CHAdeMO), elles sont compatibles avec l’ensemble des véhicules électriques et hybrides rechargeables du marché qui acceptent ce mode de charge. La borne possède également une prise domestique pour la recharge lente. « Cette prise est principalement là pour pouvoir recharger un véhicule en cas de problème technique sur la charge rapide. Si un utilisateur l’utilise alors qu’il n’y a aucun problème, la charge lui sera facturée comme une recharge rapide, car notre intention est d’encourager les utilisateurs à libérer les places après recharge », annonce Sodetrel.

Pour minimiser l’impact sur le réseau, certaines bornes seront équipées d’un prototype de pack de « batteries tampons » lithium-ion. « L’intérêt est de se cantonner à un contrat de 36 kVA, sans avoir à passer à 50 kVA, car dans certaines zones rurales, le passage à un contrat de 50 kVA nécessiterait de nouvelles infrastructures qui augmenteraient encore le coût de l »installation », explique Sodetrel. « Si à l’avenir nous souhaitions installer une deuxième borne de charge rapide sur certaines stations, nous pourrions généraliser le système de batteries tampons pour limiter l’impact sur le réseau et les coûts d’installation », précise la filiale d’EDF. Notons que les bornes sont alimentées à 100 % en électricité d’origine renouvelable, grâce à des certificats de garantie d’origine fournis par EDF.

Quel est le prix de ce service ?

Sans abonnement, il est possible d’utiliser les bornes du réseau soit en achetant un pass préchargé (20 euros pour 2 charges de 30 minutes) dans les boutiques de stations-service où les bornes sont implantées, soit par SMS via le numéro de téléphone indiqué sur la borne (9 euros pour une charge). Il est également possible de s’abonner pour 1 an au Pass Sodetrel pour un tarif mensuel compris entre 2 et 10 euros, en fonction de vos besoins. A  2 ou 5 euros, la recharge de 15 minutes vous coûtera 3,5 euros. La différence : la formule à 5 € comprend un temps de charge de 5h dans le réseau Sodetrel hors-Corri-door. Les gros utilisateurs préfèreront la recharge à 10 € qui permet de ne payer que 1,5 € les 15 minutes. Avec cette tarification, Sodetrel prévoit une rentabilité à partir de 7 charges par borne et par jour.

Il existe une option différente : les constructeurs membres du consortium devraient proposer à leurs clients d’accéder aux bornes via leurs propres bages et leur propre tarification. Le pass Charge Now de BMW, étant géré par Sodetrel, est déjà comptabible.  Pour les autres (ZE Pass de Renault, ZECP de Nissan et e-pass de Volkswagen), les négociations commerciales sont en cours pour définir les tarifications et devraient aboutir d’ici l’été. Enfin, Sodetrel développe une application qui permettra d’identifier les bornes libres en temps réel et de réserver une charge. Elle permettra aussi de payer directement une charge.

Un retour d’expérience sera adressé cet été à l’Union européenne par EDF. Il orientera  les modalités de déploiement ultérieur d’un réseau d’infrastructures de charge interconnectées et interopérables tant au niveau national que transfrontalier.

Par Matthieu Combe, journaliste scientifique

L’Agence solaire internationale se lance d’ambitieux objectifs

Entente G-Royal

asi-610 (1)C’est Ségolène Royal, ministre de l’Energie et du Développement durable, accompagnée de son homologue indien, Piyush Goyal, qui a lancé les deux premières initiatives de l’agence dédiées d’une part aux financements des projets, et d’autres part aux applications agricoles du solaire, souvent sous-estimées.

Il s’agit de la première traduction concrète des engagements internationaux en faveur d’une baisse des émissions de gaz à effets de serre depuis la tenue de la COP21 à Paris, en novembre dernier.

L’objectif de cette alliance est de créer une plateforme regroupant les Etats « riches en soleil » qui pourront coopérer pour réduire les coûts d’installation, développer des financements innovants ou accélérer la recherche et le développement.

Cette nouvelle organisation travaillera en lien avec les organisations internationales telles que l’Agence Internationale de l’énergie renouvelable (AIER), l’Agence Internationale de l’énergie (AIE), des entreprises et des investisseurs. La France s’est engagée à titre personnel à verser 300 millions d’euros à l’ASI.

Romain Chicheportiche

L’Iran devient fournisseur nucléaire… des Etats-Unis

C’est Abbas Araqchi, le chef iranien de négociation sur le dossier nucléaire, qui l’a confirmé suite au feu vert de l’Agence internationale de l’énergie atomique (AIEA). Ce contrat de fourniture de 32 tonnes d’eau lourde, évalué à 8,6 millions de dollars (7,6 M€), est le premier en date depuis l’accord trouvé entre la République islamique et le G5+1 (Etats-Unis, Russie, Chine, France, Grande-Bretagne et Allemagne), et a provoqué l’ire de la frange républicaine du Congrès américain, par la voix de son leader, Kevin McCarthy, qui parle de « dangereux précédant ».

Double-usage

L’eau lourde sera stockée dans le laboratoire national de Oak Ridge dans le Tennessee pour être revendue sur le marché. Pour rappel, les atomes d’hydrogène de l’eau lourde sont des isotopes lourds, du deutérium. Sa production est destinée généralement à des application médicales ou de recherche, mais elle entre également dans la fabrication des bombes au plutonium. On parle de technologie à double-usage.  C’est pourquoi sa fabrication sur le sol iranien alimentait les craintes du G5+1 et des pays limitrophes, à commencer par l’Arabie Saoudite.

Si l’achat direct par les américains ne fait pas partie intégrante de l’accord signé avec Téhéran, comme le rappelle John Kerry, le Secrétaire d’Etat américain ; la revente des surplus iraniens, en fait elle bien partie. Et ce afin de contrôler l’usage de toute l’eau lourde produite sur le territoire. Une règle qui vaut également pour l’uranium enrichi…

Romain Chicheportiche

Nouveau défi : moderniser les STEP !

Les stations de pompage-turbinage (STEP) ont été développées en Europe dans les années 1970, en parallèle du développement de l’énergie nucléaire. Jusqu’au début des années 2000, elles pompaient l’eau pour stocker le surplus d’électricité d’origine nucléaire dans des bassins d’accumulation, la nuit (phase de pompage). Elles la rendaient disponible pendant les périodes de forte demande la journée (phase de turbinage). « Depuis une dizaine d’années, les STEP sont utilisées de manière beaucoup plus dynamique : là où on les démarrait pendant la nuit pour pomper et la journée pour turbiner, dans beaucoup de pays, essentiellement où il y a beaucoup d’éolien, comme en Allemagne ou au Portugal, les STEP démarrent en pompage quand il y a une pointe de production éolienne et démarrent en turbinage quand il y a un creux de production éolienne », explique Olivier Teller, Directeur produit chez General Electric Hydro. « Ces systèmes qui ont été conçus pour 3 démarrages par jour, sont désormais démarrés 10 à 15 fois par jour », précise-t-il.

Mais les machines n’ont pas été conçues pour cet usage et le pompage ne peut pas être régulé en puissance : celui-ci doit se faire à pleine puissance lorsqu’il est activé. C’est un problème dans les pays qui commencent à avoir un fort taux de pénétration d’énergies renouvelables intermittentes. « Si une STEP peut généralement turbiner entre 50 et 100 % de sa puissance, une machine conventionnelle ne peut pas réguler sa puissance en mode pompage », nous éclaire Olivier Teller. Tout l’enjeu est de moderniser les STEP pour permettre de les opérer à vitesse variable et ainsi mieux intégrer les énergies renouvelables intermittentes sur le réseau. « Une STEP à vitesse variable peut descendre jusqu’à 30 % de sa puissance en turbinage. En pompage, elle peut varier sa puissance entre 70 et 100 % », précise l’expert.

Le Projet européen eStorage s’intéresse à la conversion des machines existantes en machines variables. Son objectif est d’évaluer les solutions technologiques pour mettre à niveau 75 % des STEP européennes. « Pour rendre des machines plus flexibles, il existe 3 options : améliorer la conception de la turbine pour qu’il y ait moins de vibrations, rendre plus robuste la turbine pour qu’elle résiste mieux aux vibrations, ou mieux piloter la turbine pour enregistrer l’usure de la machine et informer l’opérateur des maintenances à réaliser », détaille Olivier Teller. « Pour passer en vitesse variable, il faut changer l’alternateur de la station. L’investissement nécessaire représente environ 10 % du coût d’investissement dans une nouvelle centrale ». La première STEP à vistesse variable a été introduite en Europe en 2004. Deux stations sont actuellement en construction en Suisse et une au Portugal.

Malgré tout, les opérateurs qui ont besoin de faire de la régulation, mais n’ont pas le temps d’entreprendre les travaux, font tourner les pompes et les turbines en même temps. Dans ce cas, certains producteurs utilisent simultanément certaines de leur turbines et d’autres pompes : le pompage se fait à pleine puissance et la puissance de turbinage est régulée en fonction des besoins. C’est notamment le cas en Allemagne et en Autriche, « Ce n’est pas le cas en France, car les énergies intermittentes sont encore très minoritaires. Mais si on continue leur développement, le besoin va se faire sentir de plus en plus », prévient Olivier Teller.

Comment s’assurer que le revenu ne baisse pas ?

Si les turbines des STEP tournent moins, le revenu devrait baisser. Mais ce serait oublier que les STEP bénéficient de plusieurs sources de revenus : certes, elles vendent l’électricité sur le marché de l’électricité, mais elles jouissent aussi d’un marché de la puissance. Le marché d’ajustement de la puissance est piloté par les opérateurs qui cherchent à vendre de la régulation de puissance primaire, secondaire ou tertiaire. Car à tout moment, la production électrique doit être égale à la consommation sur le réseau.

En France, RTE assure en temps réel cet équilibre et tient compte des aléas de consommation ou de production. Pour maintenir l’équilibre entre l’offre et la demande, RTE doit disposer en temps réel d’une réserve d’ajustement de puissance, à la hausse comme à la baisse. Il existe trois types de réserves qui peuvent être sollicitées successivement : les réserves primaires et secondaires qui permettent d’augmenter ou de diminuer automatiquement la production des centrales et les réserves tertiaires sollicitées par RTE pour modifier très rapidement leur programme de fonctionnement prévu. Les plus gros acteurs sur ce marché sont les barrages et les turbines à gaz : une STEP peut déjà passer de 50 % à 100 % de sa capacité en moins de 15 secondes, alors qu’une centrale gaz demande plusieurs minutes. « En Allemagne, par exemple, les STEP sont déjà passées d’une rentabilité basée sur le prix de l’électricité à un modèle de vente de services de réglage de puissance pour combler les variations de la demande dues à la production intermittente », assure Olivier Teller.

Par Matthieu Combe, journaliste scientifique

Les ingénieurs britanniques ne veulent pas du Brexit

L’IET, The Institution of Engineering and Technology, qui compte plus de 167 000 membres pointent dans un document publié la semaine dernière les risques majeurs qu’elle a identifiés pour le secteur de l’ingénierie et la recherche britannique en cas de sortie de l’UE. Une position qui est d’ailleurs largement soutenue par ses partenaires et principaux employeurs d’ingénieurs et techniciens : Airbus, Rolls-Royce, Mott MacDonald, Siemens ou Caterpillar.

Moins d’accès aux fonds et aux marchés

L’association professionnelle analyse ainsi que le Brexit pourrait :

  • Accentuer la pénurie de compétences en ingénieurs et techniciens si le gouvernement ne prend pas des mesures d’accélération des visas une fois sorti de l’UE (dans la décennie à venir le besoin est estimé à 1,82 millions de nouveaux ingénieurs).
  • Affaiblir la recherche par des complications pour trouver des fonds ou pour monter des collaborations internationales. Sachant que le Royaume-Uni reçoit plus de fonds pour la recherche qu’il ne contribue financièrement au niveau de l’Union Européenne. En outre, la porte pour influencer les programmes de recherches européens lui serait alors fermée.
  • Un déclin sur l’influence possible des britanniques sur les standards globaux en ingénieries et donc un retard sur leur mise en place, pourtant un point crucial pour accéder aux marchés mondiaux.
  • Une perte automatique de l’accès à certains marchés européens, le temps de mettre en place de nouveaux traités commerciaux sans que l’on sache aujourd’hui ni s’ils seront mis en place rapidement ni s’ils seront vraiment avantageux.

Tous les secteurs industriels seraient fortement affectés

L’IET n’est pas la seule à tirer la sonnette d’alarme et à faire ce genre d’analyse. Que ce soit le cabinet d’audit PwC qui publie un rapport soulignant que le Brexit diminuerait l’activité industrielle de 9,5% et mettrait en danger plus de 100 000 emplois d’ici 2020 ou que ce soit le rapport édité par le ministère des finances, le diagnostic semble le même. Le Trésor résume ainsi pour quelques secteurs l’importance d’un accès direct au marché européen : l’industrie pharmaceutique, plus de la moitié de sa production est exportée dans l’UE pour une valeur de 29M£ par jour ; l’automobile pour laquelle l’accès réduit à toute la logistique de distribution européenne risque de rendre les voitures anglaises plus chères et donc de diminuer les 15 millions de livres gagnées à l’export. L’aéronautique et l’espace pour laquelle la libre circulation des produits, des personnes et des idées est une clé essentielle de son développement.

Chimie : patron et salariés d’accord pour rester

L’association nationale des industries chimiques britanniques (CIA) s’est largement prononcée en faveur d’un maintien dans l’Union. Une enquête menée auprès de ses membres donne un « non au Brexit » pour 62% des votants et 38% encore indécis. Un secteur particulièrement mondialisé et pour lequel l’Allemagne représente le principal marché à l’export pour bon nombre de TPE/PME ou de filiales. Un secteur aussi qui dépend de l’apport financier étranger, notamment de grands groupes européens. Une position que le syndicat de travailleurs UNITE a aussitôt applaudi, appelant lui aussi ses membres à voter pour rester au sein de l’UE.

Sophie Hoguin

Protection des données personnelles : adoption du règlement européen

Quatre ans de négociations : entamées en 2012, les discussions sur la sécurisation et la confidentialité des informations à caractère personnel ont permis d’établir un « cadre juridique pour l’ère digitale tout en assurant la protection des droits fondamentaux des citoyens et des consommateurs », a commenté Jan Philipp Albrecht, le rapporteur du Parlement européen lors du vote.

Selon lui, l’Europe fixe ainsi “la référence mondiale” en matière de protection de données, “une clef pour le succès de l’Europe dans le futur”.

Exit donc le Safe Harbour ( programme conçu par le gouvernement des États-Unis et conclu avec la Commission européenne en juillet 2000), place au Privacy Shield. Pour garantir la conformité aux exigences européennes des traitements des données effectués par les entreprises américaines, l’accord définit des principes (les « Privacy Shield Principles ») auxquels elles doivent adhérer et qu’elles doivent respecter.

Ce règlement sera applicable au printemps 2018 dans tous les pays membres de l’Union européenne. Dans le détail, il apporte de nouvelles clauses. Pour le citoyen, il renforce des droits existants, notamment en lui permettant de disposer d’informations complémentaires sur la gestion de ses données. Comme nous l’avions indiqué dans un précédent article le droit à l’oubli est conforté et les mineurs font l’objet d’une protection particulière.

Ce nouveau règlement s’adresse aussi aux professionnels avec en particulier une simplification des formalités et la possibilité d’un interlocuteur unique pour toutes les autorités de protection des données européennes. Quant aux CNIL (regroupées au sein du G29),  elles pourront prononcer des sanctions administratives pouvant aller jusqu’à 4 % du chiffre d’affaires mondial de l’entreprise concernée.

Cette adoption signifiera-t-elle un réel renforcement de la protection des informations individuelles ? Le G29 des CNIL européennes souligne que des améliorations pertinentes ont été apportées à la protection des données à caractère personnel. « Cependant, le groupe de travail relève également un certain nombre de lacunes de l’accord : manque général de clarté, imprécisions quant au régime de surveillance massive des données et incertitudes quant à l’efficacité et l’indépendance du médiateur, discordances entre certains principes américains et leurs équivalents européens, complexité des voies de recours ouvertes aux citoyens européens… », constate maître Olivier Iteanu, un avocat spécialisé dans le droit et l’informatique.

Les opposants au Privacy Shield font valoir que derrière le changement de nom, le changement n’est que de façade. Les révélations d’Edward Snowden sur le programme américain appelé Prism ont permis d’apprendre que toutes les grandes entreprises américaines, participant à ce programme, donnent à la NSA un accès aux données qu’elles traitent. Privacy Shield va-t-il mettre en veille le programme Prism ?

Philippe Richard

L’atmosphère de Vénus réserve bien des surprises

En décembre 2010, la sonde Akatsuki n’avait pas pu se mettre en orbite vénusienne suite à la panne de son moteur principal. Les Japonais ne se sont pas découragés et ont réussi, 5 ans après, à lui trouver une nouvelle orbite : plus allongée et plus lointaine que prévue, mais permettant néanmoins d’observer l’atmosphère de la planète sous un nouveau jour.

Etranges nuages, relief et volcanisme

Parmi les images étonnantes présentées par les japonais, on peut citer celle des couches nuageuses d’acide sulfurique prise en infrarouge qui révèle des processus de formation très complexes et agités.

venus IR nuage acide sulfurique

Un autre cliché a aussi beaucoup interpellé les scientifiques : celui pris dans l’infrarouge thermique qui dévoile une formation en arc de cercle entre les deux pôles. Une formation qui semble fixe comparée au reste de l’atmosphère et qui pourrait être dû à un relief sous-jacent.

venus IR thermique

Crédit : ISAS/JAXA

Pôles : plus froids, moins denses et parcourus d’ondes

Juste avant de s’abîmer dans l’atmosphère de Vénus, la sonde européenne Vénus Express a recueilli des informations à 130-140 km d’altitude. Surprise : il y fait -157°C ! Or, on s’attendait plutôt à trouver des températures de l’ordre de -80°C. En outre, la densité est inférieure aux prévisions de plus de 20% à 130km et de 40% à 140 km.

Venus Express a aussi permis d’observer deux types d’ondes qui ont des influences majeures sur la structuration d’une atmosphère : des ondes de gravité (comme celles existant sur Mars, la Terre ou Pluton) et des ondes liées à la rotation de la planète. Toutes ces observations démontrent une chose : le modèle théorique actuel est très incomplet et bien loin de refléter les phénomènes complexes qui agitent notre voisine.

Sophie Hoguin

L’Etat à la rescousse d’EDF

Cette augmentation de capital doit permettre à l’électricien de faire face au mur d’investissements qui l’attend : le rachat de la branche réacteur d’Areva, le grand carénage du parc nucléaire français (entre 55 et 100 milliards d’euros), le déploiement des compteurs communicants Linky (5 à 7 mds €), sans oublier le très controversé projet EPR de Hinkley Point en Grande-Bretagne.

Hinkley retardé, pas enterré

C’est le dossier qui empoisonne la gestion de Jean-Bernard Lévy, le pdg d’EDF. Ce projet de construction de deux réacteurs EPR en Grande-Bretagne, évalué à 23 mds €, est ardemment défendu par Jean-Bernard Lévy et le ministre de l’Economie, Emmanuel Macron, nettement moins au sein de l’entreprise.

En mars dernier, Thomas Piquemal, ancien directeur exécutif en charge de la Direction financière, a claqué la porte de l’entreprise pour montrer son désaccord et le risque que ce projet pourrait faire peser sur les finances du groupe. Le pdg d’EDF a annoncé ce matin au micro d’une radio nationale le report de la décision finale d’investissement pour interroger le comité central d’entreprise (CCE) sur cette question. Et Jean-Bernard Lévy d’ajouter que le CCE va « se réunir dans les jours, dans les semaines qui viennent pour rendre sa décision sur ce projet mûr et très rentable dont les coûts sont parfaitement maîtrisés ». Un argumentaire qui laisse pour le moins dubitatif une partie des ingénieurs d’EDF qui craignent que l’EPR anglais ne soit une nouvelle tête de série en raison des importantes modifications exigées par l’autorité de sûreté nucléaire outre-Manche.

A l’instar des autres électriciens européens, EDF pâtit d’un environnement économique dégradé par la baisse des prix de gros de l’électricité. La Bourse de Paris a mal réagi à l’annonce de l’augmentation de capital, l’action d’EDF perdant plus de 7 points ce lundi à l’ouverture de la session.

Par Romain Chicheportiche 

Le virage stratégique de Total

« Croire que Total cessera d’exister le jour où l’on ne consommera plus de pétrole est un doux rêve », confiait, il y a quelques années, un membre de la direction de la Major française. La nouvelle organisation annoncée le 19 avril en est la brute illustration. Dénommée « One Total », cette vision à 20 ans ambitionne de relever les défis de court terme nés de la baisse du prix du baril depuis juin 2014, et  préparer le moyen et le long termes en renforçant sa position de leader mondial de l’énergie de manière générale.

Nouvelle division renouvelable & gaz

Cette division, dont le directeur sera membre du Comex, est destinée à porter l’ambition du groupe sur la chaîne de l’électricité à travers le développement des énergies renouvelables. Total dispose déjà d’un argument de poids dans le solaire, à travers sa filiale américaine SunPower (2,8 milliards € de chiffre d’affaires en 2015) pour le photovoltaïque, et est également présent dans le solaire à concentration (Shams). « Le Groupe a vocation à produire et à vendre de l’électricité d’origine renouvelable. Car l’électricité sera l’énergie du XXIe siècle et le développement du gaz et des renouvelables nous pousse à appréhender globalement la chaîne de l’électricité. Nos ambitions à 20 ans sont multiples en ce domaine : être dans le top 3 de l’énergie solaire, se développer dans le trading d’électricité, dans le stockage d’énergie, être leader sur les biocarburants, notamment les biojets destinés à l’aviation, mais aussi envisager des développements possibles dans les autres énergies renouvelables », a indiqué Patrick Pouyanné, pdg de Total. Depuis le décès accidentel de Christophe de Margerie en 2014, c’est lui qui a repris le flambeau de la mutation en douceur de l’entreprise.

Efficacité énergétique

L’efficacité énergétique tient un rôle important dans cette nouvelle stratégie, ce qui peut paraître surprenant pour une compagnie pétrolière. Or, ces services, plébiscités par les clients industriels dont la facture énergétique représente parfois 40% de leurs coûts, ont une valeur ajoutée plus importantes que les commodities, et sont nettement moins sensibles aux variations des cours des matières premières. Total a ainsi constitué un fonds d’investissement corporate, doté de 150 millions €, qui investit entre autres dans l’efficacité et l’accès à l’énergie.

Optimisation du groupe

Cette vision de long terme s’accompagne de décisions d’optimisation interne qui devraient avoir un impact très rapidement. Cette initiative prend d’ailleurs la forme d’une branche, elle aussi nouvellement créée, Total Global Services. Elle est destinée à améliorer durablement l’efficacité du Groupe au profit de chacun de ses métiers en tirant parti de la mise en commun de plusieurs fonctions support qui seront globalisées (Comptabilité, Achats, Informatique, Formation, Administration des Ressources Humaines, Services Immobiliers et Généraux). « Mutualiser certaines fonctions support doit nous permettre de gagner durablement en efficacité, de créer de la valeur et de maîtriser nos coûts. Les entités composant Total Global Services fonctionneront comme des sociétés de services pour les clients des Branches et de la Holding », précise Patrick Pouyanné. Les Majors pétrolières, actives généralement sur des gisements coûteux ou complexes, sont les premières à pâtir de la chute durable des cours du brut, et ont ainsi dû mettre en place des plans drastiques d’économies.

L’objectif est de rendre effective la nouvelle organisation au 1er septembre 2016 pour la branche Gas Renewables & Power et la nouvelle organisation de la Holding et au 1er janvier 2017 pour l’ensemble de la Branche Total Global Services.

Par Romain Chicheportiche

YouTube lance des vidéos en live à 360 degrés, avec un son “spatialisé”

YouTube essaie de rattraper ses concurrents, Periscope et Facebook Live, qui proposent de diffuser des vidéos en live (streaming).

Depuis mars 2015, YouTube propose déjà de mettre en ligne des vidéos à 360 degrés, mais désormais, leur diffusion pourra être en direct. Ce week-end, l’entreprise inaugurera cette fonction (Live 360) en diffusant sur sa plateforme des concerts programmés dans le cadre du festival de Coachella, en Californie.

Jazz

YouTube se démarque de ses concurrents en proposant un son “spatialisé” – une sorte de “3D sonore”, qui “s’adapte” à l’angle de vision choisi par l’utilisateur. Il sera ainsi possible à l’utilisateur d’interagir avec l’environnement visible sur la vidéo, et de découvrir tous ses angles, avec un son s’adaptant à ces angles.  “Grâce à leur smartphone, les gens pourront se croire au premier rang d’un événement sans y être physiquement », indique Neal Mohan, responsable produit chez YouTube au site The Verge.

Pour YouTube, “Live 360 est une passerelle vers la réalité virtuelle”. A quand la visualisation d’un concert en “VR”, via un casque Oculus Rift, ou une Google Cardboard ?

Par Fabien Soyez

Facebook prépare de nouveau fils d’actu thématiques

Facebook s’inquiète d’une baisse progressive de la publication de statuts “personnels”, les internautes préférant désormais, apparemment, partager des informations circulant dans leur “newsfeed”, plutôt que de risquer de partager des publications trop “personnalisées” avec le tout venant. Pour redonner envie aux utilisateurs de partager davantage, le réseau social prépare-t-il sa mue ?

C’est en tout cas que pourrait laisser penser les captures d’écran postées par un consultant en marketing, Tom Critchlow, sur Twitter, montrant un fil d’actualité revu et corrigé, qui serait désormais divisé entre la “news feed” traditionnelle et des rubriques thématiques. Selon The Information, la refonte du fil d’actu de Facebook est un tel enjeu que la société à mis en place une équipe dédiée, basée à Londres.

facebook-newsfeed
Captures de Tom Critchlow, partagées sur Twitter

Moins encombrée par les photos, les statuts, les vidéos et les news, la nouvelle interface (pour smartphones) serait ainsi mieux structurée, et donc plus agréable à parcourir. Contacté par Mashable, un porte-parole de Facebook a confirmé cette information, même si aucun “lancement officiel” n’a encore été annoncé. “Les gens nous ont dit qu’ils voulaient plus d’options pour voir plus d’histoires sur Facebook, autour de sujets spécifiques, qui les intéressent”, a indiqué le porte-parole.

Si l’on en croit les captures d’écran postées par Tom Critchlow, à côté de la “News Feed” (affinée et plus agréable, car déchargée des “news”), les sections “World et US News”, “Sports”, “Food”, “Music”, “Animals”, “TV & Movies”, “Travels” seraient “personnalisables” et permettraient ainsi d’accéder à des informations ciblées. Une façon de concurrencer sévèrement d’autres médias utilisés pour s’informer, comme Twitter et Google News – transformant du coup Facebook en un super-agrégateur de contenus.

En effectuant cette transformation de son fil d’actu, Mark Zuckerberg espère peut-être faire coup double, en rassurant les utilisateurs intéressés uniquement par les statuts “personnels”, tout en permettant à ceux utilisant Facebook comme un outil de news, d’en profiter pleinement grâce à un fil d’actu supplémentaire, thématique.

Par Fabien Soyez

Apple retire 6 nouvelles substances dangereuses de la fabrication de ses produits

Apple communique depuis longtemps sur ses efforts pour limiter l’utilisation de produits toxiques dans la production d’iPhone ou d’iPad. Après avoir supprimé de nombreuses substances, comme l’Arsenic, le Mercure, le PVC, le benzène et l’hexane, la firme à la Pomme vient de bannir 6 autres toxines dangereuses – représentant “un risque intolérable” pour les consommateurs, les ouvriers ou l’environnement.

Après avoir étudié plus de 10 000 composants, Apple a publié un rapport de responsabilité environnementale. L’entreprise y explique avoir supprimé de la fabrication de “milliers de pièces”, les agents ignifuges bromés, des matières synthétiques dangereuses pour l’environnement, et les avoir remplacé par des hydroxides métalliques et des composés en phosphore. Elle a aussi cessé d’utiliser de l’arsenic, cancérigène, pour fabriquer ses écrans.

Apple a également placé dans sa “liste noire” des matières premières dangereuses, le bérylllium, responsable de troubles pulmonaires chez nombre d’ouvriers chinois, ainsi que le mercure, qui selon la société ne “fait déjà plus partie” de ses produits depuis 2009.

Enfin, l’entreprise a retiré de ses appareils le plomb, ainsi que le PVC et les phtalates – que l’on retrouve communément dans les cordons d’alimentation et les câbles d’écouteurs, et qu’Apple à remplacé par des élastomères thermoplastiques, sans chlorine ni brome.

Par Fabien Soyez