Lever les freins liés à la télémédecine !

Depuis juillet 2016, la Fédération hospitalière de France (FHF) mène la campagne « Déverrouillons la télémédecine » pour mettre en lumière les projets pilotes de médecine exercée à distance. Son objectif : que le projet de loi de financement de la Sécurité sociale (PLFSS) pour 2017 prévoit la rémunération des actes de télémédecine « à l’activité », comme pour les actes classiques. Mais avec la présentation du budget 20107, le changement d’échelle n’est toujours pas à l’ordre du jour.

Simplement, l’article 47 du PLFSS 2017 prévoit que la phase d’expérimentation impulsée par l’article 36 du PLFSS 2014 soit prolongée d’un an, jusqu’en 2018. Ce programme se déroule actuellement dans 9 régions françaises et analyse l’impact et l’intérêt de la télémédecine sur le système de soins. Le PLFSS 2017 prévoit l’extension du dispositif à l’ensemble des régions françaises. Si cet article va dans le bon sens, il ne fait que pousser plus loin les expérimentations au lieu de généraliser à grande échelle le recours à la télémédecine.

Les expérimentations portent sur une liste prédéterminée très segmentée et partielle de spécialités. Celles-ci sont listées dans le PLFSS 2014. Il s’agit particulièrement du suivi à distance, grâce à des caméras, de cicatrisations ou de maladies chroniques (insuffisance cardiaque ou rénale), et de téléexpertise dans les établissements médicaux-sociaux.

Des freins avant tout financiers

La FHF a recensé plus de 100 projets pilotes et analysé les freins au développement de la télémédecine. Et ces freins sont principalement financiers. « Les aides sont majoritairement forfaitaires, sous forme de subventions, sur certains territoires et sur certaines spécialités, sur décision des Agences régionales de santé, assure  David Gruson, délégué général de la FHF. Cela empêche  les établissements d’avoir des stratégies de substitution de la télémédecine à de l’hospitalisation complète ». « On propose de généraliser le recours à la télémédecine pour la médecine générale, de rembourser les actes à l’activité et de suivre les gains d’efficience », complète-t-il. 

Car selon les retours d’expériences, la télémédecine engendre de réels gains économiques et organisationnels grâce à une meilleure coordination entre les centres médicaux locaux et les grands centres hospitaliers. Par exemple, la télésurveillance permettrait de ramener la durée de séjour à l’hôpital des malades atteints d’insuffisance cardiaque d’une moyenne annuelle de 13 à 6 jours. Soit une réduction des dépenses de l’ordre de 1 milliard d’euros à l’échelle nationale. La FHF estime par ailleurs que la généralisation de la télémédecine pourrait engendrer la création de 12.500  emplois directs en France à horizon 2020.

Par Matthieu Combe, journaliste scientifique

Grand jeu concours annuel

Mettez toutes les chances de votre côté et tentez de gagner l’un des cadeaux suivants*.

Bonne chance à toutes et à tous !

1 – Premier lot :
Un drone avec caméra
D’une valeur de 135 euros

2 – Deuxième lot :
Un casque de réalité virtuelle
D’une valeur de 100 euros

3 – Troisième lot :
Un projecteur pour smartphone
D’une valeur de 30 euros

4 – Quatrième lot :
Un chargeur nomade solaire
D’une valeur de 25 euros

*photos non contractuelles

Revue du web #98 : les 7 robots les plus étonnants du mois

Une jambe robotique qui bondit sur les murs

Les roboticiens de l’Université de Berkeley, en Californie, ont mis au point une jambe robotique capable de bondir à cinq fois sa hauteur.

SALTO  (Saltatorial Locomotion Terrain Obstacle) peut ensuite effectuer un second saut tout aussi remarquable en prenant appui sur un mur.

Catastrophe naturelle, ville détruite par la guerre, les situations dans lesquelles SALTO pourrait s’illustrer ne manquent malheureusement pas.

TIM, le robot qui patrouille le long du LHC

Vous connaissez bien sûr le CERN mais connaissez-vous Tim, le robot qui veille sur le LHC ?

Doté de nombreux capteurs, ce petit train robotisé patrouille le long du tunnel de 27 km, sur un rail fixé au plafond, afin de vérifier notamment l’intégrité structurelle, la température et le taux d’oxygène.

Hubo, le robot qui a battu l’Atlas de Boston Dynamics

Il serait le meilleur robot d’assistance du monde, selon le  Darpa Robotics Challenge, le concours mondial de robotique organisé par la recherche de l’armée américaine. Hubo a battu son très célèbre concurrent Atlas de Boston Dynamics !

Issu d’une longue lignée d’humanoides, Hubo est né au laboratoire de robotique de l’Institut Kaist (Korean Advanced Institute of Science and Technology) à Daejeon, en Corée du Sud.

Doté de pinces, il peut saisir de nombreux objets et effectue d’importantes rotations grâce à la flexibilité de son torse. Il se lève, s’assoit, se relève et triomphe des obstacles avec une étonnante facilité. Espérons que la victoire n’ait pas eu d’effet délétère sur ses chevilles.

Un robot-fourmi qui se déplace sur votre chemise

Le MIT travaille actuellement à la conception de robots miniatures capables de se déplacer sur les vêtements. Equipés de rouleaux qui pincent le tissu, ces fourmis robotisées pourraient encore être miniaturisées.

Les applications ? Enregistrement des battements cardiaques, de la respiration, des pas, écrans nomades pour regarder un film sur sa propre manche, badges ou bijoux éphémères, tiraillements dans une direction afin d’indiquer des données GPS… Les chercheurs ne manquent pas d’imagination.

Roborace : la course de voitures autonomes

La Fédération internationale de l’automobile a imaginé une course de voitures autonomes. C’est l’heure des premiers tours de roues pour la voiture de course Devbot !

Le concept : 10 voitures dotées des mêmes caractéristiques techniques qui s’affrontent. Ce qui les départagera : le travail de programmation de l’intelligence artificielle.

Un robot serpent pour le démantèlement nucléaire

Testé dans une centrale nucléaire désaffectée du nord de l’Angleterre, Lasersnake est un bras robotisé contrôlé à distance capable d’intervenir dans des environnements difficiles.

A l’avenir, il pourrait permettre de réduire considérablement le temps et le coût des opérations de démantèlement.

Et la palme du robot insolite revient au…

Robot poubelle de la SNCF

Oui la SNCF a plus d’un tour dans son sac (poubelle). Afin d’améliorer la propreté des gares,  B.A.R.Y.L, un petit robot très serviable, a été mis à votre disposition lors d’un test grandeur nature du 5 au 10 décembre dernier dans la Gare de Lyon.

Développé avec la start-up française Immersive Robotics, B.A.R.Y.L a nécessité 5 mois de travail. Il succède à d’autres robots employés par la SNCF, comme Pepper, un robot humanoide qui a renseigné des voyageurs en 2015, ou en 2016, le robot qui vous aidait à porter votre valise à la Gare de l’Est.

Par I. T

Le solaire photovoltaïque plus performant que le pétrole (selon une méta-étude de l’Imperial College London)

« Nous ne sommes pas ici que pour découvrir l’énergie, mais pour connaître l’énergie dans un objectif précis: réaliser de meilleures politiques et prendre de meilleures décisions d’investissement (…) Nous devons apprendre rapidement de nos erreurs, nous n’avons pas le temps d’attendre 5 ou 10 ans » expliquait Rembrandt Koppelaar en mai 2015 (Vidéo) à l’occasion de la Global Energy Systems Conference.

L’expert pointe durant cette conférence l’erreur majeure qui a été commise dans le passé avec les agrocarburants (initialement appelés de manière trompeuse « biocarburants« ), et le temps perdu ensuite pour corriger la trajectoire. Al Gore a regretté, après coup, avoir fait la promotion de l’éthanol de maïs.

Parfois des Femmes ou Hommes politiques, tel(le)s des alouettes attirées par un miroir philosophal, s’emballent pour une nouvelle technologie qui, bien qu’a priori sexy et PR-compatible, constitue en réalité une  aberration énergétique et/ou environnementale, les deux étant liés. Dès qu’émerge la prise de conscience à propos de l’impasse, il convient d’avoir l’humilité de reconnaître l’erreur, et de ne surtout pas foncer encore plus vite vers l’ornière. Réfléchir avant de (ré)agir.

Koppelaar est un spécialiste de l’analyse des systèmes énergétiques. Ex-Chairman de l’antenne hollandaise de l’ASPO (2005-2010), l’association pour l’étude du pic pétrolier (peak oil), et architecte de The Oil Drum (2010-2013), ce chercheur a publié en 2013 dans la revue Global Environmental Change une analyse particulièrement importante pour l’avenir de l’Humanité sur le pic de phosphore (peak phosphorus), un élément constitutif de l’ADN et du squelette osseux.

Egalement professeur au prestigieux l’Imperial College London, Koppelaar vient de mettre les points sur les i en ce qui concerne l’EROI (Energy Return on energy invest), autrement dit le NER (Net Energy Ratio, ratio  énergétique net), du solaire photovoltaïque. Ceci en publiant le 29 novembre 2016 un papier (« Solar-PV energy payback and net energy: Meta-assessment of study quality, reproducibility, and results harmonization« ) dans la revue spécialisée « Renewable and Sustainable Energy Reviews ».

Obsolète, vous avez dit obsolète ?

Dans une chronique intitulée « Faire de l’écologie avec des données obsolètes« , Xavier De La Porte, journaliste à France-Culture, fait écho de cette méta-étude de Koppelaar qui analyse 29 autres études:

« (…) Les chercheurs de l’Imperial College de Londres ont fait un constat assez stupéfiant : ces études utilisent des données en moyenne vieilles de 7 ans, se réfèrent à des technologies qui ont été largement améliorées depuis. Résultat, elles sous-estiment largement les performances de l’énergie solaire. Car, selon les chercheurs, ce qui s’est passé entre 2009 et aujourd’hui, c’est que les performances de l’énergie solaire ont doublé (…) Mais ce sont ces résultats qui servent aux décideurs politiques à définir leur politique énergétique pour les décennies à venir. Ce cas particulier illustre une question fondamentale : l’importance des données en matière environnementale. L’écologie est affaire de mentalité, elle est aussi affaire de chiffres et de calcul (…) ».

Cette chronique est également disponible sur le site Rue89 (Nouvel-Obs) sous le titre:
« Data : l’énergie solaire est aussi performante que le pétrole ou le gaz« 

La méthodologie de l’étude de Koppelaar « consiste d’abord à les rendre comparables en les harmonisant, et pour cela commence à recalculer l’EROI qui découle, pour chacune d’elles, des données qu’elles ont employées » explique Cédric Philibert, expert EnR au sein de l’Agence Internationale de l’Energie et notamment auteur principal du rapport de référence « Solar Energy Perspectives » (2011).

« L’harmonisation consiste à recalculer à nouveau l’EROI qui découle des données de chaque étude en les complétant par des données moyennes quand il en manque, en adoptant des valeurs uniques pour l’ensoleillement, la durée de vie » ainsi que d’autres paramètres. Philibert ajoute que « dans une deuxième phase Koppelaar note que les études sont basées sur des données de deux à dix-huit ans d’âge et ordonne les valeurs d’EROI fournies en fonction de l’âge des données, en trois groupes. Il montre alors que les études basées sur des données acquises depuis 2009 ont des EROI de 13 à 15 pour poly- et mono- silicium, respectivement, contre des chiffres en gros de moitié inferieurs pour les études basées sur des données plus anciennes, obsolètes. »

L’EROI actuel du solaire PV est très probablement supérieur à 14:1

Une étude publiée le 6 décembre 2016 dans Nature Communications souligne la très forte corrélation entre l’évolution du CAPEX (coût d’investissement) et celle du temps de retour énergétique (EPBT) du solaire PV.

« Ces euros correspondent à de l’énergie » soulignait dès 2015 l’ingénieur des Mines Nicolas Ott dans le rapport de la Fondation Nicolas Hulot sur le solaire + stockage batterie (page 35) ajoutant que « sur la période 2009-2011, Hall et Prieto ont évalué le coût d’investissement à environ 5,5 M€/MW et le coût d’exploitation et de maintenance à 1,7 M€ sur 25 ans. Ces euros correspondent à de l’investissement énergétique. Au vu de l’analyse précédente sur l’investissement et des données des experts sur la partie exploitation et maintenance, 1MW de photovoltaïque coûte aujourd’hui de l’ordre d’1M€ et la maintenance sur 25 ans coûte plutôt de 20 à 30 k€/MW/an soit sur 25 ans entre 0,5 et 0,75 M€. En gardant le périmètre et les données de Hall et Prieto, si on prend le coût énergétique actuel lié à la construction d’une installation photovoltaïque et celui lié à son fonctionnement, (sans prendre en compte les économies potentielles sur les autres facteurs de coûts), l’EROI passe de 2,41 à environ 7-8″.

Philibert explique de son côté que « c’est après 2009 que les réductions de coût les plus rapides sont intervenues, reflétant en particulier la réduction de consommation d’énergie dans la fabrication du silicium de qualité photovoltaique et la baisse des quantités employées par unité de puissance, et que l’efficacité n’a cessé de croître également depuis 2009, entraînant une baisse des surfaces nécessaires et donc aussi de l’emploi d’autres matériaux; autrement dit, les valeurs de 13 et 15 (du papier de Koppelaar ndlr) sont plutôt conservatrices et lorsqu’on étudiera l’EROI de modules produits aujourd’hui on trouvera vraisemblablement des valeurs supérieures.« 

Une seule étude (Ferroni et Hopkirks 2016) donne un EROI inférieur à un pour le solaire PV. La date de la publication (2016) donne l’illusion de la modernité: les données de l’étude datent de 1998 selon Koppelaar. « C’est le record du monde de l’obsolescence – le vrai sujet de l’étude de Koopelaar » souligne Philibert.

Jacques Treiner, conseiller scientifique de « The Shift Project » et responsable en région parisienne de l’association très pro-nucléaire « Sauvons Le Climat » a publié le 7 mai 2016 sur son blog (hébergé par Médiapart) un article intitulé « Taux de retour énergétique ». Il se réfère à l’étude du biologiste Charles Hall et de l’ingénieur Pedro Prieto reposant sur des données datant de…2004 (table 3 page 14). Or entre 2004 et 2016, les technologies photovoltaïques ont fortement évolué. Jacques Treiner a déclaré  avoir eu connaissance du rapport de la Fondation Nicolas Hulot sur le solaire publié fin 2015. Pourtant il écrit en 2016 à propos du solaire PV: « Un retour de 2 pour 1, seulement ?! Eh oui. »

Le miracle de la multiplication des pains solaires

Bien entendu les valeurs de l’EROI varient en fontion de l’insolation, différente entre Marseille et la Normandie (Carte). Koppelaar a retenu une valeur de 1700 kWh/m2/an mais souligne que 85% de l’humanité vit dans des régions très ensoleillées, ce que montre le rapport « The Future of Solar » du MIT (Fig 1.1 page 5).

« En Amérique latine, en Afrique, dans le sud des USA, dans la plus grande partie de l’Asie et en Océanie le ratio énergétique de 14 est en réalité une valeur basse »  a déclaré l’expert à Medium.com.  Avec une insolation de 850 kWh/m2/an (nord de la Finlande) l’EROI du solaire PV peut être estimé à environ 7:1. A l »inverse dans certaines régions du monde l’insolation dépasse les 2500 kWh/m2/an.

Contacté par Techniques-ingénieur.fr Koppelaar a annoncé qu’une nouvelle étude est en cours: « nous préparons à présent un papier sur l’énergie nette de l’électricité globalement, incluant la transmission au niveau des réseaux électriques, et aussi la gestion (balance), ceci pour 4 scénarios existants à horizon 2050. Une étape de plus vers un « energy calculator » disponible directement sur internet. »

Le stockage a un impact marginal sur l’EROI du solaro-éolien

C’est chaud pour ceux qui ont peur des EnR: Ott a montré dès 2015 (page 51 du rapport de la FNH), avec un réel talent pédagogique, que la prise en compte du stockage batterie n’impacte que très marginalement l’EROI du solaire PV:

« 350-400 kWh pour 1 kWh de stockage, cela fait beaucoup. Mais ce « 1 kWh » de stockage va être utilisé plusieurs fois, et plus précisément 4000 fois. Donc, l’énergie de fabrication par cycle tombe à environ 0,1 kWh pour 1 kWh stocké et moitié moins avec un doublement du nombre de cycles. Par ailleurs, le passage des coûts de fabrication de 400- 500 $/kWh, pour un coût énergétique de 350-400 kWh/kWh de stockage, à 100 $/kWh, correspond à une baisse équivalente de la consommation énergétique par kWh de stockage. Au premier ordre, 100 $/kWh pour 8000 cycles correspond à 0,01kWh/kWh de stockage. Même doublé en considérant des coûts énergétiques indirects, ce surcoût énergétique pour une installation photovoltaïque couplée à du stockage ne ferait que diminuer la fourchette de EROI du photovoltaïque de 5-10 à 4,5-9 ».

Ou de 15 à 13,5. Le solaire en bouteille a bel et bien rendez-vous avec le pétrole en barril. Les travaux de Koppelaar viendront enrichir cette réflexion et confirmer ce qu’Ott a déjà révèlé en filigrane.

En 2013 la Royal Society a publié un rapport (cité par Medium.com) estimant que l’EROI du pétrole s’est effondré  et qu’il entre dans un domaine fortement glissant. En 2017, 4 ans après, il est vraisemblablement de l’ordre de 10:1. Il est de plus en plus difficile, et donc coûteux, d’extraire le pétrole, il faut aller le chercher sur des sites off-shore, parfois jusqu’à la région Arctique. Autrement dit la compétitivité (énergétique et économique) du solaire en bouteille ne va faire que croître dans les années à venir.

La revue scientifique Nature, reprenant le magazine Scientific American (2013) a publié un document synoptique à propos des EROI des différentes filières énergétiques. On y découvre (âmes sensibles s’abstenir) que l’EROI du nucléaire est de 5:1, soit égal à celui du pétrole des schistes bitumineux mais il est vrai trois fois meilleur que le très absurde éthanol de maïs. Contre 20:1 pour l’éolien et plus de 40:1 pour l’hydroélectricité. La valeur retenue dans ce document pour le solaire PV est à présent obsolète.

Un mix Wind Water Sun (WWS) tel que prôné par le professeur Mark Jacobson de Stanford University a un EROI égal à la moyenne pondérée des trois EROI respectifs (20:1, 40:1 et 14:1), moyenne qu’il convient de légèrement corriger pour tenir compte du stockage + réseau. Il n’est donc pas étonnant, avec d’aussi bons EROI, que le kWh WWS soit bon marché.

Olivier Danielo
Article édité le 16-12-2016 à propos du rapport de la Royal Society sur l’EROI du pétrole

Une nouvelle technique de détection pour l’astronomie infrarouge

Pendant très longtemps, les sources de lumières et les détecteurs dans le domaine du moyen infrarouge ont été les parents pauvres de la photonique. Actuellement, des sources commencent à se développer mais la détection reste difficile. La découverte de l’Institut Xlim (CNRS/Université de Limoges) s’appuie sur une nouvelle technique hybride de détection de la lumière. Après une modification de la couleur de la lumière (changement de longueur d’onde), les signaux peuvent être détectés par des dispositifs performants capables de discerner les photons. Cette technologie utilisée dans le domaine de l’astronomie constitue une rupture totale par rapport aux techniques classiques d’observation astrophysique. Elle concernera les systèmes astrophysiques en début ou fin de vie ainsi que les exoplanètes, ces objets froids émettant principalement des grandes longueurs d’ondes.

Son prototype a été testé avec succès sur CHARA, réseau de 6 télescopes situé à l’Observatoire du Mont Wilson, près de Los Angeles aux États-Unis.

Il parvient à détecter dans le domaine de l’infrarouge proche. La prochaine étape sera le passage aux bandes spectrales du moyen infrarouge, c’est-à-dire vers les grandes longueurs d’ondes pour explorer les sources de plus en plus froides de l’Univers.

Cette technologie est soutenue par le CNRS, le CNES, Thalès Alenia Space et Airbus industrie, en collaboration avec l’ESA (Agence spatiale européenne) et la NASA.

Enfin, cet instrument, initialement utilisé pour l’imagerie astronomique haute définition, pourrait à l’avenir être appliqué à d’autres domaines tels que le diagnostic médical, l’analyse de polluants, la surveillance météorologique dans les aéroports, le fonctionnement optimal des éoliennes ou encore le cryptage quantique dans le domaine des télécommunications.

Source : cnrs

De nouvelles preuves d’un passé humide sur Mars il y a 3,8 milliards d’années

Les chercheurs s’accordent sur une ancienne présence d’eau liquide sur Mars, mais ni sur sa durée ni sa stabilité. Les sondes Mars Express de l’ESA et Mars Reconnaissance Orbiter de la NASA ont cependant fourni de nouvelles preuves d’une activité aqueuse prolongée. Depuis leur orbite, elles ont analysé le sol de plaines situées au nord du bassin de Hellas, un des plus grands cratères d’impact de tout le système solaire. Par analogie aux « mers lunaires », ces plaines étaient considérées comme ayant une origine volcanique. Or, les instruments indiquent la présence de larges volumes de roches sédimentaires. La caméra HRSC a fourni une couverture régionale de la zone, tandis que HiRISE a permis une observation plus fine de la teinte et de la texture des sédiments, profitant de zones d’érosion. Les spectro-imageurs OMEGA et CRISM ont de leur côté analysé la composition des terrains et confirmé la présence de strates riches en minéraux argileux. Ces derniers ne se retrouvent pas dans les coulées de lave et proviendraient au contraire de dépôts lacustres ou de plaines alluviales.

Pour former ces plaines sédimentaires, épaisses de plus de 300 m et étendues sur des dizaines de kilomètres, un climat moins froid et sec qu’actuellement a été nécessaire. Il a également dû se maintenir pendant plusieurs millions d’années. 400 millions d’années plus tard, ces sédiments ont été localement recouverts par des terrains volcaniques. Ceux-ci ont scellé les zones d’érosion, permettant aux chercheurs de quantifier ce processus. Ainsi, lors de cette époque ancienne, un taux d’érosion cent fois supérieur aux estimations du taux d’érosion actuel, et des trois derniers milliards d’années, est nécessaire pour expliquer ces zones. Pour cela, il faut que l’atmosphère ait été relativement dense avant la formation des laves. Ces abondants terrains sédimentaires forment une région opportune pour de futures missions d’analyse au niveau du sol.

Références :

A sedimentary origin for intercrater plains north of the Hellas basin: implications for climate conditions and erosion rates on early Mars.
F. Salese, V. Ansan, N. Mangold, J. Carter, A. Ody, F. Poulet, and G. G. Ori (2016), Journal of Geophysical Research, doi:10.1002/2016JE005039.

Source : cnrs

Le monde sous surveillance

Applications mobiles, webmails gratuits, capteurs installés dans des montres connectées ou des pèse-personnes… Les entreprises récupèrent d’énormes quantités d’informations sur notre vie privée. Même les États mettent sous surveillance leurs citoyens.

nitot_couve_2000Face à ces différentes menaces, beaucoup de personnes répondent : « je n’ai rien à cacher ». Certes, le risque n’est pas « dramatique » si des entreprises privées se contentent d’exploiter ces données pour nous envoyer des publicités ciblées. On peut toujours utiliser des extensions pour navigateur Web (comme Ghostery, HTTPS Everywhere ou TrackMeNot) et préférer Firefox à Chrome pour ne pas être suivi à la trace par des sites et les régies publicitaires. Sur son smartphone Android, il est possible de remplacer Gmail par K-9 mail.

Mais quand sera-t-il demain lorsque les objets connectés et les voitures autonomes communiqueront des données personnelles aux assureurs ? Et qu’en sera-t-il demain si un gouvernement instaure une surveillance très précise des faits et gestes de ses citoyens ?

Face à toutes ces menaces (surveillance, censure, profilage, influence des algorithmes), Tristan Nitot a souhaité écrire un livre très pédagogique afin que chacun en prenne conscience : « Surveillance:// » (C&F Éditions). Entrepreneur, blogueur et conférencier, il est actuellement Chief Product Officer de Cozy Cloud (une solution d’auto hébergement des données). Il a été à l’initiative de la création de Mozilla Europe, qu’il a présidée, et a été membre du Conseil National du Numérique (2013-2015). Sous-titré « Les libertés au défi du numérique : comprendre et agir », son petit livre d’environ 200 pages est très accessible et propose des solutions pour ne plus être le « produit » des services commerciaux proposés gratuitement.

« Les utilisateurs n’ont pas été formés et ont adopté les technologies sur le tas. Il faut expliquer comment cette surveillance se met en place, sans ennuyer », explique-t-il.

Tristan Nitot cite le cas des applications mobiles : « nous ne savons pas très bien ce que leurs éditeurs font avec nos données. L’accès à notre carnet d’adresses peut se comprendre lorsqu’il s’agit d’une application de messagerie. Mais est-ce normal que Facebook récupère les carnets d’adresses (et les photos) de tous ses utilisateurs pour constituer un réseau social fantôme ? Le pire est que ce réseau social récupère aussi les adresses email de personnes qui ne sont pas encore inscrites, mais dont les coordonnées sont enregistrées sur les carnets d’adresse d’internautes qui sont, eux, inscrits ! Mais d’autres applications aussi anodines que des lampes de poche récupèrent des informations à notre insu ! »

Pour cet expert, « Apple est plus “raisonnable” que Google dont le système exploitation Android est clairement fondé sur l’apparente gratuité des services pour récupérer nos données en vue de proposer de la publicité ciblée. C’est dans leur ADN. Avec certaines applications iOS, Apple demande moins de permissions. Son approche est plus subtile et son business model n’est pas basé sur l’exploitation commerciale de données, mais sur la vente de matériels (iPhone, iPad…), de logiciels (applications) et de services (capacité de stockage) ».

À l’avenir, le grand public, mais aussi les professionnels, devra peut-être payer pour bénéficier de services plus respectueux de la vie privée et de la confidentialité des données comme c’est le cas avec le smartphone sous Android Blackphone et le service de messagerie chiffré Protonmail (dont le nombre de clients américains a augmenté depuis l’élection de Trump). Pour Tristan Nitot, « il faut éviter les services vivant de publicités ciblées en utilisant des systèmes que j’appelle SIRCUS (Systèmes informatiques redonnant le contrôle aux utilisateurs). Les principes de base sont le logiciel libre, le contrôle du serveur (où sont stockées mes données), le chiffrement des informations et des communications, l’élimination du profilage nécessaire à la publicité ciblée ».

Philippe Richard

Le solaire thermodynamique veut un appel d’offres!

Les professionnels français montent au créneau. Chez nos voisins italiens, un appel d’offres a été lancé en Juin 2016 par le Gouvernement. Il vise la production de 120 mégawatts (MW) de projets d’énergie solaire à concentration. La sélection des projets devrait être annoncée d’ici la fin de l’année. Pendant ce temps, les acteurs français du secteur rappellent que la seule centrale actuellement en cours de construction est la centrale de Llo, située dans les Pyrénées-Orientales. Elle sera dotée d’une capacité de 9 MW. Mais il y a pire. La Programmation pluriannuelle de l’énergie (PPE) d’octobre 2016 ne contient aucun objectif pour la filière solaire thermodynamique. L’incompréhension règne alors que les objectifs précédents visaient 540 MW à fin 2020.

Contrairement au solaire photovoltaïque, cette technologie est encore loin d’être compétitive.

Le Gouvernement italien a annoncé que le prix d’achat de l’électricité pour les futurs projets sélectionnés s’élèvera à 345 €/MWh pour les projets inférieurs à 5MW et 329 €/MWh pour les autres. « Ce prix est conditionné à plusieurs critères de performance énergétique et environnementale, comme l’obligation d’un stockage minimum d’environ 4h à pleine charge qui permettra de produire durant la pointe électrique et l’interdiction de fluides toxiques pour ces moyens de stockage », fait savoir le syndicat des énergies renouvelables (SER) dans un communiqué.

Du solaire thermodynamique en France pour exporter

Le solaire thermodynamique requiert un puissant ensoleillement, d’au moins 2.000 kWh/m², pour offrir un bon rendement et être rentable. « La technologie est particulièrement adaptée dans les pays où l’ensoleillement direct est très élevé : il s’agit notamment de l’Afrique du nord, du Proche et Moyen Orient, de l’Australie, du sud-ouest des Etats-Unis, de l’Inde, de l’Asie Centrale, d’une partie de l’Amérique latine, notamment le Chili », relève Jean-Louis Bal, Président du SER.

 

Si cette technologie n’est pas une solution pour l’électricité française, la filière se développe dans le monde. Entre 2005 et 2015 les capacités installées sont passées de 355 MW à 4,7GW. Ce développement est tiré par l’Espagne (2,3 GW) et les États-Unis (1,7 GW). CSP Today, un cabinet d’études anglais spécialiste du CSP, prévoit un marché à 22 GW en 2025. L’Agence Internationale de l’Energie (AIE) prévoit même une contribution du solaire thermodynamique à hauteur de 11,3 % de la production d’électricité mondiale à l’horizon 2050. Soit 1.000 GW installés.

Les professionnels français sont donc unanimes :  il faut développer une filière française d’excellence à l’export.  « Dans le Sud de la France, nous avons quelques sites qui peuvent être exploités et qui peuvent constituer des références pour nos industriels », assure Jean-Louis Bal. Ces « projets-vitrines » permettront aux industriels français de se positionner sur de grands projets internationaux. Ils devront être « d’une puissance significative, de l’ordre de 50 MW », demande le SER. Faute d’appels à projet en France, les acteurs français se positionnent sur des démonstrateurs à l’étranger. Dans cette perspective, ils demandent à ce qu’une partie du programme des investissements d’avenir puisse financer le développement de démonstrateurs à l’étranger. Ces projets auraient lieu dans des zones à ensoleillement direct particulièrement élevé.

Par Matthieu Combe, journaliste scientifique

La sécurité des transactions sur Internet est perfectible

En cette période de fin d’année, les sites de e-commerce battent des records de ventes et de livraisons. Selon la FEVAD (Fédération du e-commerce et de la vente à distance), le nombre total de transactions de paiement sur Internet pourrait atteindre le milliard en 2016, contre 700 millions en 2014. Pour faciliter ses achats, 80 % des acheteurs en ligne ont opté pour un paiement par carte bancaire au cours du premier semestre de cette année.

Le commerce électronique et de façon plus générale les règlements en ligne sont entrés dans les mœurs. Plus pratiques, plus rapides et plus sûrs… Si les deux premiers ne laissent pas de place au doute, il n’en va pas de même avec le dernier. Il représente pourtant le maillon essentiel au commerce et de façon générale à tous les échanges sur Internet : la confiance. C’est la raison pour laquelle on fait appel à la cryptographie qui permet de garantir la sécurité des échanges sur Internet, ou encore les transactions par carte bancaire. Il existe plusieurs algorithmes de chiffrement, mais le RSA est le plus connu et utilisé.  Il est dit asymétrique puisqu’il fonctionne avec une paire de clés : l’une privée et l’autre publique, et repose sur la factorisation des entiers et les nombres premiers.

Or, une équipe franco-américaine impliquant des chercheurs du Laboratoire lorrain de recherche en informatique et ses applications (LORIA) a démontré qu’il est possible de compromettre une clé de chiffrement pour la rendre quasi inopérante… En un mot, il est possible de compromettre la sécurité des communications sur Internet en utilisant des nombres « truqués ».

La sécurité des flux sensibles repose sur l’échange d’une série de chiffres – une clé (fondés sur l’algorithme de Diffie-Hellman, du nom de ses inventeurs en 1976) entre deux ordinateurs, grâce à laquelle sont ensuite chiffrées les informations ou authentifiées les connexions. Cette série de chiffres comprend un nombre premier et deux nombres secrets (un pour l’émetteur et l’autre le destinataire). Selon cette équipe, un pirate ayant eu connaissance du nombre premier échangé au départ et disposant d’une puissance de calcul suffisante pourrait « craquer » cette clé.

« De nos jours, une clé construite à partir d’un nombre premier de 768 bits n’offre plus qu’une protection illusoire. En effet, en juin, une équipe de l’université de Leipzig et de l’École polytechnique fédérale de Lausanne est parvenue à casser une telle clé. Il est vrai qu’en pratique, les nombres utilisés sont de 1 024 bits, soit environ 300 chiffres.

Mais là où le bât blesse, c’est que certains nombres premiers génèrent des clés totalement perméables aux algorithmes casseurs de clés », peut-on lire dans le Journal du CNRS.

« Nous y sommes parvenus à casser cette clé 10 000 fois plus rapidement que le temps nécessaire pour une “vraie” clé, et ce avec 10 fois moins de puissance de calcul que celle utilisée par nos collègues de Leipzig et de Lausanne dans le cas à 768 bits », précise Emmanuel Thomé, du Loria. La sécurité d’Internet serait donc perfectible même si actuellement, on utilise couramment des clés asymétriques sur 2048 / 4096 bits.

Le plus inquiétant est que des listes standard, qui recensent les nombres utilisés en cryptographie, ont été utilisées par un sous-traitant de la NSA. Selon le lanceur d’alerte Edward Snowden, cette agence de renseignement américaine a essayé d’influencer les standards et les spécifications pour les techniques commerciales de clés publiques. Par ailleurs, des vers ont été développés de façon à voler la clef au moment où elle est traitée par l’algorithme… « Personne ne sait très bien comment ces nombres ont été sélectionnés », s’inquiète le cryptologue du LORIA. D’où le risque que la NSA puisse espionner ces transactions.

Philippe Richard

Redémarrage en vue pour les réacteurs nucléaires d’EDF

Enfin une bonne nouvelle pour EDF. L’Autorité de sûreté nucléaire (ASN) a examiné, avec l’appui de l’Institut de radioprotection et de sûreté nucléaire (IRSN), les éléments transmis par EDF pour justifier l’aptitude au service des fonds primaires de générateur de vapeur du fabricant japonais JCFC (Japan Casting and Forging Corporation) équipant dix réacteurs de 900 MWe et deux réacteurs de 1450 MWe.

Etudes à finaliser

Il s’agit d’un premier avis de l’ASN suite au dossier déposé par l’exploitant en vue de prouver une absence de risque majeur sur la sûreté du parc nucléaire. L’ASN considère que, sous réserve de la prise en compte de ses demandes, les justifications génériques apportées par EDF sont acceptables pour les réacteurs de 900 MWe et peuvent être utilisées sur chacun des réacteurs concernés. EDF a indiqué qu’elle transmettra prochainement au gendarme du nucléaire des compléments relatifs aux réacteurs Civeaux de 1 450 MWe (palier N4).

« Les vérifications réacteur par réacteur par rapport à l’étude générique restent à mener. Si elles sont dans les clous, ils pourront redémarrer », a déclaré Pierre-Franck Chevet, président de l’ASN. Les hypothèses du dossier d’EDF devront toutefois être confirmées par un programme d’essais sur des pièces sacrificielles représentatives « à réaliser sous six mois », précise l’Autorité de sûreté nucléaire.

Le redémarrage de ces réacteurs est une nécessité économique pour EDF qui affronte le pire taux d’indisponibilité de son parc nucléaire depuis 10 ans. L’électricien espère pouvoir redémarrer 7 de ses 12 réacteurs dès janvier prochain.

Romain Chicheportiche

 

Vous n’avez pas encore testé la dernière version de RiskEV ?

Facile d’utilisation, RiskEV permet de répondre aux obligations de traçabilité des expositions aux facteurs de risques collectifs et individuels. Le logiciel conserve bien sûr ses fonctions premières, notamment :

– Evaluer les risques et gérer les dix facteurs de pénibilité (dont « Agents chimiques dangereux »),
– Editer le Document Unique d’évaluation des risques et ses annexes,
– Gérer le plan d’action,
– Assurer la traçabilité des expositions aux facteurs de pénibilité et aux produits chimiques.
Pour mettre en œuvre ces objectifs, RiskEV offrait déjà de nombreux avantages, notamment la possibilité d’exporter les documents sous format Excel, PDF ou ODS, d’extraire des données à partir des Fiches de Données de Sécurité au format PDF, de sécuriser vos données : versionnage et historisation des évaluations, de gérer des salariés polyvalents, etc…

Pour être toujours plus proche de vos préoccupations et répondre au mieux à vos contraintes, RiskEV a évolué avec de nouvelles fonctionnalités, parmi lesquelles :
– Encore plus de souplesse dans la gestion des accès : possibilité de partager uniquement certaines données communes entre sites d’une même société,
– Une grille de criticité encore plus personnalisable : elle peut désormais être une matrice 3×3, 5×5, ou tout schéma intermédiaire,
– Les résultats des évaluations du risque chimique réalisées pour un produit sont désormais accessibles depuis l’inventaire également.
La nouvelle version 1.4.0.0 de RiskEV comprend également la mise à jour de la base des références (9e ATP CLP du 19/7/2016)

Important : le logiciel RiskEV n’est plus commercialisé
par Techniques de l’Ingénieur.

La Belgique organise sa sortie du nucléaire

« La transition énergétique permettant notamment un approvisionnement en électricité sûr, abordable et pauvre en émissions de CO2 doit être mûrement réfléchie », introduit la note d’orientation stratégique du gouvernement belge. Le pays abrite sept réacteurs nucléaires, totalisant près de 6 000 MW de capacité installée, qui ont produit 38% de l’électricité consommée en 2015 dans le Royaume. C’est pourquoi la ministre de l’Énergie, Marie Christine Marghem, a demandé à deux reprises (en avril et en septembre 2016) au gestionnaire du réseau, Elia, de réaliser une étude décrivant, pour la période 2017-2027, les besoins électriques de la Belgique en termes d’adéquation et de flexibilité.

4 piliers

« Pour compenser la perte de production d’énergie nucléaire à partir de 2022, il importe de créer un climat d’investissement propice à la construction de nouvelles installations de production d’énergie et au maintien dans le marché de suffisamment d’unités », a expliqué Marie Christine Marghem. Pour autant, les premiers retours d’expérience sur le développement massif d’énergies renouvelables ont montré une hausse de la variabilité et des incertitudes sur l’équilibre du système électrique. Pour y faire face, le réseau aura besoin de davantage de flexibilité. C’est pourquoi la stratégie belge s’appuie sur 4 piliers : améliorer le fonctionnement du marché et les échanges transfrontaliers développer la gestion de la demande, développer le stockage, améliorer la réserve stratégique.

Par ailleurs, le Conseil des ministres a également approuvé un avant-projet de loi destiné à favoriser le stockage par l’exonération de la cotisation fédérale. Un autre volet concerne la gestion de la demande : « la possibilité sera donnée au client final de valoriser sa gestion de la consommation d’énergie et donc d’améliorer sa compétitivité », indique la ministre en référence aux divers services d’efficacité énergétique et de domotique qui commencent à se développer, certes timidement, sur le marché des particuliers.

Mauvaise nouvelle pour Engie et EDF

La décision belge est une mauvaise nouvelle pour l’exploitant et propriétaire de ces réacteurs : Engie. L’ex-Electrabel, GDF-Suez, opère tous les réacteurs du pays et en est largement propriétaire (100% de Doel 1 et 2, 89.8% de Doel 3 et 4 et de Tihange 2 et 3 ainsi que 50% de Tihange 1), le reste étant détenu par un autre grand groupe issu de l’Hexagone : EDF (en propre ou à travers SPE). Le nucléaire en Belgique a été l’objet d’un débat qui a abouti en 2003 à un accord multi-partis sur la sortie en deux phases (2015 et 2025) de l’atome au grand dam d’Engie qui militait pour étendre la durée d’exploitation des centrales comme en France. Pire, la compagnie a dû mener une véritable guerre juridique avec le gouvernement qui a doublé en 2012 la taxe sur la rente nucléaire (les réacteurs étant amortis). Après plusieurs jugements, Engie a obtenu partiellement gain de cause mais a dû se résoudre à payer. Pour la seule année 2015, la facture s’élevait à 130 M€.

Cet argent doit financer la transition vers modèle énergétique basé sur les énergies renouvelables où la flexibilité du réseau sera obtenue par les échanges transfrontaliers, une capacité de production flexible, et une gestion accrue de la demande et du stockage.

Romain Chicheportiche

L’homocystéine impliquée dans certains cancers et la maladie de Parkinson

L’étude des chercheurs du Laboratoire de chimie et biochimie pharmacologiques et toxicologiques (CNRS / Université Paris-Descartes) révèle que des taux anormaux d’homocystéine, un metabolite soufré issu du métabolisme de la méthionine, associés à une perturbation de l’homéostasie des métaux de transition, conduisent à l’inhibition irréversible d’une enzyme appelée catalase. Cette dernière, qui contient un hème comme groupement prosthétique, est essentielle pour protéger les cellules des dommages oxydatifs liés à des concentrations élevées d’eau oxygénée (H2O2), un composé qui peut perturber le fonctionnement cellulaire et participer à l’éclosion et/ou la progression des cancers et des maladies neuro-dégénératives.

Les scientifiques ont d’abord déterminé le mécanisme moléculaire d’inhibition de la catalase à l’aide d’expériences in vitro (tests d’activité, spectroscopie UV-visible, cinetiques comparatives, chimie analytique). Ils ont ainsi montré que dans des conditions pathologiques, c’est-à-dire en présence de fer et de concentrations significatives d’homocystéine, le groupement prosthétique de la catalase est transformé en un dérivé inactif: un sulfhème. Ce dernier, qui résulte de l’incorporation d’un atome de soufre provenant de l’homocysteine à la périphérie de l’hème, se forme  via une réaction inédite. Dans un second temps, des expériences ex cellulo effectuées sur divers modèles cellulaires de pathologies (cancers du sein et du colon, maladie de Parkinson et d’Huntington, rectocolite hémorragique) ont  permis de confirmer le lien de causalité entre cette réaction chimique et l’inhibition de la catalase observée dans certains cancers et la maladie de Parkinson.

Ces résultats soulignent un nouveau trait délétère de l’homocystéine qui, à des niveaux anormalement élevés, participerait à l’étiologie de certains cancers et de la maladie de Parkinson en perturbant les voies de signalisation de H2O2. Cette étude  laisse aussi entrevoir des stratégies thérapeutiques ciblant l’homocystéine et les métaux de transition pour prévenir les effets pernicieux résultant de leur combinaison.

chimie

Source : CNRS

OPEP : L’Arabie Saoudite trouve un accord avec la… Russie

Cela faisait des mois que les analystes financiers attendaient l’annonce de l’OPEP, c’est désormais fait. Après plusieurs années de production tous azimuts pour faire s’écrouler les prix du baril et regagner les parts de marchés perdues à cause du développement des hydrocarbures de schiste aux Etats-Unis, les membres de l’OPEP ont décidé de réduire leur production.

1,2 millions de barils jour en moins

L’OPEP a annoncé à Vienne une réduction de 1,2 millions de barils de pétrole par jour (Mbj)  à partir du 1er janvier 2017 pour atteindre une production totale de 32,5 Mbj. Une décision qui a immédiatement fait remonter les cours mondiaux (environ 10% en moyenne). Le poids de cette baisse de production est partagé différemment selon les pays et leur situation. L’Arabie Saoudite, premier acteur pétrolier de l’organisation, en prend logiquement la plus grande partie (-486 000 bj), suivie de l’Irak (-210 000 bj), les Emirats Arabes Unis (-139 000 bj), et le Koweït (-131 000 bj). L’Iran est le seul membre de l’OPEP qui non seulement ne participe pas à la baisse, mais voit son quota augmenté de 90 000 bj pour atteindre 3,8 Mbj. Une exception liée à la levée progressive des sanctions économiques qui touchent la République Islamique encore en-deçà de son niveau historique (près de 4 Mbj). Cet accord est applicable pour six mois et peut être renouvelé.

Moscou entre dans la danse

La portée de cette décision dépasse le cartel pétrolier puisque l’accord prévoit également une baisse de production de pays hors-OPEP à l’instar de la Russie qui aurait accepté de réduire ses exportations de l’ordre de 600 000 bj, soit à elle seule, la moitié de l’effort consenti par toute l’organisation. Une alliance que beaucoup de membres de l’OPEP appelaient de leurs vœux pour donner plus de poids à leur décision.

Reste à savoir si les engagements seront respectés, ce qui n’a pas toujours été le cas. C’est pourquoi l’OPEP a annoncé dans la foulée la constitution d’un comité de suivi et de contrôle présidé par le Koweït et constitué de l’Algérie, le Venezuela et deux autres pays non-membres de l’organisation pétrolière. Il aura la charge de contrôler lesdites  réduction de production dans les pays concernés.

Bilan

Quel bilan peut-être tiré de ces années de surproduction pétrolière voulue par l’OPEP ? Premièrement que l’effet sur les cours du baril du brut a été fort, confirmant la grande inélasticité du rapport offre/demande de pétrole. Cette chute des cours avait pour objectif d’écarter de l’offre mondiale les productions de pétrole non conventionnel (issu des roches-mères) essentiellement d’Amérique du nord, pour que l’OPEP récupère ses parts de marchés. Sur ce point, le secteur pétrolier américain a certes traversé une crise avec plusieurs faillites à la clé, mais les mouvements massifs de concentration d’entreprises et les économies d’échelle lui ont permis de mieux résister que prévu dans un environnement de prix bas. De fait, malgré une chute massive des prix du baril (48$ en moyenne en 2015 contre 93$ en 2014), les Etats-Unis restaient en 2015 le premier producteur mondiale de pétrole devant l’Arabie Saoudite et la Russie, selon le BP Statistical Review. Un échec cuisant pour Ryad, principal instigateur de cette stratégie, qui voit désormais son leadership être menacé à l’extérieur (Etats-Unis) et à l’intérieur de l’OPEP par son frère-ennemi : l’Iran. Que Téhéran soit parvenu à être le seul à ne pas être touché par la baisse des quotas est un signe d’un retour en force du pays au sein du cartel au détriment de l’Arabie Saoudite. Enfin, le concours nécessaire de la Russie à cet accord étaye la théorie de la perte progressive d’influence de l’OPEP sur un marché pétrolier devenu de plus en plus multipolaire.

Romain Chicheportiche

Salon Pollutec: le directeur technique de Wattway compare la route solaire à un Airbus à trois réacteurs

« On parlait pas la même langue au début (Philippe Harelle s’adresse à un représentant d’Enedis ex-ERDF ndlr). Nous on vient de la route, on fait de l’électricité certes mais on vient de la route à la base. On s’est retrouvé dans un marché qui est pas encore le notre totalement. Dans nos chantiers d’applications on faisait que des petits chantiers de 25, 50, 100 mètres-carrés parcequ’il n’y a pas lieu d’aller plus loin pour tester techniquement le sujet (…)

On est entre 2000 et 2500 euros du mètre-carré (ce qui fait, avec 115 W/m2, 17,4 à 21 €/W ndlr) (…) Ce qui est notre objectif, et ce qui est ma feuille de route, est qu’il faut que d’ici 2020 on soit à des coûts comparables aux autres énergies renouvelables (…) Suivant les configurations de chantiers on va avoir des installations plus ou moins simples, plus ou moins rapides à la pose par rapport aux cas d’usage que l’on a imaginé.

Ce qui est sûr c’est que par rapport au coût actuel on va avoir un diviseur à trouver entre 10 et 20 (sourire), pour vous donner un objectif (une personne du public réagit). Oui, diviser par 10 ou diviser par 20.

Mon patron me dit, c’est comme un airbus que l’on pilote avec trois réacteurs, et si on pousse que d’un côté et bien on va tourner un peu en rond (où en est le projet d’ «airbus du solaire» de François Hollande ? ndlr). Et il a raison j’aime bien cette image parce qu’aujourd’hui notre prix c’est 1/3 le module solaire, 1/3 la pose et 1/3 le raccordement (7 €/W + 7€/W + 7€/W ndlr). Donc si on ne travaille que l’industrialisation du module et que l’on regarde pas le reste, on est à côté de la plaque.

Coût: « la barre à sauter, elle est sympatique »

Donc on doit travailler les trois sujets, et j’ai pas la réponse aujourd’hui, parce que cela fait partie de la feuille de route des deux ans, mais, voilà, il faudra que l’on divise au moins par 10 notre prix. Donc cela donne quand même une… la barre à sauter elle est sympatique (sourire).  Mais sur la partie industrielle (modules ndlr) cela va rester assez facile, tout est relatif. Il n’y a pas de raison que notre panneau, industriellement parlant, coûte beaucoup plus cher qu’un panneau traditionnel (un panneau classique coûte aujourd’hui 0,5 €/W ndlr), à l’exception du volume. Avec des panneaux qui arrivent de Chine, made in China, des millions de mètres-carrés, nous on fait du made in France, avec nos dalles qui sont fabriquées à Tourouvre. 

Un choix de politique d’entreprise « qui ne va pas être super simple à gèrer »

C’est un pari qu’on a fait et c’est un choix politique également, politique d’entreprise, qui va pas être super-simple à gérer mais en tout cas on le tient pour l’instant (…) Ce sont nos chantiers d’applications qui vont nous permettre de définir si demain notre marché c’est un marché de volume ou un marché de niche. A l’heure actuelle on est pas capable de répondre.

Par contre ce qui est sûr c’est que c’est un projet mondial, la moitié de la centaine de projets pour tester nos cas d’usage sera en France, l’autre moitié à l’international (…) On ne s’interdit rien, tout ce qu’on peut faire en France, on va le faire. Après tout dépendra de l’évolution de Wattway.

« Du papier de verre »

Si un deux-roues tombe dessus qu’est-ce qui se passe ? Cela ressemble à du papier de verre. Grains fins sur les zones piétonnes, gros grains sur les routes pour avoir une bonne adhérence. »

L’intégralité de la conférence-débat est disponible ici. Des experts internationaux ont de leur côté livré leur analyse (en anglais) de cette route solaire. Un regard extra-national rafraîchissant.

Par Olivier Daniélo

13,9 cents le kWh: une île du Pacifique se libère du pétrole grâce au solaire en bouteille de Tesla

Ce qui est frappant avec le parc photovoltaïque de l’île de Ta’u, c’est son empreinte surfacique vraiment minuscule. Moins de 0,15 km2, sur une île qui fait 44 km2, soit 0,34%. L’île comptait 790 habitants en 2010 ce qui correspond à 18 habitants au kilomètre carré. Si la densité de population de Ta’u devenait égale à celle de la France, serait-il possible de répondre à sa demande électrique avec le solaire ? La réponse est oui, il suffirait de  multiplier par un facteur 2,5 la longueur et la largeur de la centrale solaire actuelle. 

Chacune des 36.000 communes qui composent la France peut être considérée comme une île. La chercheuse américaine Yan Xu, du laboratoire national d’Oak Ridge (Tennessee) utilise le mot « islanding » pour décrire l’approche visant la résilience locale des communautés grâce à des microgrids.

Tesla-SolarCity-Tau-Microgrid-PowerPackLe coût du kWh solaire + stockage batterie Tesla est de seulement 13,9 cents le kWh sur l’île de Ta’u rapporte le magazine Fortune (13,1 centime d’euro). Autrement dit le solaire disponible 24 heures sur 24 a sur l’île de Ta’u un coût équivalent à celui du nouveau nucléaire EPR ou à électricité thermosolaire + stockage thermique. Dans les projets ultérieurs les Powerpack Tesla, de seconde génération, ne seront plus de 100 kWh l’unité mais de 200 kWh.

La France consacre aujourd’hui plus de la moitié de son territoire à la capture des photons par des plantes à vocation alimentaire (SAU, Surface Agricole Utile). Le potentiel du solaire en toiture, un autre type de capture des photons, a été estimé par l’ADEME a plus de 400 TWh, et il peut être multiplié environ par deux en intégrant celui des ombrières PV de parking. La demande électrique française totale est de 500 TWh par an.

En Australie la ville de Kalbarri va mettre en place une microgrid intégrant solaire PV et éolien, le tout assisté de batteries totalisant une capacité de stockage de 2 MWh. En France, la complémentarité  du solaire et de l’éolien à l’échelle saisonnière est parfaite.

Par Olivier Danielo

Sunna Design emploie la réalité augmentée au service de l’autoformation

Bâtie autour de concepts tels que la robotique, l’intelligence artificielle et autres outils de haute technologie, l’usine du futur est déjà une réalité tangible chez Sunna Design. Cette jeune entreprise, située à Blanquefort en Gironde, a mis en oeuvre un dispositif de réalité augmentée et un écran collaboratif pour améliorer la production de ses lampadaires autonomes à énergie solaire, exportés vers les pays émergents. Ce projet, entrepris en décembre 2014 et opérationnel depuis avril 2016, est issu du programme de recherche Systemsol, soutenu par la région Nouvelle Aquitaine à hauteur de 4,1 millions d’euros. Le Centre aquitain des technologies de l’information et électroniques (Catie) et Immersion, localisé à Bordeaux et intégrateur de systèmes interactifs et immersifs pour l’industrie, sont les autres contributeurs.

«Sunna Design souhaitait mettre en place des technologies de rupture, explique Julien Castet, responsable de la recherche chez Immersion. La zone de production devait aussi devenir un showroom pour que les clients aient envie de se déplacer au cœur de l’atelier.» Premier instrument de cette transformation : la réalité augmentée, qui guide l’opérateur pendant la phase de montage du lampadaire, produit qui ne compte qu’une vingtaine de pièces. «Le but est que l’employé se forme lui-même et puisse changer de poste à tout moment, poursuit Julien Castet. De plus, Sunna Design fait appel à des intérimaires et cette formation se doit d’être rapide.»

5000 € par poste

La solution prend la forme d’un poste de montage mobile, équipé d’un petit écran et d’une caméra qui filme les pièces du lampadaire et les mains de l’opérateur. «La caméra USB, dépourvue d’autofocus, est semblable à une caméra de visioconférence, précise Julien Castet. Au départ elle était mobile puis nous avons décidé de la fixer.» Le logiciel se charge ensuite de distinguer chaque élément de l’image, mais il lui fallait un coup de pouce. «Comment identifier la pièce, déterminer sa position, son état, malgré le passage des mains devant la caméra ? Interroge Julien Castet. Pour y répondre, nous avons adopté une solution originale : l’impression de motifs en 3D grâce auxquels le logiciel se repère dans l’image.»

Il était impératif que le budget soit maîtrisé pour des raisons de compétitivité. «Hors logiciel, la solution coûte moins de 5000 € par poste, estime Julien Castet. Elle équipe un poste pour le moment et Sunna Design envisage de la déployer sur quatre postes en tout. » Outre la réalité augmentée, Sunna Design a opté pour un écran tactile et collaboratif nommé Shariiing, qui sert à superviser et à organiser les processus. «C’est un dispositif de communication transversale qui connecte les données et les applications, commente Julien Castet. En pratique, par exemple, le responsable de production peut annoter sur ce grand écran l’affichage transmis par un opérateur depuis son poste.» Selon Sunna Design, qui tire un premier bilan, le temps de formation est réduit de 80 % et la pénibilité de 70 %. La finalité est d’augmenter la cadence de production jusqu’à 100 000 pièces par an, soit 10 fois plus qu’aujourd’hui.

Bâtie autour de concepts tels que la robotique, l’intelligence artificielle et autres outils de haute technologie, l’usine du futur est déjà une réalité tangible chez Sunna Design. Cette jeune entreprise, située à Blanquefort en Gironde, a mis en oeuvre un dispositif de réalité augmentée et un écran collaboratif pour améliorer la production de ses lampadaires autonomes à énergie solaire, exportés vers les pays émergents. Ce projet, entrepris en décembre 2014 et opérationnel depuis avril 2016, est issu du programme de recherche Systemsol, soutenu par la région Nouvelle Aquitaine à hauteur de 4,1 millions d’euros. Le Centre aquitain des technologies de l’information et électroniques (Catie) et Immersion, localisé à Bordeaux et intégrateur de systèmes interactifs et immersifs pour l’industrie, sont les autres contributeurs.

 

«Sunna Design souhaitait mettre en place des technologies de rupture, explique Julien Castet, responsable de la recherche chez Immersion. La zone de production devait aussi devenir un showroom pour que les clients aient envie de se déplacer au cœur de l’atelier.» Premier instrument de cette transformation : la réalité augmentée, qui guide l’opérateur pendant la phase de montage du lampadaire, produit qui ne compte qu’une vingtaine de pièces. «Le but est que l’employé se forme lui-même et puisse changer de poste à tout moment, poursuit Julien Castet. De plus, Sunna Design fait appel à des intérimaires et cette formation se doit d’être rapide.»

 

(inter) 5000 € par poste

 

La solution prend la forme d’un poste de montage mobile, équipé d’un petit écran et d’une caméra qui filme les pièces du lampadaire et les mains de l’opérateur. «La caméra USB, dépourvue d’autofocus, est semblable à une caméra de visioconférence, précise Julien Castet. Au départ elle était mobile puis nous avons décidé de la fixer.» Le logiciel se charge ensuite de distinguer chaque élément de l’image, mais il lui fallait un coup de pouce. «Comment identifier la pièce, déterminer sa position, son état, malgré le passage des mains devant la caméra ? Interroge Julien Castet. Pour y répondre, nous avons adopté une solution originale : l’impression de motifs en 3D grâce auxquels le logiciel se repère dans l’image.»

 

Il était impératif que le budget soit maîtrisé pour des raisons de compétitivité. «Hors logiciel, la solution coûte moins de 5000 € par poste, estime Julien Castet. Elle équipe un poste pour le moment et Sunna Design envisage de la déployer sur quatre postes en tout. » Outre la réalité augmentée, Sunna Design a opté pour un écran tactile et collaboratif nommé Shariiing, qui sert à superviser et à organiser les processus. «C’est un dispositif de communication transversale qui connecte les données et les applications, commente Julien Castet. En pratique, par exemple, le responsable de production peut annoter sur ce grand écran l’affichage transmis par un opérateur depuis son poste.» Selon Sunna Design, qui tire un premier bilan, le temps de formation est réduit de 80 % et la pénibilité de 70 %. La finalité est d’augmenter la cadence de production jusqu’à 100 000 pièces par an, soit 10 fois plus qu’aujourd’hui.

 

Frédéric Monflier

L’Asie veut construire un super-réseau électrique

Le concept de super-réseau électrique en Asie n’est pas nouveau. Mais depuis la catastrophe nucléaire de Fukushima en 2011, l’idée revient avec insistance. Elle consiste à interconnecter les réseaux électriques des principaux pays de la région pour mutualiser les sources de production. L’enjeu est juste immense : le Japon, la Chine, la Corée du Sud et la Russie représentent 76% de la production électrique totale de l’Asie et de même, 77% de la consommation du continent. Considérant par ailleurs, que l’Asie constitue environ deux tiers de l’Humanité, l’optimisation qui en résulterait équivaut à des milliers de Mégawatts économisés.

Très affecté par l’accident de la centrale nucléaire japonaise, Son Masayoshi, pdg de Softbank Corp, une compagnie de télécommunication, a fait des énergies renouvelables son nouveau cheval de bataille. Mais pour substituer la cinquantaine de réacteurs nucléaires de l’archipel nippon, sans passer par des centrales thermiques au gaz, l’interconnexion avec le continent est indispensable.

Renouvelables = réseaux

Viser 50% d’énergies renouvelables, voire plus pour certains pays, dans le mix électrique dans un horizon énergétique proche (2030) n’est plus une utopie. Les industries éoliennes et photovoltaïques notamment, ont considérablement réduit leurs coûts et s’imposent désormais dans les grands appels d’offres internationaux non-discriminants (qui n’écarte pas de technologie a priori). La barrière des prix désormais levée, la problématique des renouvelables s’est concentrée sur le caractère intermittent de leur production, qui ne correspond généralement pas aux pics de consommation. Les techniques rentables de stockage étant encore limitées (STEP – Stations de transfert d’énergie par pompage surtout), l’interconnexion des réseaux électrique sur plusieurs fuseaux horaires constitue le meilleur moyen d’exporter par exemple le vaste potentiel du désert de Gobi (Mongolie) vers Tokyo. Son Masayoshi calcule les coûts de production dans le désert de Gobi à environ 3 à 4 Yens par kWh, avec un coût foncier très réduit. Ajoutez à cela le transport de la Mongolie au Japon, environ 2 yens par kWh, selon lui. Le coût total (entre  5 à 6 yens par kWh) resteraient bien en-deçà des coûts du nucléaire (8,9 Yens/kWh) et des centrales thermiques (9,5 Yens/kWh) japonaises.

Asian Super Grid

L’activisme de Son Masayoshi a été récompensé en octobre dernier par la signature d’un Memorandum of Understanding (MoU) entre la Chine, le Japon, la Russie et la Corée du sud pour mettre en place ce fameux Asian Super Grid. Il s’agit de la première étape d’un processus qui devraient voir d’autres pays intéressés se joindre à l’initiative (voir carte). Reste encore de nombreux défis techniques et réglementaires à relever. Si la technologie de pose de câbles sous-marins est maîtrisée, elle reste coûteuse et nécessite une coopération durable des nations qui deviennent de fait de plus en plus interdépendantes.

figure1

Ainsi, l’Europe avait lancé en 2009 un projet similaire avec l’Afrique du nord et le Moyen-Orient : Desertec. Le but était d’interconnecter les pays de la Méditerranée pour  profiter de leurs énormes ressources solaires et alimenter le nord du Vieux continent en électricité verte et bon marché. Las ! Les révolutions arabes et la crise syrienne (et libyenne) ont réduit a néant les espoirs de voir un tel projet voir le jour dans un avenir proche. Preuve, si besoin en était, qu’en matière d’énergie, la géopolitique prévaut toujours.

Romain Chicheportiche

Des mouchards dans les smartphones

Peut-on encore avoir une vie privée et être hyper connecté ? Cela semble de plus en plus difficile avec la détermination des poids lourds du web (Facebook, Google) mais aussi de différentes marques high-tech d’analyser en permanence nos moindres faits et gestes ! Officiellement, le recueil de ces informations sert à améliorer leurs services.

Officieusement, cette énorme masse de données est exploitée pour proposer de la publicité très ciblée, ce que les services marketing appellent le « reciblage » comme l’explique Tristan Nitot (qui a été à l’initiative de la création de Mozilla Europe, éditeur de Firefox) dans son livre très accessible « Surveillance:// » (C&F Éditions).

Mais le plus inquiétant est la découverte de mouchards dans plus de… 700 millions de smartphones Android. Plusieurs fabricants chinois et des marques occidentales qui revendent ces smartphones à leurs couleurs s’appuient sur les services de la société Shanghai Adups Technology. Elle a développé un mouchard qui, à l’insu des personnes, peut récupérer quasiment tout le contenu de l’appareil. Ces informations sont ensuite stockées sur des serveurs chinois.

Plus surprenant ou inquiétant, il y a quelques jours, BitSight (une société spécialisée dans la sécurité informatique) a repéré une importante faille dans le code d’un firmware de la société Ragentek. Ce programme est intégré dans des modèles d’entrée de gamme des fabricants BLU Products, Infinix Mobility, Ragentek, Beeline, Doogee, IKU Mobile, Leagoo et Xolo. Ce firmware n’est pas anodin car, étrangement, il possède des spécificités d’un Rootkit. Il s’agit d’un ensemble de techniques de furtivité permettant de dissimuler des ressources ou des exécutions. L’un des procédés consiste à « agir » dès le démarrage de la machine (en l’occurrence ici un smartphone mais il peut s’agit aussi d’un PC) afin de prendre le contrôle du système d’exploitation et des logiciels de sécurité pour ne pas être détecté. Le Rootkit peut ainsi intercepter les communications entre l’OS et les applications pour les modifier ou les bloquer. Pour quelle raison a-t-il été installé ? Mystère.

Ces deux exemples ne sont pas exceptionnels. Ainsi, Lenovo a dû reconnaître que certains ordinateurs portables, vendus entre septembre et décembre 2015, étaient équipés d’un logiciel commercial baptisé « Superfish ». Officiellement, il devait « aider des clients à découvrir de nouveaux produits en faisant du shopping ». Mais selon des chercheurs d’Errata Security, il s’agissait d’un dangereux mouchard permettant d’injecter des publicités dans des connexions protégées. Pire, il faisait apparemment sauter le chiffrement des données, permettant potentiellement à des pirates de les intercepter

Mais les marques ne sont pas les seules à pratiquer cet espionnage. Selon Kaspersky Lab, un fournisseur d’antivirus basé à Moscou, des services d’espionnage seraient parvenus à intégrer des logiciels espions au cœur même des disques durs produits par Toshiba, Seagate, Western Digital et bien d’autres fabricants…

Philippe Richard

Fillon : sale temps pour les renouvelables !

François Fillon veut améliorer le marché européen du carbone (marché ETS) pour assurer un prix plancher de 30 € la tonne de CO2. Il souhaite faire de l’Europe un moteur de la lutte contre le changement climatique pour convaincre les Etats-Unis, la Chine et les autres pays de respecter ce prix plancher « au moins pour les secteurs les plus émetteurs de CO2 ». Objectif: atteindre le 0% d’énergie fossile le plus rapidement possible. Pour y parvenir, le programme du candidat républicain se repose sur le marché pour développer les énergies renouvelables.

Renforcer le nucléaire français

Pour François Fillon, le nucléaire est « notre filière d’excellence », une filière « propre car peu émettrice de CO2 » et constitue « un atout économique stratégique en terme d’indépendance ». Il est loin d’accepter la réduction de la part du nucléaire dans la production d’électricité de 75% à 50% en 2025, prévue par la loi de transition énergétique pour la croissance verte. Le candidat veut plutôt prolonger la durée d’exploitation des réacteurs existants de 40 à 60 ans, sur autorisation de l’Autorité de sûreté nucléaire (ASN). Il renoncera à la fermeture de la centrale de Fessenheim.

L’ancien Premier ministre de Nicolas Sarkozy souhaite renforcer la recherche sur les réacteurs nucléaires de quatrième génération et développer une gamme de petits et moyens réacteurs nucléaires. Il veut aussi développer la recherche sur le stockage de l’énergie, les réseaux intelligents et les technologies de captage/stockage de CO2.

Vers la fin des subventions aux énergies renouvelables ?

Néanmoins, sur les énergies renouvelables, François Fillon souhaite « sortir des objectifs chiffrés, pour donner la main au marché ». Il compte ainsi supprimer toutes les aides pour les nouvelles installations éoliennes ou solaires. Ces énergies ne doivent pas être « au centre d’un développement massif qui pèse très lourd sur les finances de la collectivité nationale pour une efficacité contestable ». Il propose plultôt de bâtir une filière industrielle en renforçant les pôles de compétitivité et en développant des programmes de recherche « ambitieux ». Pour inciter les Français à investir dans ces énergies renouvelables, l’obligation d’achat sera remplacée par la prolongation du crédit d’impôt.

Les filières éoliennes et solaires devraient donc voir rouge si François Fillon est élu. Le candidat se reposera plutôt sur le développement des énergies renouvelables thermiques, à savoir le bois énergie, les biocarburants, la méthanisation et le solaire thermique. « Les techniques relatives aux pompes à chaleur, au chaufe-eau thermodynamique, à l’incinération des déchets ou encore à l’amélioration des chaudières doivent être améliorées, ce qui est possible pour un coût maîtrisé, tout en créant des emplois», prévient le candidat, sans plus de détails.

Enfin, le candidat Fillon a une vision centralisée de l’énergie. Il privilégiera les appels d’offres pour les projets importants. Il autorisera néanmoins l’auto-consommation pour les particuliers et les entreprises, sans avoir à passer par EDF. Les excédents seront néanmoins vendus à des « prix conformes au marché de l’électricité », sans subventions.

Par Matthieu Combe, journaliste scientifique

Fraude à la CB : le cryptogramme devient dynamique

La dernière étude publiée cet été par l’observatoire de la sécurité des cartes de paiement a confirmé l’augmentation des fraudes à la carte bancaire : + 4,4 % en 2015, représentant 522,7 millions d’euros. Les séjours à l’étranger représentent la principale menace avec 57 % des fraudes commises pour un total de 297,9 millions d’euros.

Pas de quoi être rassuré et de nombreuses personnes le sont encore moins lorsqu’il s’agit de payer sur internet. 81 % des cyberacheteurs utilisent ce moyen de paiement, selon la Fevad. Mais, la moitié d’entre eux environ ressent de l’inquiétude en renseignant son numéro de carte sur un site marchand.

Pour les rassurer, la Société Générale a testé auprès de 500 personnes des cartes bancaires dotées d’un cryptogramme visuel dynamique. L’expérimentation ayant été concluante selon l’établissement, elles sont maintenant proposées à ses clients particuliers. Appelée « Motion code », cette solution a été développée par Oberthur Technologies. Poids lourds mondial des produits, solutions et services logiciels embarqués, OT a réussi à intégrer dans l’épaisseur de la carte un écran e-paper, une antenne NFC et une mini-pile (dont la durée de vie est supérieure à celle de la carte). Résultat, les 3 chiffres du cryptogramme imprimés au dos de la carte sont remplacés par ce petit écran affichant un nouveau code « dynamique » toutes les heures.

Selon Oberthur Technologie, « la solution est rassurante pour le client, puisqu’en cas de piratage des données de la carte bancaire, les 3 chiffres du cryptogramme deviennent rapidement obsolètes, empêchant les fraudeurs de réutiliser les données sur les sites de e-commerce. »

Cette solution est également simple puisqu’elle ne modifie en rien le parcours d’achat sur internet et elle est compatible avec tous les sites e-commerce du monde.

Cette offre vient en complément du Pass sécurité et de la e-carte bleue que proposent la Société Générale. Seul bémol, cette nouvelle solution implique une cotisation annuelle de 12 €, en plus de la cotisation de la carte Visa ou Premier. Or, la réglementation précise que la sécurisation des paiements est une obligation qui incombe aux banques…

Néanmoins, cette solution intéressante devrait être adoptée par d’autres banques. Le 16 novembre, Oberthur Technologies a en effet obtenu l’agrément du groupement des Cartes Bancaires (CB), qui regroupe près de 120 établissements prestataires de services de paiement, pour sa carte de paiement avec cryptogramme dynamique.

Philippe Richard

A la recherche de la glace la plus ancienne sur Terre

Trouver en Antarctique de la glace vieille d’au moins 1,5 million d’années, tel est l’objectif du projet “Beyond EPICA – Oldest Ice“ (BE-OI). Coordonné par l’institut Alfred Wegener en Allemagne, il implique au premier plan le CNRS et l’IPEV. Extraire une carotte de glace aussi ancienne permettrait d’élucider l’un des mystères de la paléoclimatologie. En effet, il y a environ un million d’années, le climat de la Terre a subi un changement de rythme majeur. « À ce jour, nous ne savons toujours pas pourquoi la périodicité des cycles glaciaire-interglaciaires a considérablement changé autour de 900 000 à 1 200 000 ans avant notre ère », précise Jérôme Chappellaz, directeur de recherche au CNRS, représentant l’organisme au sein du consortium BE-OI et responsable d’un des groupes de travail. Alors que les glaciations survenaient tous les 40 000 ans environ, leur fréquence est descendue à une tous les 100 000 ans, comme en témoignent les sédiments marins. Mais le déroulement et les causes de cette modification demeurent énigmatiques, et le resteront sauf si les scientifiques parviennent à disposer de glace datant de cette époque.

Cap-glace

Grâce aux carottes de glace, les scientifiques peuvent obtenir une multitude d’informations sur le fonctionnement du système climatique terrestre, dont l’évolution des gaz à effet de serre dans l’atmosphère. Seules ces archives glaciaires permettent de renseigner directement la composition de l’atmosphère par le passé et donc d’évaluer le rôle joué par les gaz à effet de serre lors de cette transition climatique majeure. Pour y parvenir, le projet BE-OI inclut une batterie de méthodes originales qui visent à déterminer le site où dénicher cette glace si convoitée, comme des mesures géophysiques et des méthodes de datation spécifiques. Il fait aussi appel à des technologies d’accès rapide à la glace profonde, comme Subglacior, une sonde qui date la glace en temps réel, développée par plusieurs laboratoires associés au CNRS2. Deux régions potentiellement intéressantes seront explorées : le secteur du dôme Fuji et une zone appelée « Little Dome C » située à environ 40 kilomètres de Concordia.

Dès l’été austral 2016/2017, les Allemands déploieront un radar aéroporté dans le secteur du Dôme Fuji, dans l’objectif de documenter les couches internes du glacier, caractériser le profil du socle rocheux, déterminer les propriétés physiques de la glace, et voir si des écoulements anormaux se sont produits en ayant mélangé les couches anciennes. De leur côté, des équipes italiennes et britanniques effectueront des mesures radar près de Concordia, avec le même objectif.

Du côté français, les premiers tests en Antarctique de la sonde Subglacior seront également réalisés durant la saison australe 2016/2017. Entièrement inédite, cette sonde doit permettre de mesurer au sein même du glacier, en continu et en temps réel, certains signaux géochimiques permettant d’évaluer l’âge de la glace et la bonne continuité stratigraphique au sein du glacier. Atout indéniable de la sonde, ces informations s’obtiennent sans carottage. « Tout est nouveau dans cette sonde, depuis l’instrument laser embarqué jusqu’à la façon dont on pénètre dans le glacier », indique Jérôme Chappellaz, qui la testera en compagnie de huit membres du projet. Elle sera déployée la saison suivante près de Concordia sur le site considéré comme le plus prometteur par le consortium BE-OI (sur la base des données géophysiques obtenues cette année).

Le CNRS contribue au projet par le déploiement de Subglacior mais aussi par ses expertises sur la modélisation de l’écoulement des glaciers et sur les datations radiochronologiques. Si les données géophysiques sont acquises par des partenaires étrangers, les chercheurs du CNRS sont fortement impliqués dans leur interprétation. « Nous avons développé des outils très performants de modélisation pour interpréter les échos radar, évaluer l’écoulement du glacier au cours du temps, et dater les couches en profondeur », explique Catherine Ritz, directeur de recherche CNRS et responsable de ce volet au sein du consortium BE-OI. Par ailleurs, deux chercheurs du Cerege (CNRS/AMU/IRD/Collège de France) étudieront les copeaux de glace remontés des grandes profondeurs par les outils de reconnaissance rapide, afin de valider les âges estimés par les autres outils.

L’apport financier européen servira en majeure partie à soutenir la logistique complexe et coûteuse au cœur de l’Antarctique. Ainsi l’Institut polaire français, avec son partenaire italien le PNRA, contribue de manière essentielle à cette logistique, dans la mise en place du programme et l’accueil des scientifiques grâce à ses moyens propres et ses personnels. Tous les deux opèrent la base franco-italienne Concordia, lieu de test pour la sonde mais aussi point de départ pour les sites prometteurs situés à « Little Dome C ». Les deux instituts mettront d’ailleurs en place des moyens spécifiques pour créer deux camps isolés afin que les chercheurs puissent étudier ces sites durant plus de deux mois, sans disposer de l’infrastructure habituelle d’une base scientifique.

Enfin, le projet a également pour ambition de mettre en place les expertises nécessaires autour du futur forage profond (en améliorant les technologies actuelles de forage), ainsi que le management scientifique et le plan de financement pour cette prochaine étape du consortium.

Au-delà du consortium européen BE-OI, cette quête de la glace la plus ancienne fait l’objet d’un engagement international. Ainsi des équipes américaines, chinoises, japonaises, russes et australiennes se sont engagées dans cet effort, en se reposant sur leurs propres moyens logistiques en Antarctique. Au niveau international, ces études sont coordonnées par le programme « International Partnerships in Ice Core Sciences ».

Source : cnrs

L’open source en France : un levier de croissance face aux géants américains

Sur le marché français, la part de l’open source a presque triplé en huit ans. Aujourd’hui, il représente 50 000 emplois dans le secteur des logiciels et services associés dont les principaux domaines sont le développement, le conseil et les infrastructures.

Grâce à un écosystème structuré en clusters, qui rassemblent près de 450 entreprises, la France apparaît comme un acteur majeur de l’open source en Europe.

Preuve du dynamisme des entreprises françaises, Linagora, un acteur majeur de cet écosystème, a remporté en octobre les deux principaux appels d’offres portant sur le support de logiciels libres dans les ministères. Le premier est un accord-cadre interministériel qui se repose sur le principe de mutualisation des prestations de support auprès de 42 ministères et autres entités administratives. Le second contrat de support avait à l’origine été mis en place pour favoriser la mise en concurrence et ne pas tout miser sur un unique acteur, précise le site lemagit.fr.

Malgré sa diffusion dans de nombreuses entreprises, l’open source est encore trop souvent confondu avec le logiciel libre. Selon la définition de la Free Software Foundation, le « logiciel libre » représente un mouvement social qui met en avant la liberté de l’utilisateur. L’Open source, qui fait référence à celle de l’Open Source Initiative, s’intéresse plus aux questions pratiques en termes de performance. Les logiciels Open source ont une vocation économique : réduction des coûts de développement, amélioration des codes, collaborations…

La bonne tenue de ce secteur s’explique par la mise en place de différents modèles économiques adaptés aux besoins spécifiques des entreprises. Les modèles les plus connus sont le « support et services » et « l’open-core ». Le premier s’appuie sur la fourniture de services pour les utilisateurs d’un produit open source : support, formation, conseil, travail de personnalisation… Dans le second modèle, le fournisseur de la solution open source offre une version améliorée comme un logiciel commercial propriétaire.  Parmi les fournisseurs qui se servent de ce modèle figurent Cloudera, SugarCRM et MongoDB.

Mais paradoxalement, le secteur open source français a du mal s’imposer dans l’hexagone sans avoir réussi auparavant son développement à l’étranger ! Des projets ont commencé leur carrière à l’étranger, et en particulier aux États-Unis où des capitaux risqueurs n’ont pas hésité à investir massivement. Le meilleur exemple est certainement Docker qui a levé 160 millions de dollars. Cette solution facilite les déploiements d’applications, car elle permet d’embarquer une application dans un conteneur virtuel qui pourra s’exécuter sur n’importe quel serveur. Cette start-up a rapidement noué des partenariats technologiques avec les éditeurs de distributions GNU/Linux comme Canonical (Ubuntu), Red Hat (Fedora) ainsi qu’avec OpenStack. En France, Alter Way a été l’une des premières SSII à signer un accord de partenariat avec Solomon Hykes, le fondateur de Docker.

Par Philippe Richard

L’origine du syndrome des cheveux incoiffables identifiée

Le syndrome des cheveux incoiffables est une maladie rare des cheveux dont la prévalence est mal connue. Elle débute généralement pendant l’enfance entre 3 mois et 12 ans. Secs et désordonnés, les cheveux des enfants atteints deviennent progressivement blonds argentés ou couleur paille. Les cheveux se dressent sur le cuir chevelu et poussent dans tous les sens. Il est impossible de les coiffer ou de les aplatir avec un peigne. En détail, l’analyse microscopique à balayage révèle une gouttière longitudinale sur toute leur longueur, avec une section triangulaire ou réniforme. Ce syndrome n’est toutefois pas invalidant et connaît une amélioration spontanée à la fin de l’enfance.

Les chercheurs, en collaboration avec une équipe de l’Institut de génétique humaine de l’Université de Bonn et des médecins dermatologues ou généticiens de 7 pays différents, ont découvert que la maladie est due à des mutations récessives d’un trio de gènes qui concourent à la formation du cheveu : le gène codant pour un de ses composants structuraux, la trichohyaline (TCHH) ; ou deux gènes à l’origine d’enzymes qui la prennent pour cible à tour de rôle : la peptidyl-arginine désiminase 3 (PAD3) et la transglutaminase 3 (TGase3). Par ailleurs, les chercheurs ont également montré, chez la souris, que l’inactivation du gène Pad3 altère la forme du pelage et des moustaches des animaux, comme cela avait déjà été rapporté concernant des souris dépourvues de TGase3.

En conclusion, l’absence de TCHH ou le défaut de la cascade biochimique qui aboutit à la rigidification de la tige pilaire sont responsables des anomalies de la formation du cheveu caractéristiques du syndrome des cheveux incoiffables ou « pili trianguli et canaliculi ». « Ces résultats, en plus de décrire l’origine moléculaire de la maladie et de permettre un meilleur diagnostic, apportent de nouvelles connaissances sur le cheveu et les mécanismes de sa formation » conclut Michel Simon, directeur de recherche à l’Inserm.

En savoir plus :
Bien qu’extrêmement rare, le syndrome est connu depuis longtemps. Il a acquis sa notoriété par le célèbre personnage littéraire « Struwwelpeter » (Pierre L’ébouriffé) créé en 1845 par l’auteur d’histoires pour enfants Heinrich Hoffmann. Le livre a été traduit par la suite en anglais par Mark Twain dans « Slovenly Peter ». Bien qu’il ne l’ait jamais dit, on peut même penser que le réalisateur Tim Burton s’en est inspiré pour son film Edward aux mains d’argent (Edward Scissorhands).

 Source : cnrs

Découverte record de pétrole aux Texas

20 mds de barils

Le schiste de Wolfcamp dans la partie du bassin Midland au Texas contient une moyenne estimée de 20 milliards de barils de pétrole, 453 mds m3 de gaz naturel associé, selon l’USGS. L’estimation du pétrole continu dans l’évaluation des schistes de Wolfcamp du bassin Midland est près de trois fois plus grande que celle de Bakken-Three Forks évaluée par l’USGS de 2013, ce qui en fait la plus grande accumulation de pétrole continue découverte aux États-Unis à ce jour. « Le fait qu’il s’agisse de la plus grande évaluation du pétrole continu que nous ayons jamais découverte montre simplement que, même dans les régions qui ont produit des milliards de barils de pétrole, il y a toujours le potentiel d’en trouver des milliards de plus », a déclaré Walter Guidroz, Coordinateur du Programme des ressources énergétiques de l’USGS. «Les changements technologiques et les pratiques de l’industrie peuvent avoir des effets importants sur les ressources qui sont techniquement récupérables, et c’est pourquoi nous continuons à effectuer des évaluations des ressources partout aux États-Unis et dans le monde », explique-t-il.

Midland Basin Map
Légende : L’image montre un aperçu du bassin Midland et des unités d’évaluation sur une carte du comté du Texas

Un bassin riche en hydrocarbures

Depuis les années 1980, le pétrole a été produit en utilisant la technique traditionnelle des forages verticaux. Cependant, plus récemment, les sociétés pétrolières et gazières ont utilisé le forage horizontal et la fracturation hydraulique, et plus de 3 000 puits horizontaux ont été forés dans la section Wolfcamp du bassin Midland. Le schiste de Wolfcamp est également présent dans le bassin du Delaware mais n’a pas été inclus dans cette évaluation ce qui pourrait signifier à terme de nouvelles découvertes. La province du bassin permien comprend une série de formations géologiques dans le Texas occidental et le sud du Nouveau-Mexique. C’est l’une des zones les plus productives d’hydrocarbures des États-Unis.

Le pétrole et le gaz continus sont dispersés dans toute la formation géologique plutôt que comme des occurrences discrètes et localisées, comme dans les accumulations classiques. De ce fait, les ressources continues exigent généralement des techniques spéciales de forage et de récupération, telles que la fracturation hydraulique. Cependant, l’USGS précise qu’il n’a pas été évalué s’il est rentable de produire ces ressources au cours actuel du baril de brut.

Romain Chicheportiche

Un enduit à base d’aérogel pour protéger les façades haussmanniennes

L’amélioration de l’isolation des bâtis anciens

Respecter la réglementation concernant l’isolation énergétique lors du ravalement apparaît toujours difficile à réaliser quand il s’agit d’immeubles anciens. Cet obstacle est toutefois en passe d’être géré grâce aux solutions désormais proposées. C’est le cas d’un nouvel enduit mis au point par la société Fixit et qui vient d’être expérimenté sur un bâti haussmannien à Paris. L’immeuble parisien a ainsi testé cette solution sur une partie de sa façade, sous le contrôle d’un architecte des Monuments historiques.

L’enduit a été créé pour être projeté sur les façades classées ne permettant pas la mise en place d’une isolation par l’extérieur. Son premier atout est de conserver tous les détails architecturaux.

Une isolation à base de granulats d’aérogel

Le produit se compose de granulats d’aérogel, d’agrégats légers minéraux, de chaux hydraulique naturelle, de ciment blanc et d’hydroxyde de carbone. Cet ensemble est projeté sur la façade jusqu’à une épaisseur de 8 cm.

L’isolant présente des qualités équivalentes à une solution traditionnelle, permettant de protéger le bâtiment en lui offrant de nouvelles performances thermiques et environnementales. Les déperditions sont limitées, garantissant des économies d’énergie. Dans le même temps, il dispose d’une structure perspirante pour laisser passer la vapeur d’eau. Ainsi, la surface en pierre est protégée, grâce au maintien de bonnes conditions hygrométriques.

Source : eti-construction

Silent Space, anti-bruit mobile et connecté pour les open spaces

Quiconque a déjà travaillé dans un open space connaît les affres du bruit ambiant et des conversations menées par les collègues à voix (trop) haute : difficulté de concentration, stress… Silent Space se propose de mettre en sourdine ces phénomènes perturbateurs. Ce dispositif a été conçu par la société Orféa Acoustique, basée à Brive, dont le domaine d’activité depuis 1997 se réfère à l’étude et au traitement du bruit dans l’industrie, le bâtiment ou encore les transports.

IMG_6009m«Brouiller» le bruit régnant dans les espaces de travail ouverts est une technique éprouvée depuis les années 70, en particulier en Amérique du Nord. Silent Space n’innove pas en l’espèce car il respecte le même principe de masquage sonore : il émet un son neutre, un «bruit rose», qui réduit ce qu’Orféa Acoustique appelle le rayon de distraction, autrement dit la zone où la parole humaine est intelligible. Et quand un employé ne comprend plus ce qui se dit dans les conversations distantes, sa concentration s’améliore. La solution peut être utilisée en complément d’autres procédés. «Les matériaux absorbants diminuant la réverbération du son, que nous-mêmes prescrivons, montrent en effet leur limite car les employés se disent toujours gênés par les conversations, explique Frédéric Lafage, le fondateur. Si l’environnement acoustique est trop dégradé, notre produit n’accomplit pas de miracles toutefois. »

Là où Silent Space se démarque, c’est qu’il est capable de s’adapter aux transformations éventuelles de l’espace de travail. «Les bureaux sont susceptibles d’être réorganisés – déménagement des services d’un étage à l’autre, cloisonnement ou décloisonnement – ou le nombre de salariés peut varier, précise Frédéric Lafage. Le système de masquage sonore existant, fixé dans le faux plafond, ne correspond plus au nouvel agencement. D’autre part, l’entreprise, la plupart du temps locataire, ne peut engager ces travaux de réaménagement. D’où l’idée de créer un système mobile qui évolue en fonction des besoins.» En l’occurrence, les diffuseurs de Silent Space s’installent sur des pieds-supports et s’alimentent via une prise électrique standard. La consommation électrique n’est que de 2 watts par unité. L’intensité et le spectre du signal sont modulés automatiquement, en fonction de l’horaire et du bruit ambiant, et peuvent aussi être individualisés, si un employé porte une prothèse auditive par exemple.

Bientôt dans les hôpitaux ou les logements ?

L’indicateur lumineux est un autre attribut différenciant qui se veut un outil de prévention. «Nous souhaitions que les employés puissent être conscients du bruit qu’ils produisent, commente Frédéric Lafage. Nous avons donc ajouté une LED dans chaque diffuseur, dont les codes-couleur (bleu, jaune, orange), visibles par tous, sont représentatifs d’une situation acceptable ou d’une situation gênante.» Enfin, et ce n’est pas une surprise à notre époque, Silent Space est connecté, via Bluetooth. «L’application mobile enregistre un historique des niveaux sonores et rend compte de l’évolution sur une période d’une semaine, d’une trimestre ou d’une année, décrit Frédéric Lafage. Cette mesure objective favorise le dialogue entre les managers, les salariés ou leurs représentants, le CHSCT, le médecin du travail… Elle permet d’anticiper et d’agir, comme de cloisonner en partie l’espace.»

La première version de Silent Space a été mise en œuvre à partir de 2014. La deuxième version, complétée avec la LED et l’application mobile, est déployée depuis septembre 2016 chez quelques clients, dont des grands groupes comme Auchan et Enedis, et aussi à l’international. Dans sa brochure, Orféa Acoustique estime que le retour sur investissement est inférieur à 5 mois, sur la base d’un budget de 5000 € HT (15 éléments pour 20 personnes) et d’un gain de productivité de 2%. Les entreprises ne sont pas les seuls débouchés possibles. «Nous avons des pistes dans le milieu hospitalier et dans le marché résidentiel, qui pourraient se concrétiser en 2017/2018» déclare Frédéric Lafage. D’autres sont plus pressés : Cambridge Sound Management, spécialiste américain du masquage sonore, a déjà financé via Kickstarter son produit Nightingale, prévu pour la chambre à coucher.

Frédéric Monflier

L’environnement en campagne électorale ?

« Les chiffres sont assez clairs : il y a une majorité culturelle aujourd’hui en France pour mettre en place les politiques nécessaires à la transition, assure Pascal Canfin, Directeur du WWF France.

C’est le socle qui permet d’avancer dans la bonne direction ». Et pour cause, contrairement à ce que les débats partisans laisseraient penser, les Français partagent une sensibilité aux problématiques environnementales, quelle que soit leur sensibilité politique.

Le sondage, réalisé du 18 au 24 octobre 2016 sur un échantillon représentatif de la population française de 1.005 personnes, montre que certains sujets rencontrent un véritable consensus. C’est notamment le cas des engagements pris par la France lors de la COP21 en matière de réduction des gaz à effet de serre. Mais aussi des grands objectifs de la loi de transition énergétique pour la croissance verte. Ainsi, quelle que soit leur orientation politique, 70% des Français souhaitent que les objectifs de la COP21 soient respectés, 87% souhaitent que l’objectif de 30% d’énergies renouvelables d’ici 2030 soit atteint et 86% veulent réduire la consommation d’énergie de 20% en France. Le consensus est également fort concernant le gaz de schiste et les OGM. Ainsi, 78% des Français sont contre les gaz de schistes et 84% contre les OGM.

Deux sujets font moins consensus : nucléaire et diesel

Sur la question sensible du nucléaire, le consensus est moins net. Au global, 72% des personnes interrogées sont favorables à l’objectif de réduction de la part du nucléaire dans la production d’électricité de 75% à 50% en 2025. Mais seulement 66% des sympathisants de droite sont pour, contre 83% pour les sympathisants de gauche. Une position qui se vérifie lors de la primaire Républicaine. En effet, le nucléaire a été le seul sujet environnemental abordé lors du troisième débat : François Fillon s’est clairement positionné contre la réduction de la part du nucléaire. En revanche, dans le contexte budgétaire actuel, 77% des Français, toutes couleurs politiques confondues, veulent que le prochain gouvernement développe en priorité les énergies renouvelables, contre 11% pour le nucléaire.

Enfin, seulement 53% des Français sont pour des restrictions supplémentaires contre le diesel. Au-delà des considérations partisanes, les positions dépendent avant tout de la zone géographique. 68% des Parisiens y sont favorables, contre 52% des habitants de villes de province et 45% des ruraux.

Par Matthieu Combe, journaliste scientifique

Revue de presse anglophone #3 : Trump, réalité virtuelle et architecture, données privées et cancer du poumon…

Trump vu par les Américains

trumpComment Donald Trump va-t-il se saisir de la problématique énergétique ? Eléments de réponse dans cet article : COP21, Apple, Silicon Valley.
Source : Techcrunch

 

La réalité augmentée, mine d’or pour les architectes

realite-augmentee-ecran-transparent

Quel est l’intérêt pour les architectes d’utiliser la réalité virtuelle pour développer leurs projets ? Une des réponse, développée dans cet article, est la possibilité nouvelle pour les architectes de proposer à leurs clients des supports mieux adaptés à la compréhension qu’ils ont desdits projets.
Source : Wired

 

Le cerveau « lit » le portugais et l’anglais de la même façon

brain-decodes

Une équipe de recherche internationale dirigée par la Carnegie Mellon University a constaté que lorsque le cerveau « lit » ou décode une phrase en anglais ou en portugais, ses motifs d’activation neuronale sont les mêmes.
Source : Sciencedirect

 

Repérer le cancer du poumon grâce à votre historique de recherche

téléchargement

Vos recherches sur internet pourraient aider les chercheurs à détecter de manière précoce, chez vous, un développement du cancer des poumons. En effet, l’apparition des premiers symptômes, corrélés à des recherches web faites par le patient pour y remédier, pourrait permettre de repérer les malades un an avant la mise en évidence actuelle de ce cancer.
Source : Engadget

 

La réalité virtuelle pour lutter contre l’obésité ?

obese

La réalité virtuelle pour lutter contre l’obésité ? La capacité de la VR à leurrer le cerveau en termes d’appétit et de goût des aliments pourrait aider les personnes atteintes d’obésité à mener à bien leurs régimes avec plus de réussite.
Source : CNN

Revue du web #97 : les vidéos les plus étonnantes du mois

Hyperloop : simulation d’un voyage

Vous êtes-vous déjà demandé à quoi pourrait ressembler un voyage en Hyperloop ? C’est l’occasion ! Hyperloop One nous propose une simulation d’un voyage dans son train subsonique.

Ce que perçoit l’autopilot d’une Tesla

Elon Musk, encore lui, a annoncé que ses voitures Tesla seraient 100% autonomes dès 2018. Mais comment l’intelligence artificielle appréhende-t-elle son environnement ?

La voiture électrique la plus rapide du monde

Une start-up chinoise (NextEV) lance sa première supercar électrique : la Nio EP9 ! Avec ses 1300 chevaux et sa vitesse de pointe de 313 km/h, elle a déjà battu deux records de vitesse (circuit du Nürburgring en Allemagne, et circuit Paul Ricard en France).

Que se passe-t-il quand on chatouille un rat ?

Les chercheurs ont parfois des lubies étranges… Mais cette expérience est très sérieuse. Le but : mieux comprendre le mécanisme cérébral.

Visiter Mars en 27 secondes

L’astronome Damian Peach a compilé une série d’images prises entre le 4 et le 18 juin qui permettent d’admirer 70% de la planète rouge. On peut apercevoir notamment le volcan Syrtis Major, les calottes polaires et l’immense volcan Olympus Mons, le plus imposant du système solaire.

 

Des singes paralysés qui peuvent à nouveau marcher

Voilà des travaux très prometteurs. Grâce à une « interface cerveau-moelle épinière », des singes ont retrouvé le contrôle de leurs pattes.

Sur la vidéo, vous pourrez observer que durant les 5 premières secondes, le dispositif BSI n’est pas activé et le singe ne parvient pas à bouger sa patte droite. Dès que les implants sont activés, l’animal recouvre instantanément toutes ses capacités.

Il est temps de visiter l’ISS !

Offrez-vous une visite complète de la Station spatiale internationale (ISS).

Un robot en forme de ballon (qui marche sur l’eau)

Et un nouveau robot, un ! Ce mois-ci, il a une allure inhabituelle. Ballu est un robot bipède dont le corps se résume à 3 ballons remplis d’helium. Capable de monter et descendre des marches, de danser et même de marcher sur l’eau, il cache une faiblesse. Nous vous laissons deviner.

Non, vous ne voyez pas ?
Il déteste le vent.

Par Iris. T