Dilater le temps pour mieux prédire les évènements extrêmes

Cette technique, appliquée pour le moment à la photonique, pourrait aider à la prédiction de vagues scélérates à la surface des océans ou d’autres événements naturels extrêmes. Ces travaux, menés en collaboration avec des chercheurs finlandais, irlandais et canadiens, sont publiés dans la revue Nature Communications du 19 décembre 2016.

Les instabilités et le chaos dans les systèmes physiques sont des phénomènes aléatoires naturels, généralement très sensibles aux fluctuations des conditions initiales, si petites soient-elles. Pour comprendre ces phénomènes complexes et omniprésents dans la nature, les chercheurs ont récemment eu recours à des expériences impliquant la propagation d’ondes lumineuses et menant à la formation d’impulsions de durée extrêmement brève, de l’ordre de la picoseconde (un millionième de millionième de seconde). En effet, l’étude de ces phénomènes en optique présente l’avantage de se faire sur des échelles de temps très courtes, permettant ainsi de mesurer un échantillon représentatif d’événements et de caractériser de manière fiable ses propriétés statistiques. Cependant, bien qu’ayant permis des progrès sur la compréhension des dynamiques liées aux événements extrêmes, ces études ont été faites jusqu’à présent de manière indirecte, en raison du temps de réponse des détecteurs actuels, trop lents pour capturer ces événements rares.

Des expériences récentes menées à l’Institut Femto-ST à Besançon ont permis de dépasser cette limite. Basée sur le principe d’une lentille temporelle qui dilate l’échelle de temps d’un facteur 100 tout en augmentant la résolution, cette nouvelle méthode a permis aux chercheurs d’observer en temps réel des impulsions géantes de lumière, avec une intensité plus de 1000 fois supérieure à celle des fluctuations initiales de la source lumineuse, un laser. Ils ont utilisé pour cela un effet papillon connu en optique sous le nom d’instabilité modulationnelle qui amplifie, dans une fibre optique de télécommunications, le faible bruit intrinsèquement présent dans le faisceau laser.

Ces résultats ont une portée qui va bien au-delà du domaine de la photonique, puisque ce type de bruit de fond est généralement considéré comme l’un des mécanismes qui pourrait être à l’origine des vagues scélérates destructrices qui  apparaissent de manière soudaine à la surface des océans, mais également de bien d’autres systèmes comme la dynamique du plasma dans l’univers primitif. La capacité à dilater les échelles de temps en optique ouvre donc une nouvelle voie pour l’exploration et la compréhension des nombreux systèmes de la nature pour lesquels il est encore très difficile d’étudier les instabilités de manière directe et ainsi d’obtenir des échantillons statistiques fiables.

Ces travaux impliquent des chercheurs du laboratoire Femto-ST: Franche-Comté électronique mécanique thermique et optique – sciences et technologies (CNRS/Université Franche-Comté/Université de technologie de Belfort-Montbéliard/Ecole Nationale Supérieure de Mécanique et des Microtechniques de Besançon). L’UTMB, l’ENSMM et l’université de Franche-Comté appartiennent à la communauté d’universités et d’établissements « Université Bourgogne Franche-Comté ».

Source : cnrs

Les plus importantes cyberattaques de 2016

Cette multiplication de ces fuites de données démontre que de nombreuses entreprises, fussent-elles des poids lourds dans leur secteur d’activité, ne disposent pas d’un niveau de sécurité très élevé…

Février

S’introduire via la bande passante est un grand classique que la Banque centrale du Bangladesh a vécu à ses dépens . Les pirates ne l’ont pas attaqué directement ; ils ont réussi à accéder à l’interface utilisateur SWIFT pour envoyer de fausses demandes de virements. Depuis vingt ans, ce réseau est utilisé par les banques pour transmettre quotidiennement des instructions de paiement. Bilan : 72 millions d’euros volés.

Mai

En mai, fais ce qu’il te plaît ! Un pirate informatique russe du nom de « peace_of_mind » l’a appliqué à la lettre en s’attaquant à trois importants sites. Il a dérobé 360 millions d’adresses et 427 millions de mots de passe appartenant à des utilisateurs de MySpace. Il a également mis la main sur un fichier de 167 millions de comptes du réseau social professionnel LinkedIn (e-mails et mots de passe). Quant au site de microblogging Tumblr, quelque 45 millions de comptes ont été récupérés.

Toutes ces précieuses données ont ensuite été mises en vente sur le DarkNet.

Ce pirate s’appellerait Evgueni Nikulin. Ce jeune moscovite de 29 ans a été arrêté par le FBI.

Juin

TheDAO (Decentralized Autonomous Organization) est un fonds d’investissement participatif fonctionnant sur la Blockchain d’Ethereum. En quelques minutes, ce sont plus de 50 millions de dollars (sur les 150 de capital) qui ont été dérobés. La technique utilisée était celle de l’appel récursif, qui consiste à envoyer une fonction spécifique en boucle pour transférer la crypto monnaie (Bitcoin).

Septembre

Yahoo ! a battu deux records ! Premièrement, celui du plus gros piratage de l’année avec le vol de 500 millions de comptes. Deuxièmement, celui du délai entre l’infiltration de son réseau et l’annonce officielle : le site a été « ciblé » en 2014, mais il ne l’a reconnu qu’en septembre 2016… Ce même mois, OVH a été noyé sous un déluge de requêtes sans précédent. Les serveurs de cet hébergeur roubaisien n’ont pas résisté aux attaques (entre le 18 et 23 septembre) avec une pointe à 1 térabit par seconde de trafic malveillant. Cette attaque DdoS (denial of service attack) a été lancée par un botnet de 150 000 caméras de sécurité qui avaient été infectées et détournées par des pirates.

Octobre

Le gestionnaire de noms de domaine américain Dyn a subi le même genre d’attaque qu’OVH. Conséquence : l’accès à de nombreux sites (Netflix, Spotify, Airbnb, Twitter, PayPal ou encore le Playstation network de Sony) était impossible. Là aussi, les pirates ont détourné des objets connectés, notamment des caméras de surveillance, pour concentrer leur puissance de feu sur cette cible.

Le même mois, Dailymotion a été victime d’un piratage de sa base de données de 85 millions de comptes.

Novembre

Après Ashley Madison en 2015, c’est au tour de AdultFriendFinder d’être ciblé par des pirates qui ont récupéré 400 millions de comptes. L’attaque dont a été victime Vinci a été plus originale. Il ne s’agit pas à proprement parlé d’un piratage, mais d’une opération s’appuyant sur de l’ingénierie sociale. Des escrocs se sont fait passer pour ce groupe du CAC 40 et ont envoyé un faux communiqué de presse à des médias. Dans ce document, ils affirmaient que des irrégularités comptables sur quelque 3,5 milliards d’euros venaient d’être découvertes à la suite d’un audit interne. Vinci a démenti, mais le mal était fait : l’action a perdu plus de 18 % pendant plusieurs minutes.

Décembre

Yahoo ! fait de nouveau la Une des médias en déclarant avoir été victime d’une cyberattaque en 2013. Celle-ci concerne les données de « plus d’un milliard » d’utilisateurs ; leurs noms, numéros de téléphone ou dates de naissance ont pu être dérobés, ainsi que leurs mots de passe. Lorsque le site a révélé ce piratage le 14 décembre dernier, on ne savait pas si ce « milliard » venait en plus des 500 millions d’informations dérobées en 2014.

Par Philippe Richard

Suède: prime de 5000 dollars pour l’acquisition d’une batterie domestique

La Suède produit dès à présent 57% de son électricité à partir de sources renouvelables. Le reste avec l’énergie atomique. Mais selon Anne Vadasz Nilsson, DG de l’agence suèdoise de surveillance des marchés de l’énergie, a déclaré à l’agence Reuters que « le nucléaire est une énergie coûteuse compte-tenu des régulations en matière de sûreté et du financement de la gestion à long-terme des déchets radioactifs, pour ne mentionner que ces deux éléments« .

En juin 2016 des partis politiques suédois de premier plan ont convergé pour parvenir à 100% d’énergie renouvelable à horizon 2040. Cet objectif est tout à fait réalisable selon Anne Vadasz Nilsson. La prime de 5000 dollars qui sera en Suède versée aux acquéreurs de batteries domestiques s’inscrit dans cette perspective.

Le média spécialisé australien RenewEconomy (« Graph of the day« ) a récemment effectué un comparatif du coût du kWh de stockage des différentes batteries. Le résultat est sans appel, le Tesla Powerwall (version 1 et 2) pulvérise la concurrence. Et en outre intègre un onduleur. Sur le marché australien le solaire en bouteille serait dès à présent meilleur marché que l’électricité provenant du réseau, selon RenewEconomy.

rsz_image_29-11-2016_at_1026_am (1) (1)

« Les Powerwall de Tesla seront populaires en Suède », titre le média spécialisé Electrik.co. En effet Tesla va vendre les Powerwall 2 pour 61.000 couronnes suédoises (environ 6600 dollars américains), auquel il faut ajouter environ 1300 dollars pour l’installation. Autrement dit, en intégrant la prime gouvernementale de 5000 dollars, la batterie Powerwall 2, dont la capacité de stockage est de 14 kWh, sera disponible pour moins de 3000 dollars, installation comprise ! C’est à dire 214 dollars (204 euros) par kWh de stockage.

La France n’a pas un objectif aussi clair et ambitieux que la Suède en matière d’électricité renouvelable. Alors que François Hollande a été élu en promettant de réduire la part du nucléaire de 75% à 50%, pas un seul réacteur nucléaire n’a été fermé, ce qui bien entendu suscite l’ire des ONG environnementales.

Ondine Suavet, DG de la start-up Mylight Systems, contactée par Techniques-ingénieur.fr, est sceptique concernant le marché de la batterie en France dans le court-terme: « cette batterie Tesla n’est actuellement pas distribuée en France car ce marché n’est pas considéré comme stratégique. Il n’y a aucun réseau de distribution pour ce produit en France, ni de réseaux d’installation agréés. Dans les pays où l’offre existe, seuls un installateur agréé peut poser ces batteries. Si nous faisons le parallèle avec le Modèle 3 de la voiture Tesla, il y a 3 ans entre l’ouverture des pré-commande et la livraison. »  Sur le site MaisonEtEnergie.info cette ingénieure innovante a d’ailleurs publié le 13 décembre 2016 une tribune intitulée « Des batteries pour stocker l’énergie solaire : aubaine ou arnaque ?« .

Une alerte afin que les acquéreurs potentiels soient correctement informés et ainsi ne soient pas bernés par des vendeurs peu scrupuleux de l’éco-éthique. Et de l’éthique tout court.

En Suède, la fête la plus importante du pays a lieu à l’occasion du solstice d’été, avec des danses circulaires autour de poteaux sacrés d’origine païenne symbolisant la course du temps solaire.

Ce pays scandinave, pourtant moins ensoleillé que la France, montre-il la voie à suivre pour le pays du coq gaulois ? 

Olivier Daniélo

Revue de presse anglophone #4 : la smart santé à travers le monde

Quelles technologies pour la smart santé ?

smartwatch-250Selon le dernier rapport Frost and Sullivan, la multiplication des données de santé et leur stockage permet d’imaginer sur le court terme un développement important de l’autodiagnostic. Focus sur les technologies qui vont rendre possible la véritable « santé intelligente ».
Sourcewww.innovationintextiles.com

Des tests VIH disponibles sur une clé USB ?

cle-usb-250Des chercheurs ont développé une test rapide (30 minutes), constitué d’un analyseur de Ph qui communique à une puce des données sur la variation de Ph de l’échantillon. Cette variation, associée à la production d’hydrogène, permet d’établir la séropositivité (ou séronégativité) du sang testé, envoyant l’information automatiquement sur une clé USB.
Source : blogs.discovermagazine.com

Quel avenir pour les soins de santé ?

avenir-250Daniel Kraft explique comment l’IA, la réalité augmentée et l’adressage des médicaments vont complètement changer l’avenir des soins de santé : drones pour livrer les médicaments, nano-adressage…
Source : www.theguardian.com

Votre iphone meilleur partenaire de votre santé

iphone-250Le développement des applications smartphone de santé a changé la manière d’envisager les parcours de santé, avec une constante : l’implication du patient devient un passage obligé.
Source : www.nytimes.com/

L’hôpital public pierre de voûte des smart santé ?

hopital-250Les projets d’implémentation des technologies de santé connectée se multiplient dans les réseaux de santé publics.
Source : www.financialexpress.com

 

 

 

Médecine: l’ère de l’intelligence artificielle et des robots

Le futur du diagnostic est en construction. L’intelligence artificielle (IA) Watson, développée par IBM, a des applications dans un vaste champ d’applications. En médecine, elle permet d’améliorer la précision des diagnostics médicaux. Fin octobre, Watson a signé une performance historique. Lors d’une expérience menée à l’école de médecine de l’Université de Caroline du Nord, cette IA a confirmé 99% des traitements prescrits par des cancérologues concernant 1 000 cas de cancer. Mais elle a surtout trouvé 30% d’options thérapeutiques de plus que les médecins.

Cette prouesse provient du deep learning (apprentissage statistique profond). Watson analyse et apprend des milliers d’études publiées chaque année en cancérologie. Il peut ainsi prendre en compte toutes les recherches ou essais cliniques, chose que ne peut pas faire même le meilleur médecin. Par ailleurs, il peut intégrer l’ensemble des données contenues dans le dossier d’un patient pour un diagnostic personnalisé et déterminer les options de traitement les plus adaptées. Le déploiement à grande échelle d’une telle intelligence artificielle permettrait de réduire les erreurs de diagnostics et de recentrer le rôle du médecin sur la prise de décision et la relation avec le patient.

Plus proche du grand public, tout le monde connait Siri, l’intelligence artificielle disponible sur iPhone. Désormais, vous allez découvrir MedWhat, l’intelligence artificielle développée par des médecins de l’université californienne de Stanford. Disponible sur Internet, elle répond à toutes les questions portant sur la santé des utilisateurs, via un robot conversationnel.

Des robots dans tous les hôpitaux?

Le futur de la médecine passe aussi par la robotique. Robots chirurgiens et infirmiers se développent. Le marché des robots spécialisés dans la chirurgie est aujourd’hui dominé par le pionnier Intuitive Surgical et son robot Da Vinci. Piloté par le chirurgien, il offre un outil d’une extrême précision doté d’une caméra endoscopique et de 3 bras manipulant des instruments chirurgicaux. Plus de 3.600 robots Da Vinci ont été vendus dans le monde. Mais il y a aussi le robot Rosa de Medtech pour la chirurgie du cerveau et de la colonne vertébrale, le robot miniature de Virtual Incision pour les chirurgies abdominales, ou encore le futur robot de Verb Surgical…

Reuters relate qu’une intervention chirurgicale sur trois serait réalisée par des robots aux Etats-Unis dans 5 ans. Soit deux fois plus qu’en 2016. Les entreprises développeront aussi leurs ventes en Europe, Inde et Chine. Mais les chirurgiens ne disparaîtront pas pour autant. Ils s’installeront de plus en plus aux commandes d’un ordinateur. Ils guideront alors des bras robotisés qui manipuleront avec une précision micrométrique les instruments chirurgicaux.

Du côté de l’aide aux infirmiers à l’hôpital, Panasonic a créé le robot Hospi, un transporteur de médicaments autonome et sécurisé.  Il peut transporter jusqu’à 20 kg de produits, documents et instruments. D’une autonomie d’environ 9 heures, il se déplace jusqu’à 3,6 km/h. Avec sa tête d’ours, Robear est un robot qui aide les personnes invalides et âgées à se déplacer. Il y a aussi le robot Terapio, en développement au Japon, qui suivra les infirmières partout dans l’hôpital et les assistera dans leurs tâches quotidiennes.

Ces robots coûtent encore très cher. Par exemple, Da Vinci est vendu près de 1.5 millions de dollars. Mais les nouveaux robots sont déjà plus abordables : Robear tourne autour de 200.000 dollars, Hospi près de 100.000 dollars. Les développeurs de la prochaine vague de robots redoublent d’efforts pour développer rapidement des solutions abordables, plus agiles et capables d’exécuter plus de types de procédures. Pour faire que bientôt, robots, médecins et infirmiers travaillent main dans la main.

Par Matthieu Combe, journaliste scientifique

Le boom de l’autodiagnostic et de l’e-santé

Vous avez des doutes sur une pathologie, mais ne pouvez ou ne voulez pas vous rendre dans un laboratoire médical? Le test de grossesse n’est plus le seul kit vendu en pharmacie permettant l’autodiagnostic. Aujourd’hui, il est possible de trouver de nombreux kits en pharmacie ou de se les faire envoyer à domicile pour réaliser soi-même des autotests. Infection urinaire, ménopause, détection de cannabis, tétanos, intolérance au gluten, carence en fer, niveau de cholestérol… Voici un panorama de tests réalisables chez soi grâce à une simple goutte de sang ou d’urine. Il est même possible de mesurer la concentration en spermatozoïdes dans une goutte de sperme pour vérifier sa fertilité. Le résultat, sous forme de bandes colorées, vous est délivré en quelques minutes.

Ces autotests se développent et s’attaquent aux pandémies. Depuis septembre 2015, l’autotest BioSURE HIV Self Test, disponible dans un certain nombre de pays développés, permet ainsi d’identifier l’infection par le virus du sida en 15 minutes. Plus récemment, des chercheurs britanniques ont mis au point une clé USB capable de détecter le taux de présence du VIH dans une goutte de sang. Encore à l’état de prototype, cette clé USB donne des résultats fiables à 95% en seulement 30 minutes. Les chercheurs expliquent dans la revue Scientific Reports qu’ils espèrent développer ce dispositif pour les pays pauvres et l’étendre à d’autres virus, comme celui de l’hépatite. Dans quelques années, on peut donc imaginer qu’il sera aussi facile d’autodiagnostiquer un certain nombre de maladies ou même de cancers.

Pour des résultats plus poussés sur les maladies chroniques, les laboratoires d’analyses médicales pourraient rapidement emboîter le pas. La start-up américaine Everlywell envoie ainsi des kits à ses clients pour mesurer le taux de testostérone ou de cholestérol, la pollution par les métaux lourds, identifier des allergies… Les clients prélèvent eux-même les échantillons et les envoient à un laboratoire partenaire. Les résultats sont ensuite disponibles en ligne en moins d’une semaine. En France, les kits de prélèvement fournis par Kudzu Science vont aussi loin. A partir d’une mèche de cheveux, l’entreprise analyse votre exposition aux pesticides, au bisphénol A, aux PCB, aux métaux lourds, au mercure, au plomb, aux perturbateurs endocriniens… Mais elle permet aussi de faire un bilan de sa consommation d’alcool ou de tabac.

Des applications de santé connectée

Au-delà des auto-tests, les applications de suivi avec l’aide d’objets connectés fleurissent sur smartphones. Elles permettent de suivre son poids, son alimentation, son sommeil, son activité sportive, sa tension, son pouls, sa température… Et même sa vision ou son audition.

Les chercheurs commencent à s’intéresser à ces objets. Si dans la majorité des cas, il ne s’agit pas de dispositifs médicaux, ils peuvent avoir un intérêt médical en prévention de maladies ou chez des personnes souffrant de maladies chroniques. L’objectif des chercheurs est donc de définir les populations pouvant en bénéficier réellement et dans quelles conditions d’utilisation.
Cette question était au centre du premier congrès international e-Health Research organisé par l’Inserm à Paris en octobre 2016. Dans un article de Ticsanté, Elisabete Weiderpass, présidente du comité scientifique du congrès, souligne l’intérêt de ces nouvelles applications. La population des pays développés étant vieillissante, le nombre de personnes atteintes de maladies chroniques augmente sans cesse. Compte tenu des coûts élevés de suivi de ces patients, il faut développer des méthodes alternatives de suivi. « On avance à petits pas, mais dans l’avenir les patients devront avoir plus d’autonomie pour gérer leur santé, avec l’aide non seulement de médecins mais aussi d’infirmières spécialisées, voire de systèmes informatiques », et l’e-santé deviendra centrale », juge-t-elle. De quoi imaginer rapidement le développement massif des auto-tests, des auto-prélèvements et des applications de suivi.

Par Matthieu Combe, journaliste scientifique

Lever les freins liés à la télémédecine !

Depuis juillet 2016, la Fédération hospitalière de France (FHF) mène la campagne « Déverrouillons la télémédecine » pour mettre en lumière les projets pilotes de médecine exercée à distance. Son objectif : que le projet de loi de financement de la Sécurité sociale (PLFSS) pour 2017 prévoit la rémunération des actes de télémédecine « à l’activité », comme pour les actes classiques. Mais avec la présentation du budget 20107, le changement d’échelle n’est toujours pas à l’ordre du jour.

Simplement, l’article 47 du PLFSS 2017 prévoit que la phase d’expérimentation impulsée par l’article 36 du PLFSS 2014 soit prolongée d’un an, jusqu’en 2018. Ce programme se déroule actuellement dans 9 régions françaises et analyse l’impact et l’intérêt de la télémédecine sur le système de soins. Le PLFSS 2017 prévoit l’extension du dispositif à l’ensemble des régions françaises. Si cet article va dans le bon sens, il ne fait que pousser plus loin les expérimentations au lieu de généraliser à grande échelle le recours à la télémédecine.

Les expérimentations portent sur une liste prédéterminée très segmentée et partielle de spécialités. Celles-ci sont listées dans le PLFSS 2014. Il s’agit particulièrement du suivi à distance, grâce à des caméras, de cicatrisations ou de maladies chroniques (insuffisance cardiaque ou rénale), et de téléexpertise dans les établissements médicaux-sociaux.

Des freins avant tout financiers

La FHF a recensé plus de 100 projets pilotes et analysé les freins au développement de la télémédecine. Et ces freins sont principalement financiers. « Les aides sont majoritairement forfaitaires, sous forme de subventions, sur certains territoires et sur certaines spécialités, sur décision des Agences régionales de santé, assure  David Gruson, délégué général de la FHF. Cela empêche  les établissements d’avoir des stratégies de substitution de la télémédecine à de l’hospitalisation complète ». « On propose de généraliser le recours à la télémédecine pour la médecine générale, de rembourser les actes à l’activité et de suivre les gains d’efficience », complète-t-il. 

Car selon les retours d’expériences, la télémédecine engendre de réels gains économiques et organisationnels grâce à une meilleure coordination entre les centres médicaux locaux et les grands centres hospitaliers. Par exemple, la télésurveillance permettrait de ramener la durée de séjour à l’hôpital des malades atteints d’insuffisance cardiaque d’une moyenne annuelle de 13 à 6 jours. Soit une réduction des dépenses de l’ordre de 1 milliard d’euros à l’échelle nationale. La FHF estime par ailleurs que la généralisation de la télémédecine pourrait engendrer la création de 12.500  emplois directs en France à horizon 2020.

Par Matthieu Combe, journaliste scientifique

Grand jeu concours annuel

Mettez toutes les chances de votre côté et tentez de gagner l’un des cadeaux suivants*.

Bonne chance à toutes et à tous !

1 – Premier lot :
Un drone avec caméra
D’une valeur de 135 euros

2 – Deuxième lot :
Un casque de réalité virtuelle
D’une valeur de 100 euros

3 – Troisième lot :
Un projecteur pour smartphone
D’une valeur de 30 euros

4 – Quatrième lot :
Un chargeur nomade solaire
D’une valeur de 25 euros

*photos non contractuelles

Revue du web #98 : les 7 robots les plus étonnants du mois

Une jambe robotique qui bondit sur les murs

Les roboticiens de l’Université de Berkeley, en Californie, ont mis au point une jambe robotique capable de bondir à cinq fois sa hauteur.

SALTO  (Saltatorial Locomotion Terrain Obstacle) peut ensuite effectuer un second saut tout aussi remarquable en prenant appui sur un mur.

Catastrophe naturelle, ville détruite par la guerre, les situations dans lesquelles SALTO pourrait s’illustrer ne manquent malheureusement pas.

TIM, le robot qui patrouille le long du LHC

Vous connaissez bien sûr le CERN mais connaissez-vous Tim, le robot qui veille sur le LHC ?

Doté de nombreux capteurs, ce petit train robotisé patrouille le long du tunnel de 27 km, sur un rail fixé au plafond, afin de vérifier notamment l’intégrité structurelle, la température et le taux d’oxygène.

Hubo, le robot qui a battu l’Atlas de Boston Dynamics

Il serait le meilleur robot d’assistance du monde, selon le  Darpa Robotics Challenge, le concours mondial de robotique organisé par la recherche de l’armée américaine. Hubo a battu son très célèbre concurrent Atlas de Boston Dynamics !

Issu d’une longue lignée d’humanoides, Hubo est né au laboratoire de robotique de l’Institut Kaist (Korean Advanced Institute of Science and Technology) à Daejeon, en Corée du Sud.

Doté de pinces, il peut saisir de nombreux objets et effectue d’importantes rotations grâce à la flexibilité de son torse. Il se lève, s’assoit, se relève et triomphe des obstacles avec une étonnante facilité. Espérons que la victoire n’ait pas eu d’effet délétère sur ses chevilles.

Un robot-fourmi qui se déplace sur votre chemise

Le MIT travaille actuellement à la conception de robots miniatures capables de se déplacer sur les vêtements. Equipés de rouleaux qui pincent le tissu, ces fourmis robotisées pourraient encore être miniaturisées.

Les applications ? Enregistrement des battements cardiaques, de la respiration, des pas, écrans nomades pour regarder un film sur sa propre manche, badges ou bijoux éphémères, tiraillements dans une direction afin d’indiquer des données GPS… Les chercheurs ne manquent pas d’imagination.

Roborace : la course de voitures autonomes

La Fédération internationale de l’automobile a imaginé une course de voitures autonomes. C’est l’heure des premiers tours de roues pour la voiture de course Devbot !

Le concept : 10 voitures dotées des mêmes caractéristiques techniques qui s’affrontent. Ce qui les départagera : le travail de programmation de l’intelligence artificielle.

Un robot serpent pour le démantèlement nucléaire

Testé dans une centrale nucléaire désaffectée du nord de l’Angleterre, Lasersnake est un bras robotisé contrôlé à distance capable d’intervenir dans des environnements difficiles.

A l’avenir, il pourrait permettre de réduire considérablement le temps et le coût des opérations de démantèlement.

Et la palme du robot insolite revient au…

Robot poubelle de la SNCF

Oui la SNCF a plus d’un tour dans son sac (poubelle). Afin d’améliorer la propreté des gares,  B.A.R.Y.L, un petit robot très serviable, a été mis à votre disposition lors d’un test grandeur nature du 5 au 10 décembre dernier dans la Gare de Lyon.

Développé avec la start-up française Immersive Robotics, B.A.R.Y.L a nécessité 5 mois de travail. Il succède à d’autres robots employés par la SNCF, comme Pepper, un robot humanoide qui a renseigné des voyageurs en 2015, ou en 2016, le robot qui vous aidait à porter votre valise à la Gare de l’Est.

Par I. T

Le solaire photovoltaïque plus performant que le pétrole (selon une méta-étude de l’Imperial College London)

« Nous ne sommes pas ici que pour découvrir l’énergie, mais pour connaître l’énergie dans un objectif précis: réaliser de meilleures politiques et prendre de meilleures décisions d’investissement (…) Nous devons apprendre rapidement de nos erreurs, nous n’avons pas le temps d’attendre 5 ou 10 ans » expliquait Rembrandt Koppelaar en mai 2015 (Vidéo) à l’occasion de la Global Energy Systems Conference.

L’expert pointe durant cette conférence l’erreur majeure qui a été commise dans le passé avec les agrocarburants (initialement appelés de manière trompeuse « biocarburants« ), et le temps perdu ensuite pour corriger la trajectoire. Al Gore a regretté, après coup, avoir fait la promotion de l’éthanol de maïs.

Parfois des Femmes ou Hommes politiques, tel(le)s des alouettes attirées par un miroir philosophal, s’emballent pour une nouvelle technologie qui, bien qu’a priori sexy et PR-compatible, constitue en réalité une  aberration énergétique et/ou environnementale, les deux étant liés. Dès qu’émerge la prise de conscience à propos de l’impasse, il convient d’avoir l’humilité de reconnaître l’erreur, et de ne surtout pas foncer encore plus vite vers l’ornière. Réfléchir avant de (ré)agir.

Koppelaar est un spécialiste de l’analyse des systèmes énergétiques. Ex-Chairman de l’antenne hollandaise de l’ASPO (2005-2010), l’association pour l’étude du pic pétrolier (peak oil), et architecte de The Oil Drum (2010-2013), ce chercheur a publié en 2013 dans la revue Global Environmental Change une analyse particulièrement importante pour l’avenir de l’Humanité sur le pic de phosphore (peak phosphorus), un élément constitutif de l’ADN et du squelette osseux.

Egalement professeur au prestigieux l’Imperial College London, Koppelaar vient de mettre les points sur les i en ce qui concerne l’EROI (Energy Return on energy invest), autrement dit le NER (Net Energy Ratio, ratio  énergétique net), du solaire photovoltaïque. Ceci en publiant le 29 novembre 2016 un papier (« Solar-PV energy payback and net energy: Meta-assessment of study quality, reproducibility, and results harmonization« ) dans la revue spécialisée « Renewable and Sustainable Energy Reviews ».

Obsolète, vous avez dit obsolète ?

Dans une chronique intitulée « Faire de l’écologie avec des données obsolètes« , Xavier De La Porte, journaliste à France-Culture, fait écho de cette méta-étude de Koppelaar qui analyse 29 autres études:

« (…) Les chercheurs de l’Imperial College de Londres ont fait un constat assez stupéfiant : ces études utilisent des données en moyenne vieilles de 7 ans, se réfèrent à des technologies qui ont été largement améliorées depuis. Résultat, elles sous-estiment largement les performances de l’énergie solaire. Car, selon les chercheurs, ce qui s’est passé entre 2009 et aujourd’hui, c’est que les performances de l’énergie solaire ont doublé (…) Mais ce sont ces résultats qui servent aux décideurs politiques à définir leur politique énergétique pour les décennies à venir. Ce cas particulier illustre une question fondamentale : l’importance des données en matière environnementale. L’écologie est affaire de mentalité, elle est aussi affaire de chiffres et de calcul (…) ».

Cette chronique est également disponible sur le site Rue89 (Nouvel-Obs) sous le titre:
« Data : l’énergie solaire est aussi performante que le pétrole ou le gaz« 

La méthodologie de l’étude de Koppelaar « consiste d’abord à les rendre comparables en les harmonisant, et pour cela commence à recalculer l’EROI qui découle, pour chacune d’elles, des données qu’elles ont employées » explique Cédric Philibert, expert EnR au sein de l’Agence Internationale de l’Energie et notamment auteur principal du rapport de référence « Solar Energy Perspectives » (2011).

« L’harmonisation consiste à recalculer à nouveau l’EROI qui découle des données de chaque étude en les complétant par des données moyennes quand il en manque, en adoptant des valeurs uniques pour l’ensoleillement, la durée de vie » ainsi que d’autres paramètres. Philibert ajoute que « dans une deuxième phase Koppelaar note que les études sont basées sur des données de deux à dix-huit ans d’âge et ordonne les valeurs d’EROI fournies en fonction de l’âge des données, en trois groupes. Il montre alors que les études basées sur des données acquises depuis 2009 ont des EROI de 13 à 15 pour poly- et mono- silicium, respectivement, contre des chiffres en gros de moitié inferieurs pour les études basées sur des données plus anciennes, obsolètes. »

L’EROI actuel du solaire PV est très probablement supérieur à 14:1

Une étude publiée le 6 décembre 2016 dans Nature Communications souligne la très forte corrélation entre l’évolution du CAPEX (coût d’investissement) et celle du temps de retour énergétique (EPBT) du solaire PV.

« Ces euros correspondent à de l’énergie » soulignait dès 2015 l’ingénieur des Mines Nicolas Ott dans le rapport de la Fondation Nicolas Hulot sur le solaire + stockage batterie (page 35) ajoutant que « sur la période 2009-2011, Hall et Prieto ont évalué le coût d’investissement à environ 5,5 M€/MW et le coût d’exploitation et de maintenance à 1,7 M€ sur 25 ans. Ces euros correspondent à de l’investissement énergétique. Au vu de l’analyse précédente sur l’investissement et des données des experts sur la partie exploitation et maintenance, 1MW de photovoltaïque coûte aujourd’hui de l’ordre d’1M€ et la maintenance sur 25 ans coûte plutôt de 20 à 30 k€/MW/an soit sur 25 ans entre 0,5 et 0,75 M€. En gardant le périmètre et les données de Hall et Prieto, si on prend le coût énergétique actuel lié à la construction d’une installation photovoltaïque et celui lié à son fonctionnement, (sans prendre en compte les économies potentielles sur les autres facteurs de coûts), l’EROI passe de 2,41 à environ 7-8″.

Philibert explique de son côté que « c’est après 2009 que les réductions de coût les plus rapides sont intervenues, reflétant en particulier la réduction de consommation d’énergie dans la fabrication du silicium de qualité photovoltaique et la baisse des quantités employées par unité de puissance, et que l’efficacité n’a cessé de croître également depuis 2009, entraînant une baisse des surfaces nécessaires et donc aussi de l’emploi d’autres matériaux; autrement dit, les valeurs de 13 et 15 (du papier de Koppelaar ndlr) sont plutôt conservatrices et lorsqu’on étudiera l’EROI de modules produits aujourd’hui on trouvera vraisemblablement des valeurs supérieures.« 

Une seule étude (Ferroni et Hopkirks 2016) donne un EROI inférieur à un pour le solaire PV. La date de la publication (2016) donne l’illusion de la modernité: les données de l’étude datent de 1998 selon Koppelaar. « C’est le record du monde de l’obsolescence – le vrai sujet de l’étude de Koopelaar » souligne Philibert.

Jacques Treiner, conseiller scientifique de « The Shift Project » et responsable en région parisienne de l’association très pro-nucléaire « Sauvons Le Climat » a publié le 7 mai 2016 sur son blog (hébergé par Médiapart) un article intitulé « Taux de retour énergétique ». Il se réfère à l’étude du biologiste Charles Hall et de l’ingénieur Pedro Prieto reposant sur des données datant de…2004 (table 3 page 14). Or entre 2004 et 2016, les technologies photovoltaïques ont fortement évolué. Jacques Treiner a déclaré  avoir eu connaissance du rapport de la Fondation Nicolas Hulot sur le solaire publié fin 2015. Pourtant il écrit en 2016 à propos du solaire PV: « Un retour de 2 pour 1, seulement ?! Eh oui. »

Le miracle de la multiplication des pains solaires

Bien entendu les valeurs de l’EROI varient en fontion de l’insolation, différente entre Marseille et la Normandie (Carte). Koppelaar a retenu une valeur de 1700 kWh/m2/an mais souligne que 85% de l’humanité vit dans des régions très ensoleillées, ce que montre le rapport « The Future of Solar » du MIT (Fig 1.1 page 5).

« En Amérique latine, en Afrique, dans le sud des USA, dans la plus grande partie de l’Asie et en Océanie le ratio énergétique de 14 est en réalité une valeur basse »  a déclaré l’expert à Medium.com.  Avec une insolation de 850 kWh/m2/an (nord de la Finlande) l’EROI du solaire PV peut être estimé à environ 7:1. A l »inverse dans certaines régions du monde l’insolation dépasse les 2500 kWh/m2/an.

Contacté par Techniques-ingénieur.fr Koppelaar a annoncé qu’une nouvelle étude est en cours: « nous préparons à présent un papier sur l’énergie nette de l’électricité globalement, incluant la transmission au niveau des réseaux électriques, et aussi la gestion (balance), ceci pour 4 scénarios existants à horizon 2050. Une étape de plus vers un « energy calculator » disponible directement sur internet. »

Le stockage a un impact marginal sur l’EROI du solaro-éolien

C’est chaud pour ceux qui ont peur des EnR: Ott a montré dès 2015 (page 51 du rapport de la FNH), avec un réel talent pédagogique, que la prise en compte du stockage batterie n’impacte que très marginalement l’EROI du solaire PV:

« 350-400 kWh pour 1 kWh de stockage, cela fait beaucoup. Mais ce « 1 kWh » de stockage va être utilisé plusieurs fois, et plus précisément 4000 fois. Donc, l’énergie de fabrication par cycle tombe à environ 0,1 kWh pour 1 kWh stocké et moitié moins avec un doublement du nombre de cycles. Par ailleurs, le passage des coûts de fabrication de 400- 500 $/kWh, pour un coût énergétique de 350-400 kWh/kWh de stockage, à 100 $/kWh, correspond à une baisse équivalente de la consommation énergétique par kWh de stockage. Au premier ordre, 100 $/kWh pour 8000 cycles correspond à 0,01kWh/kWh de stockage. Même doublé en considérant des coûts énergétiques indirects, ce surcoût énergétique pour une installation photovoltaïque couplée à du stockage ne ferait que diminuer la fourchette de EROI du photovoltaïque de 5-10 à 4,5-9 ».

Ou de 15 à 13,5. Le solaire en bouteille a bel et bien rendez-vous avec le pétrole en barril. Les travaux de Koppelaar viendront enrichir cette réflexion et confirmer ce qu’Ott a déjà révèlé en filigrane.

En 2013 la Royal Society a publié un rapport (cité par Medium.com) estimant que l’EROI du pétrole s’est effondré  et qu’il entre dans un domaine fortement glissant. En 2017, 4 ans après, il est vraisemblablement de l’ordre de 10:1. Il est de plus en plus difficile, et donc coûteux, d’extraire le pétrole, il faut aller le chercher sur des sites off-shore, parfois jusqu’à la région Arctique. Autrement dit la compétitivité (énergétique et économique) du solaire en bouteille ne va faire que croître dans les années à venir.

La revue scientifique Nature, reprenant le magazine Scientific American (2013) a publié un document synoptique à propos des EROI des différentes filières énergétiques. On y découvre (âmes sensibles s’abstenir) que l’EROI du nucléaire est de 5:1, soit égal à celui du pétrole des schistes bitumineux mais il est vrai trois fois meilleur que le très absurde éthanol de maïs. Contre 20:1 pour l’éolien et plus de 40:1 pour l’hydroélectricité. La valeur retenue dans ce document pour le solaire PV est à présent obsolète.

Un mix Wind Water Sun (WWS) tel que prôné par le professeur Mark Jacobson de Stanford University a un EROI égal à la moyenne pondérée des trois EROI respectifs (20:1, 40:1 et 14:1), moyenne qu’il convient de légèrement corriger pour tenir compte du stockage + réseau. Il n’est donc pas étonnant, avec d’aussi bons EROI, que le kWh WWS soit bon marché.

Olivier Danielo
Article édité le 16-12-2016 à propos du rapport de la Royal Society sur l’EROI du pétrole

Une nouvelle technique de détection pour l’astronomie infrarouge

Pendant très longtemps, les sources de lumières et les détecteurs dans le domaine du moyen infrarouge ont été les parents pauvres de la photonique. Actuellement, des sources commencent à se développer mais la détection reste difficile. La découverte de l’Institut Xlim (CNRS/Université de Limoges) s’appuie sur une nouvelle technique hybride de détection de la lumière. Après une modification de la couleur de la lumière (changement de longueur d’onde), les signaux peuvent être détectés par des dispositifs performants capables de discerner les photons. Cette technologie utilisée dans le domaine de l’astronomie constitue une rupture totale par rapport aux techniques classiques d’observation astrophysique. Elle concernera les systèmes astrophysiques en début ou fin de vie ainsi que les exoplanètes, ces objets froids émettant principalement des grandes longueurs d’ondes.

Son prototype a été testé avec succès sur CHARA, réseau de 6 télescopes situé à l’Observatoire du Mont Wilson, près de Los Angeles aux États-Unis.

Il parvient à détecter dans le domaine de l’infrarouge proche. La prochaine étape sera le passage aux bandes spectrales du moyen infrarouge, c’est-à-dire vers les grandes longueurs d’ondes pour explorer les sources de plus en plus froides de l’Univers.

Cette technologie est soutenue par le CNRS, le CNES, Thalès Alenia Space et Airbus industrie, en collaboration avec l’ESA (Agence spatiale européenne) et la NASA.

Enfin, cet instrument, initialement utilisé pour l’imagerie astronomique haute définition, pourrait à l’avenir être appliqué à d’autres domaines tels que le diagnostic médical, l’analyse de polluants, la surveillance météorologique dans les aéroports, le fonctionnement optimal des éoliennes ou encore le cryptage quantique dans le domaine des télécommunications.

Source : cnrs

De nouvelles preuves d’un passé humide sur Mars il y a 3,8 milliards d’années

Les chercheurs s’accordent sur une ancienne présence d’eau liquide sur Mars, mais ni sur sa durée ni sa stabilité. Les sondes Mars Express de l’ESA et Mars Reconnaissance Orbiter de la NASA ont cependant fourni de nouvelles preuves d’une activité aqueuse prolongée. Depuis leur orbite, elles ont analysé le sol de plaines situées au nord du bassin de Hellas, un des plus grands cratères d’impact de tout le système solaire. Par analogie aux « mers lunaires », ces plaines étaient considérées comme ayant une origine volcanique. Or, les instruments indiquent la présence de larges volumes de roches sédimentaires. La caméra HRSC a fourni une couverture régionale de la zone, tandis que HiRISE a permis une observation plus fine de la teinte et de la texture des sédiments, profitant de zones d’érosion. Les spectro-imageurs OMEGA et CRISM ont de leur côté analysé la composition des terrains et confirmé la présence de strates riches en minéraux argileux. Ces derniers ne se retrouvent pas dans les coulées de lave et proviendraient au contraire de dépôts lacustres ou de plaines alluviales.

Pour former ces plaines sédimentaires, épaisses de plus de 300 m et étendues sur des dizaines de kilomètres, un climat moins froid et sec qu’actuellement a été nécessaire. Il a également dû se maintenir pendant plusieurs millions d’années. 400 millions d’années plus tard, ces sédiments ont été localement recouverts par des terrains volcaniques. Ceux-ci ont scellé les zones d’érosion, permettant aux chercheurs de quantifier ce processus. Ainsi, lors de cette époque ancienne, un taux d’érosion cent fois supérieur aux estimations du taux d’érosion actuel, et des trois derniers milliards d’années, est nécessaire pour expliquer ces zones. Pour cela, il faut que l’atmosphère ait été relativement dense avant la formation des laves. Ces abondants terrains sédimentaires forment une région opportune pour de futures missions d’analyse au niveau du sol.

Références :

A sedimentary origin for intercrater plains north of the Hellas basin: implications for climate conditions and erosion rates on early Mars.
F. Salese, V. Ansan, N. Mangold, J. Carter, A. Ody, F. Poulet, and G. G. Ori (2016), Journal of Geophysical Research, doi:10.1002/2016JE005039.

Source : cnrs

Le monde sous surveillance

Applications mobiles, webmails gratuits, capteurs installés dans des montres connectées ou des pèse-personnes… Les entreprises récupèrent d’énormes quantités d’informations sur notre vie privée. Même les États mettent sous surveillance leurs citoyens.

nitot_couve_2000Face à ces différentes menaces, beaucoup de personnes répondent : « je n’ai rien à cacher ». Certes, le risque n’est pas « dramatique » si des entreprises privées se contentent d’exploiter ces données pour nous envoyer des publicités ciblées. On peut toujours utiliser des extensions pour navigateur Web (comme Ghostery, HTTPS Everywhere ou TrackMeNot) et préférer Firefox à Chrome pour ne pas être suivi à la trace par des sites et les régies publicitaires. Sur son smartphone Android, il est possible de remplacer Gmail par K-9 mail.

Mais quand sera-t-il demain lorsque les objets connectés et les voitures autonomes communiqueront des données personnelles aux assureurs ? Et qu’en sera-t-il demain si un gouvernement instaure une surveillance très précise des faits et gestes de ses citoyens ?

Face à toutes ces menaces (surveillance, censure, profilage, influence des algorithmes), Tristan Nitot a souhaité écrire un livre très pédagogique afin que chacun en prenne conscience : « Surveillance:// » (C&F Éditions). Entrepreneur, blogueur et conférencier, il est actuellement Chief Product Officer de Cozy Cloud (une solution d’auto hébergement des données). Il a été à l’initiative de la création de Mozilla Europe, qu’il a présidée, et a été membre du Conseil National du Numérique (2013-2015). Sous-titré « Les libertés au défi du numérique : comprendre et agir », son petit livre d’environ 200 pages est très accessible et propose des solutions pour ne plus être le « produit » des services commerciaux proposés gratuitement.

« Les utilisateurs n’ont pas été formés et ont adopté les technologies sur le tas. Il faut expliquer comment cette surveillance se met en place, sans ennuyer », explique-t-il.

Tristan Nitot cite le cas des applications mobiles : « nous ne savons pas très bien ce que leurs éditeurs font avec nos données. L’accès à notre carnet d’adresses peut se comprendre lorsqu’il s’agit d’une application de messagerie. Mais est-ce normal que Facebook récupère les carnets d’adresses (et les photos) de tous ses utilisateurs pour constituer un réseau social fantôme ? Le pire est que ce réseau social récupère aussi les adresses email de personnes qui ne sont pas encore inscrites, mais dont les coordonnées sont enregistrées sur les carnets d’adresse d’internautes qui sont, eux, inscrits ! Mais d’autres applications aussi anodines que des lampes de poche récupèrent des informations à notre insu ! »

Pour cet expert, « Apple est plus “raisonnable” que Google dont le système exploitation Android est clairement fondé sur l’apparente gratuité des services pour récupérer nos données en vue de proposer de la publicité ciblée. C’est dans leur ADN. Avec certaines applications iOS, Apple demande moins de permissions. Son approche est plus subtile et son business model n’est pas basé sur l’exploitation commerciale de données, mais sur la vente de matériels (iPhone, iPad…), de logiciels (applications) et de services (capacité de stockage) ».

À l’avenir, le grand public, mais aussi les professionnels, devra peut-être payer pour bénéficier de services plus respectueux de la vie privée et de la confidentialité des données comme c’est le cas avec le smartphone sous Android Blackphone et le service de messagerie chiffré Protonmail (dont le nombre de clients américains a augmenté depuis l’élection de Trump). Pour Tristan Nitot, « il faut éviter les services vivant de publicités ciblées en utilisant des systèmes que j’appelle SIRCUS (Systèmes informatiques redonnant le contrôle aux utilisateurs). Les principes de base sont le logiciel libre, le contrôle du serveur (où sont stockées mes données), le chiffrement des informations et des communications, l’élimination du profilage nécessaire à la publicité ciblée ».

Philippe Richard

Le solaire thermodynamique veut un appel d’offres!

Les professionnels français montent au créneau. Chez nos voisins italiens, un appel d’offres a été lancé en Juin 2016 par le Gouvernement. Il vise la production de 120 mégawatts (MW) de projets d’énergie solaire à concentration. La sélection des projets devrait être annoncée d’ici la fin de l’année. Pendant ce temps, les acteurs français du secteur rappellent que la seule centrale actuellement en cours de construction est la centrale de Llo, située dans les Pyrénées-Orientales. Elle sera dotée d’une capacité de 9 MW. Mais il y a pire. La Programmation pluriannuelle de l’énergie (PPE) d’octobre 2016 ne contient aucun objectif pour la filière solaire thermodynamique. L’incompréhension règne alors que les objectifs précédents visaient 540 MW à fin 2020.

Contrairement au solaire photovoltaïque, cette technologie est encore loin d’être compétitive.

Le Gouvernement italien a annoncé que le prix d’achat de l’électricité pour les futurs projets sélectionnés s’élèvera à 345 €/MWh pour les projets inférieurs à 5MW et 329 €/MWh pour les autres. « Ce prix est conditionné à plusieurs critères de performance énergétique et environnementale, comme l’obligation d’un stockage minimum d’environ 4h à pleine charge qui permettra de produire durant la pointe électrique et l’interdiction de fluides toxiques pour ces moyens de stockage », fait savoir le syndicat des énergies renouvelables (SER) dans un communiqué.

Du solaire thermodynamique en France pour exporter

Le solaire thermodynamique requiert un puissant ensoleillement, d’au moins 2.000 kWh/m², pour offrir un bon rendement et être rentable. « La technologie est particulièrement adaptée dans les pays où l’ensoleillement direct est très élevé : il s’agit notamment de l’Afrique du nord, du Proche et Moyen Orient, de l’Australie, du sud-ouest des Etats-Unis, de l’Inde, de l’Asie Centrale, d’une partie de l’Amérique latine, notamment le Chili », relève Jean-Louis Bal, Président du SER.

 

Si cette technologie n’est pas une solution pour l’électricité française, la filière se développe dans le monde. Entre 2005 et 2015 les capacités installées sont passées de 355 MW à 4,7GW. Ce développement est tiré par l’Espagne (2,3 GW) et les États-Unis (1,7 GW). CSP Today, un cabinet d’études anglais spécialiste du CSP, prévoit un marché à 22 GW en 2025. L’Agence Internationale de l’Energie (AIE) prévoit même une contribution du solaire thermodynamique à hauteur de 11,3 % de la production d’électricité mondiale à l’horizon 2050. Soit 1.000 GW installés.

Les professionnels français sont donc unanimes :  il faut développer une filière française d’excellence à l’export.  « Dans le Sud de la France, nous avons quelques sites qui peuvent être exploités et qui peuvent constituer des références pour nos industriels », assure Jean-Louis Bal. Ces « projets-vitrines » permettront aux industriels français de se positionner sur de grands projets internationaux. Ils devront être « d’une puissance significative, de l’ordre de 50 MW », demande le SER. Faute d’appels à projet en France, les acteurs français se positionnent sur des démonstrateurs à l’étranger. Dans cette perspective, ils demandent à ce qu’une partie du programme des investissements d’avenir puisse financer le développement de démonstrateurs à l’étranger. Ces projets auraient lieu dans des zones à ensoleillement direct particulièrement élevé.

Par Matthieu Combe, journaliste scientifique

La sécurité des transactions sur Internet est perfectible

En cette période de fin d’année, les sites de e-commerce battent des records de ventes et de livraisons. Selon la FEVAD (Fédération du e-commerce et de la vente à distance), le nombre total de transactions de paiement sur Internet pourrait atteindre le milliard en 2016, contre 700 millions en 2014. Pour faciliter ses achats, 80 % des acheteurs en ligne ont opté pour un paiement par carte bancaire au cours du premier semestre de cette année.

Le commerce électronique et de façon plus générale les règlements en ligne sont entrés dans les mœurs. Plus pratiques, plus rapides et plus sûrs… Si les deux premiers ne laissent pas de place au doute, il n’en va pas de même avec le dernier. Il représente pourtant le maillon essentiel au commerce et de façon générale à tous les échanges sur Internet : la confiance. C’est la raison pour laquelle on fait appel à la cryptographie qui permet de garantir la sécurité des échanges sur Internet, ou encore les transactions par carte bancaire. Il existe plusieurs algorithmes de chiffrement, mais le RSA est le plus connu et utilisé.  Il est dit asymétrique puisqu’il fonctionne avec une paire de clés : l’une privée et l’autre publique, et repose sur la factorisation des entiers et les nombres premiers.

Or, une équipe franco-américaine impliquant des chercheurs du Laboratoire lorrain de recherche en informatique et ses applications (LORIA) a démontré qu’il est possible de compromettre une clé de chiffrement pour la rendre quasi inopérante… En un mot, il est possible de compromettre la sécurité des communications sur Internet en utilisant des nombres « truqués ».

La sécurité des flux sensibles repose sur l’échange d’une série de chiffres – une clé (fondés sur l’algorithme de Diffie-Hellman, du nom de ses inventeurs en 1976) entre deux ordinateurs, grâce à laquelle sont ensuite chiffrées les informations ou authentifiées les connexions. Cette série de chiffres comprend un nombre premier et deux nombres secrets (un pour l’émetteur et l’autre le destinataire). Selon cette équipe, un pirate ayant eu connaissance du nombre premier échangé au départ et disposant d’une puissance de calcul suffisante pourrait « craquer » cette clé.

« De nos jours, une clé construite à partir d’un nombre premier de 768 bits n’offre plus qu’une protection illusoire. En effet, en juin, une équipe de l’université de Leipzig et de l’École polytechnique fédérale de Lausanne est parvenue à casser une telle clé. Il est vrai qu’en pratique, les nombres utilisés sont de 1 024 bits, soit environ 300 chiffres.

Mais là où le bât blesse, c’est que certains nombres premiers génèrent des clés totalement perméables aux algorithmes casseurs de clés », peut-on lire dans le Journal du CNRS.

« Nous y sommes parvenus à casser cette clé 10 000 fois plus rapidement que le temps nécessaire pour une “vraie” clé, et ce avec 10 fois moins de puissance de calcul que celle utilisée par nos collègues de Leipzig et de Lausanne dans le cas à 768 bits », précise Emmanuel Thomé, du Loria. La sécurité d’Internet serait donc perfectible même si actuellement, on utilise couramment des clés asymétriques sur 2048 / 4096 bits.

Le plus inquiétant est que des listes standard, qui recensent les nombres utilisés en cryptographie, ont été utilisées par un sous-traitant de la NSA. Selon le lanceur d’alerte Edward Snowden, cette agence de renseignement américaine a essayé d’influencer les standards et les spécifications pour les techniques commerciales de clés publiques. Par ailleurs, des vers ont été développés de façon à voler la clef au moment où elle est traitée par l’algorithme… « Personne ne sait très bien comment ces nombres ont été sélectionnés », s’inquiète le cryptologue du LORIA. D’où le risque que la NSA puisse espionner ces transactions.

Philippe Richard

Redémarrage en vue pour les réacteurs nucléaires d’EDF

Enfin une bonne nouvelle pour EDF. L’Autorité de sûreté nucléaire (ASN) a examiné, avec l’appui de l’Institut de radioprotection et de sûreté nucléaire (IRSN), les éléments transmis par EDF pour justifier l’aptitude au service des fonds primaires de générateur de vapeur du fabricant japonais JCFC (Japan Casting and Forging Corporation) équipant dix réacteurs de 900 MWe et deux réacteurs de 1450 MWe.

Etudes à finaliser

Il s’agit d’un premier avis de l’ASN suite au dossier déposé par l’exploitant en vue de prouver une absence de risque majeur sur la sûreté du parc nucléaire. L’ASN considère que, sous réserve de la prise en compte de ses demandes, les justifications génériques apportées par EDF sont acceptables pour les réacteurs de 900 MWe et peuvent être utilisées sur chacun des réacteurs concernés. EDF a indiqué qu’elle transmettra prochainement au gendarme du nucléaire des compléments relatifs aux réacteurs Civeaux de 1 450 MWe (palier N4).

« Les vérifications réacteur par réacteur par rapport à l’étude générique restent à mener. Si elles sont dans les clous, ils pourront redémarrer », a déclaré Pierre-Franck Chevet, président de l’ASN. Les hypothèses du dossier d’EDF devront toutefois être confirmées par un programme d’essais sur des pièces sacrificielles représentatives « à réaliser sous six mois », précise l’Autorité de sûreté nucléaire.

Le redémarrage de ces réacteurs est une nécessité économique pour EDF qui affronte le pire taux d’indisponibilité de son parc nucléaire depuis 10 ans. L’électricien espère pouvoir redémarrer 7 de ses 12 réacteurs dès janvier prochain.

Romain Chicheportiche

 

Vous n’avez pas encore testé la dernière version de RiskEV ?

Facile d’utilisation, RiskEV permet de répondre aux obligations de traçabilité des expositions aux facteurs de risques collectifs et individuels. Le logiciel conserve bien sûr ses fonctions premières, notamment :

– Evaluer les risques et gérer les dix facteurs de pénibilité (dont « Agents chimiques dangereux »),
– Editer le Document Unique d’évaluation des risques et ses annexes,
– Gérer le plan d’action,
– Assurer la traçabilité des expositions aux facteurs de pénibilité et aux produits chimiques.
Pour mettre en œuvre ces objectifs, RiskEV offrait déjà de nombreux avantages, notamment la possibilité d’exporter les documents sous format Excel, PDF ou ODS, d’extraire des données à partir des Fiches de Données de Sécurité au format PDF, de sécuriser vos données : versionnage et historisation des évaluations, de gérer des salariés polyvalents, etc…

Pour être toujours plus proche de vos préoccupations et répondre au mieux à vos contraintes, RiskEV a évolué avec de nouvelles fonctionnalités, parmi lesquelles :
– Encore plus de souplesse dans la gestion des accès : possibilité de partager uniquement certaines données communes entre sites d’une même société,
– Une grille de criticité encore plus personnalisable : elle peut désormais être une matrice 3×3, 5×5, ou tout schéma intermédiaire,
– Les résultats des évaluations du risque chimique réalisées pour un produit sont désormais accessibles depuis l’inventaire également.
La nouvelle version 1.4.0.0 de RiskEV comprend également la mise à jour de la base des références (9e ATP CLP du 19/7/2016)

Important : le logiciel RiskEV n’est plus commercialisé
par Techniques de l’Ingénieur.

La Belgique organise sa sortie du nucléaire

« La transition énergétique permettant notamment un approvisionnement en électricité sûr, abordable et pauvre en émissions de CO2 doit être mûrement réfléchie », introduit la note d’orientation stratégique du gouvernement belge. Le pays abrite sept réacteurs nucléaires, totalisant près de 6 000 MW de capacité installée, qui ont produit 38% de l’électricité consommée en 2015 dans le Royaume. C’est pourquoi la ministre de l’Énergie, Marie Christine Marghem, a demandé à deux reprises (en avril et en septembre 2016) au gestionnaire du réseau, Elia, de réaliser une étude décrivant, pour la période 2017-2027, les besoins électriques de la Belgique en termes d’adéquation et de flexibilité.

4 piliers

« Pour compenser la perte de production d’énergie nucléaire à partir de 2022, il importe de créer un climat d’investissement propice à la construction de nouvelles installations de production d’énergie et au maintien dans le marché de suffisamment d’unités », a expliqué Marie Christine Marghem. Pour autant, les premiers retours d’expérience sur le développement massif d’énergies renouvelables ont montré une hausse de la variabilité et des incertitudes sur l’équilibre du système électrique. Pour y faire face, le réseau aura besoin de davantage de flexibilité. C’est pourquoi la stratégie belge s’appuie sur 4 piliers : améliorer le fonctionnement du marché et les échanges transfrontaliers développer la gestion de la demande, développer le stockage, améliorer la réserve stratégique.

Par ailleurs, le Conseil des ministres a également approuvé un avant-projet de loi destiné à favoriser le stockage par l’exonération de la cotisation fédérale. Un autre volet concerne la gestion de la demande : « la possibilité sera donnée au client final de valoriser sa gestion de la consommation d’énergie et donc d’améliorer sa compétitivité », indique la ministre en référence aux divers services d’efficacité énergétique et de domotique qui commencent à se développer, certes timidement, sur le marché des particuliers.

Mauvaise nouvelle pour Engie et EDF

La décision belge est une mauvaise nouvelle pour l’exploitant et propriétaire de ces réacteurs : Engie. L’ex-Electrabel, GDF-Suez, opère tous les réacteurs du pays et en est largement propriétaire (100% de Doel 1 et 2, 89.8% de Doel 3 et 4 et de Tihange 2 et 3 ainsi que 50% de Tihange 1), le reste étant détenu par un autre grand groupe issu de l’Hexagone : EDF (en propre ou à travers SPE). Le nucléaire en Belgique a été l’objet d’un débat qui a abouti en 2003 à un accord multi-partis sur la sortie en deux phases (2015 et 2025) de l’atome au grand dam d’Engie qui militait pour étendre la durée d’exploitation des centrales comme en France. Pire, la compagnie a dû mener une véritable guerre juridique avec le gouvernement qui a doublé en 2012 la taxe sur la rente nucléaire (les réacteurs étant amortis). Après plusieurs jugements, Engie a obtenu partiellement gain de cause mais a dû se résoudre à payer. Pour la seule année 2015, la facture s’élevait à 130 M€.

Cet argent doit financer la transition vers modèle énergétique basé sur les énergies renouvelables où la flexibilité du réseau sera obtenue par les échanges transfrontaliers, une capacité de production flexible, et une gestion accrue de la demande et du stockage.

Romain Chicheportiche

L’homocystéine impliquée dans certains cancers et la maladie de Parkinson

L’étude des chercheurs du Laboratoire de chimie et biochimie pharmacologiques et toxicologiques (CNRS / Université Paris-Descartes) révèle que des taux anormaux d’homocystéine, un metabolite soufré issu du métabolisme de la méthionine, associés à une perturbation de l’homéostasie des métaux de transition, conduisent à l’inhibition irréversible d’une enzyme appelée catalase. Cette dernière, qui contient un hème comme groupement prosthétique, est essentielle pour protéger les cellules des dommages oxydatifs liés à des concentrations élevées d’eau oxygénée (H2O2), un composé qui peut perturber le fonctionnement cellulaire et participer à l’éclosion et/ou la progression des cancers et des maladies neuro-dégénératives.

Les scientifiques ont d’abord déterminé le mécanisme moléculaire d’inhibition de la catalase à l’aide d’expériences in vitro (tests d’activité, spectroscopie UV-visible, cinetiques comparatives, chimie analytique). Ils ont ainsi montré que dans des conditions pathologiques, c’est-à-dire en présence de fer et de concentrations significatives d’homocystéine, le groupement prosthétique de la catalase est transformé en un dérivé inactif: un sulfhème. Ce dernier, qui résulte de l’incorporation d’un atome de soufre provenant de l’homocysteine à la périphérie de l’hème, se forme  via une réaction inédite. Dans un second temps, des expériences ex cellulo effectuées sur divers modèles cellulaires de pathologies (cancers du sein et du colon, maladie de Parkinson et d’Huntington, rectocolite hémorragique) ont  permis de confirmer le lien de causalité entre cette réaction chimique et l’inhibition de la catalase observée dans certains cancers et la maladie de Parkinson.

Ces résultats soulignent un nouveau trait délétère de l’homocystéine qui, à des niveaux anormalement élevés, participerait à l’étiologie de certains cancers et de la maladie de Parkinson en perturbant les voies de signalisation de H2O2. Cette étude  laisse aussi entrevoir des stratégies thérapeutiques ciblant l’homocystéine et les métaux de transition pour prévenir les effets pernicieux résultant de leur combinaison.

chimie

Source : CNRS

OPEP : L’Arabie Saoudite trouve un accord avec la… Russie

Cela faisait des mois que les analystes financiers attendaient l’annonce de l’OPEP, c’est désormais fait. Après plusieurs années de production tous azimuts pour faire s’écrouler les prix du baril et regagner les parts de marchés perdues à cause du développement des hydrocarbures de schiste aux Etats-Unis, les membres de l’OPEP ont décidé de réduire leur production.

1,2 millions de barils jour en moins

L’OPEP a annoncé à Vienne une réduction de 1,2 millions de barils de pétrole par jour (Mbj)  à partir du 1er janvier 2017 pour atteindre une production totale de 32,5 Mbj. Une décision qui a immédiatement fait remonter les cours mondiaux (environ 10% en moyenne). Le poids de cette baisse de production est partagé différemment selon les pays et leur situation. L’Arabie Saoudite, premier acteur pétrolier de l’organisation, en prend logiquement la plus grande partie (-486 000 bj), suivie de l’Irak (-210 000 bj), les Emirats Arabes Unis (-139 000 bj), et le Koweït (-131 000 bj). L’Iran est le seul membre de l’OPEP qui non seulement ne participe pas à la baisse, mais voit son quota augmenté de 90 000 bj pour atteindre 3,8 Mbj. Une exception liée à la levée progressive des sanctions économiques qui touchent la République Islamique encore en-deçà de son niveau historique (près de 4 Mbj). Cet accord est applicable pour six mois et peut être renouvelé.

Moscou entre dans la danse

La portée de cette décision dépasse le cartel pétrolier puisque l’accord prévoit également une baisse de production de pays hors-OPEP à l’instar de la Russie qui aurait accepté de réduire ses exportations de l’ordre de 600 000 bj, soit à elle seule, la moitié de l’effort consenti par toute l’organisation. Une alliance que beaucoup de membres de l’OPEP appelaient de leurs vœux pour donner plus de poids à leur décision.

Reste à savoir si les engagements seront respectés, ce qui n’a pas toujours été le cas. C’est pourquoi l’OPEP a annoncé dans la foulée la constitution d’un comité de suivi et de contrôle présidé par le Koweït et constitué de l’Algérie, le Venezuela et deux autres pays non-membres de l’organisation pétrolière. Il aura la charge de contrôler lesdites  réduction de production dans les pays concernés.

Bilan

Quel bilan peut-être tiré de ces années de surproduction pétrolière voulue par l’OPEP ? Premièrement que l’effet sur les cours du baril du brut a été fort, confirmant la grande inélasticité du rapport offre/demande de pétrole. Cette chute des cours avait pour objectif d’écarter de l’offre mondiale les productions de pétrole non conventionnel (issu des roches-mères) essentiellement d’Amérique du nord, pour que l’OPEP récupère ses parts de marchés. Sur ce point, le secteur pétrolier américain a certes traversé une crise avec plusieurs faillites à la clé, mais les mouvements massifs de concentration d’entreprises et les économies d’échelle lui ont permis de mieux résister que prévu dans un environnement de prix bas. De fait, malgré une chute massive des prix du baril (48$ en moyenne en 2015 contre 93$ en 2014), les Etats-Unis restaient en 2015 le premier producteur mondiale de pétrole devant l’Arabie Saoudite et la Russie, selon le BP Statistical Review. Un échec cuisant pour Ryad, principal instigateur de cette stratégie, qui voit désormais son leadership être menacé à l’extérieur (Etats-Unis) et à l’intérieur de l’OPEP par son frère-ennemi : l’Iran. Que Téhéran soit parvenu à être le seul à ne pas être touché par la baisse des quotas est un signe d’un retour en force du pays au sein du cartel au détriment de l’Arabie Saoudite. Enfin, le concours nécessaire de la Russie à cet accord étaye la théorie de la perte progressive d’influence de l’OPEP sur un marché pétrolier devenu de plus en plus multipolaire.

Romain Chicheportiche

Salon Pollutec: le directeur technique de Wattway compare la route solaire à un Airbus à trois réacteurs

« On parlait pas la même langue au début (Philippe Harelle s’adresse à un représentant d’Enedis ex-ERDF ndlr). Nous on vient de la route, on fait de l’électricité certes mais on vient de la route à la base. On s’est retrouvé dans un marché qui est pas encore le notre totalement. Dans nos chantiers d’applications on faisait que des petits chantiers de 25, 50, 100 mètres-carrés parcequ’il n’y a pas lieu d’aller plus loin pour tester techniquement le sujet (…)

On est entre 2000 et 2500 euros du mètre-carré (ce qui fait, avec 115 W/m2, 17,4 à 21 €/W ndlr) (…) Ce qui est notre objectif, et ce qui est ma feuille de route, est qu’il faut que d’ici 2020 on soit à des coûts comparables aux autres énergies renouvelables (…) Suivant les configurations de chantiers on va avoir des installations plus ou moins simples, plus ou moins rapides à la pose par rapport aux cas d’usage que l’on a imaginé.

Ce qui est sûr c’est que par rapport au coût actuel on va avoir un diviseur à trouver entre 10 et 20 (sourire), pour vous donner un objectif (une personne du public réagit). Oui, diviser par 10 ou diviser par 20.

Mon patron me dit, c’est comme un airbus que l’on pilote avec trois réacteurs, et si on pousse que d’un côté et bien on va tourner un peu en rond (où en est le projet d’ «airbus du solaire» de François Hollande ? ndlr). Et il a raison j’aime bien cette image parce qu’aujourd’hui notre prix c’est 1/3 le module solaire, 1/3 la pose et 1/3 le raccordement (7 €/W + 7€/W + 7€/W ndlr). Donc si on ne travaille que l’industrialisation du module et que l’on regarde pas le reste, on est à côté de la plaque.

Coût: « la barre à sauter, elle est sympatique »

Donc on doit travailler les trois sujets, et j’ai pas la réponse aujourd’hui, parce que cela fait partie de la feuille de route des deux ans, mais, voilà, il faudra que l’on divise au moins par 10 notre prix. Donc cela donne quand même une… la barre à sauter elle est sympatique (sourire).  Mais sur la partie industrielle (modules ndlr) cela va rester assez facile, tout est relatif. Il n’y a pas de raison que notre panneau, industriellement parlant, coûte beaucoup plus cher qu’un panneau traditionnel (un panneau classique coûte aujourd’hui 0,5 €/W ndlr), à l’exception du volume. Avec des panneaux qui arrivent de Chine, made in China, des millions de mètres-carrés, nous on fait du made in France, avec nos dalles qui sont fabriquées à Tourouvre. 

Un choix de politique d’entreprise « qui ne va pas être super simple à gèrer »

C’est un pari qu’on a fait et c’est un choix politique également, politique d’entreprise, qui va pas être super-simple à gérer mais en tout cas on le tient pour l’instant (…) Ce sont nos chantiers d’applications qui vont nous permettre de définir si demain notre marché c’est un marché de volume ou un marché de niche. A l’heure actuelle on est pas capable de répondre.

Par contre ce qui est sûr c’est que c’est un projet mondial, la moitié de la centaine de projets pour tester nos cas d’usage sera en France, l’autre moitié à l’international (…) On ne s’interdit rien, tout ce qu’on peut faire en France, on va le faire. Après tout dépendra de l’évolution de Wattway.

« Du papier de verre »

Si un deux-roues tombe dessus qu’est-ce qui se passe ? Cela ressemble à du papier de verre. Grains fins sur les zones piétonnes, gros grains sur les routes pour avoir une bonne adhérence. »

L’intégralité de la conférence-débat est disponible ici. Des experts internationaux ont de leur côté livré leur analyse (en anglais) de cette route solaire. Un regard extra-national rafraîchissant.

Par Olivier Daniélo

13,9 cents le kWh: une île du Pacifique se libère du pétrole grâce au solaire en bouteille de Tesla

Ce qui est frappant avec le parc photovoltaïque de l’île de Ta’u, c’est son empreinte surfacique vraiment minuscule. Moins de 0,15 km2, sur une île qui fait 44 km2, soit 0,34%. L’île comptait 790 habitants en 2010 ce qui correspond à 18 habitants au kilomètre carré. Si la densité de population de Ta’u devenait égale à celle de la France, serait-il possible de répondre à sa demande électrique avec le solaire ? La réponse est oui, il suffirait de  multiplier par un facteur 2,5 la longueur et la largeur de la centrale solaire actuelle. 

Chacune des 36.000 communes qui composent la France peut être considérée comme une île. La chercheuse américaine Yan Xu, du laboratoire national d’Oak Ridge (Tennessee) utilise le mot « islanding » pour décrire l’approche visant la résilience locale des communautés grâce à des microgrids.

Tesla-SolarCity-Tau-Microgrid-PowerPackLe coût du kWh solaire + stockage batterie Tesla est de seulement 13,9 cents le kWh sur l’île de Ta’u rapporte le magazine Fortune (13,1 centime d’euro). Autrement dit le solaire disponible 24 heures sur 24 a sur l’île de Ta’u un coût équivalent à celui du nouveau nucléaire EPR ou à électricité thermosolaire + stockage thermique. Dans les projets ultérieurs les Powerpack Tesla, de seconde génération, ne seront plus de 100 kWh l’unité mais de 200 kWh.

La France consacre aujourd’hui plus de la moitié de son territoire à la capture des photons par des plantes à vocation alimentaire (SAU, Surface Agricole Utile). Le potentiel du solaire en toiture, un autre type de capture des photons, a été estimé par l’ADEME a plus de 400 TWh, et il peut être multiplié environ par deux en intégrant celui des ombrières PV de parking. La demande électrique française totale est de 500 TWh par an.

En Australie la ville de Kalbarri va mettre en place une microgrid intégrant solaire PV et éolien, le tout assisté de batteries totalisant une capacité de stockage de 2 MWh. En France, la complémentarité  du solaire et de l’éolien à l’échelle saisonnière est parfaite.

Par Olivier Danielo

Sunna Design emploie la réalité augmentée au service de l’autoformation

Bâtie autour de concepts tels que la robotique, l’intelligence artificielle et autres outils de haute technologie, l’usine du futur est déjà une réalité tangible chez Sunna Design. Cette jeune entreprise, située à Blanquefort en Gironde, a mis en oeuvre un dispositif de réalité augmentée et un écran collaboratif pour améliorer la production de ses lampadaires autonomes à énergie solaire, exportés vers les pays émergents. Ce projet, entrepris en décembre 2014 et opérationnel depuis avril 2016, est issu du programme de recherche Systemsol, soutenu par la région Nouvelle Aquitaine à hauteur de 4,1 millions d’euros. Le Centre aquitain des technologies de l’information et électroniques (Catie) et Immersion, localisé à Bordeaux et intégrateur de systèmes interactifs et immersifs pour l’industrie, sont les autres contributeurs.

«Sunna Design souhaitait mettre en place des technologies de rupture, explique Julien Castet, responsable de la recherche chez Immersion. La zone de production devait aussi devenir un showroom pour que les clients aient envie de se déplacer au cœur de l’atelier.» Premier instrument de cette transformation : la réalité augmentée, qui guide l’opérateur pendant la phase de montage du lampadaire, produit qui ne compte qu’une vingtaine de pièces. «Le but est que l’employé se forme lui-même et puisse changer de poste à tout moment, poursuit Julien Castet. De plus, Sunna Design fait appel à des intérimaires et cette formation se doit d’être rapide.»

5000 € par poste

La solution prend la forme d’un poste de montage mobile, équipé d’un petit écran et d’une caméra qui filme les pièces du lampadaire et les mains de l’opérateur. «La caméra USB, dépourvue d’autofocus, est semblable à une caméra de visioconférence, précise Julien Castet. Au départ elle était mobile puis nous avons décidé de la fixer.» Le logiciel se charge ensuite de distinguer chaque élément de l’image, mais il lui fallait un coup de pouce. «Comment identifier la pièce, déterminer sa position, son état, malgré le passage des mains devant la caméra ? Interroge Julien Castet. Pour y répondre, nous avons adopté une solution originale : l’impression de motifs en 3D grâce auxquels le logiciel se repère dans l’image.»

Il était impératif que le budget soit maîtrisé pour des raisons de compétitivité. «Hors logiciel, la solution coûte moins de 5000 € par poste, estime Julien Castet. Elle équipe un poste pour le moment et Sunna Design envisage de la déployer sur quatre postes en tout. » Outre la réalité augmentée, Sunna Design a opté pour un écran tactile et collaboratif nommé Shariiing, qui sert à superviser et à organiser les processus. «C’est un dispositif de communication transversale qui connecte les données et les applications, commente Julien Castet. En pratique, par exemple, le responsable de production peut annoter sur ce grand écran l’affichage transmis par un opérateur depuis son poste.» Selon Sunna Design, qui tire un premier bilan, le temps de formation est réduit de 80 % et la pénibilité de 70 %. La finalité est d’augmenter la cadence de production jusqu’à 100 000 pièces par an, soit 10 fois plus qu’aujourd’hui.

Bâtie autour de concepts tels que la robotique, l’intelligence artificielle et autres outils de haute technologie, l’usine du futur est déjà une réalité tangible chez Sunna Design. Cette jeune entreprise, située à Blanquefort en Gironde, a mis en oeuvre un dispositif de réalité augmentée et un écran collaboratif pour améliorer la production de ses lampadaires autonomes à énergie solaire, exportés vers les pays émergents. Ce projet, entrepris en décembre 2014 et opérationnel depuis avril 2016, est issu du programme de recherche Systemsol, soutenu par la région Nouvelle Aquitaine à hauteur de 4,1 millions d’euros. Le Centre aquitain des technologies de l’information et électroniques (Catie) et Immersion, localisé à Bordeaux et intégrateur de systèmes interactifs et immersifs pour l’industrie, sont les autres contributeurs.

 

«Sunna Design souhaitait mettre en place des technologies de rupture, explique Julien Castet, responsable de la recherche chez Immersion. La zone de production devait aussi devenir un showroom pour que les clients aient envie de se déplacer au cœur de l’atelier.» Premier instrument de cette transformation : la réalité augmentée, qui guide l’opérateur pendant la phase de montage du lampadaire, produit qui ne compte qu’une vingtaine de pièces. «Le but est que l’employé se forme lui-même et puisse changer de poste à tout moment, poursuit Julien Castet. De plus, Sunna Design fait appel à des intérimaires et cette formation se doit d’être rapide.»

 

(inter) 5000 € par poste

 

La solution prend la forme d’un poste de montage mobile, équipé d’un petit écran et d’une caméra qui filme les pièces du lampadaire et les mains de l’opérateur. «La caméra USB, dépourvue d’autofocus, est semblable à une caméra de visioconférence, précise Julien Castet. Au départ elle était mobile puis nous avons décidé de la fixer.» Le logiciel se charge ensuite de distinguer chaque élément de l’image, mais il lui fallait un coup de pouce. «Comment identifier la pièce, déterminer sa position, son état, malgré le passage des mains devant la caméra ? Interroge Julien Castet. Pour y répondre, nous avons adopté une solution originale : l’impression de motifs en 3D grâce auxquels le logiciel se repère dans l’image.»

 

Il était impératif que le budget soit maîtrisé pour des raisons de compétitivité. «Hors logiciel, la solution coûte moins de 5000 € par poste, estime Julien Castet. Elle équipe un poste pour le moment et Sunna Design envisage de la déployer sur quatre postes en tout. » Outre la réalité augmentée, Sunna Design a opté pour un écran tactile et collaboratif nommé Shariiing, qui sert à superviser et à organiser les processus. «C’est un dispositif de communication transversale qui connecte les données et les applications, commente Julien Castet. En pratique, par exemple, le responsable de production peut annoter sur ce grand écran l’affichage transmis par un opérateur depuis son poste.» Selon Sunna Design, qui tire un premier bilan, le temps de formation est réduit de 80 % et la pénibilité de 70 %. La finalité est d’augmenter la cadence de production jusqu’à 100 000 pièces par an, soit 10 fois plus qu’aujourd’hui.

 

Frédéric Monflier

L’Asie veut construire un super-réseau électrique

Le concept de super-réseau électrique en Asie n’est pas nouveau. Mais depuis la catastrophe nucléaire de Fukushima en 2011, l’idée revient avec insistance. Elle consiste à interconnecter les réseaux électriques des principaux pays de la région pour mutualiser les sources de production. L’enjeu est juste immense : le Japon, la Chine, la Corée du Sud et la Russie représentent 76% de la production électrique totale de l’Asie et de même, 77% de la consommation du continent. Considérant par ailleurs, que l’Asie constitue environ deux tiers de l’Humanité, l’optimisation qui en résulterait équivaut à des milliers de Mégawatts économisés.

Très affecté par l’accident de la centrale nucléaire japonaise, Son Masayoshi, pdg de Softbank Corp, une compagnie de télécommunication, a fait des énergies renouvelables son nouveau cheval de bataille. Mais pour substituer la cinquantaine de réacteurs nucléaires de l’archipel nippon, sans passer par des centrales thermiques au gaz, l’interconnexion avec le continent est indispensable.

Renouvelables = réseaux

Viser 50% d’énergies renouvelables, voire plus pour certains pays, dans le mix électrique dans un horizon énergétique proche (2030) n’est plus une utopie. Les industries éoliennes et photovoltaïques notamment, ont considérablement réduit leurs coûts et s’imposent désormais dans les grands appels d’offres internationaux non-discriminants (qui n’écarte pas de technologie a priori). La barrière des prix désormais levée, la problématique des renouvelables s’est concentrée sur le caractère intermittent de leur production, qui ne correspond généralement pas aux pics de consommation. Les techniques rentables de stockage étant encore limitées (STEP – Stations de transfert d’énergie par pompage surtout), l’interconnexion des réseaux électrique sur plusieurs fuseaux horaires constitue le meilleur moyen d’exporter par exemple le vaste potentiel du désert de Gobi (Mongolie) vers Tokyo. Son Masayoshi calcule les coûts de production dans le désert de Gobi à environ 3 à 4 Yens par kWh, avec un coût foncier très réduit. Ajoutez à cela le transport de la Mongolie au Japon, environ 2 yens par kWh, selon lui. Le coût total (entre  5 à 6 yens par kWh) resteraient bien en-deçà des coûts du nucléaire (8,9 Yens/kWh) et des centrales thermiques (9,5 Yens/kWh) japonaises.

Asian Super Grid

L’activisme de Son Masayoshi a été récompensé en octobre dernier par la signature d’un Memorandum of Understanding (MoU) entre la Chine, le Japon, la Russie et la Corée du sud pour mettre en place ce fameux Asian Super Grid. Il s’agit de la première étape d’un processus qui devraient voir d’autres pays intéressés se joindre à l’initiative (voir carte). Reste encore de nombreux défis techniques et réglementaires à relever. Si la technologie de pose de câbles sous-marins est maîtrisée, elle reste coûteuse et nécessite une coopération durable des nations qui deviennent de fait de plus en plus interdépendantes.

figure1

Ainsi, l’Europe avait lancé en 2009 un projet similaire avec l’Afrique du nord et le Moyen-Orient : Desertec. Le but était d’interconnecter les pays de la Méditerranée pour  profiter de leurs énormes ressources solaires et alimenter le nord du Vieux continent en électricité verte et bon marché. Las ! Les révolutions arabes et la crise syrienne (et libyenne) ont réduit a néant les espoirs de voir un tel projet voir le jour dans un avenir proche. Preuve, si besoin en était, qu’en matière d’énergie, la géopolitique prévaut toujours.

Romain Chicheportiche

Des mouchards dans les smartphones

Peut-on encore avoir une vie privée et être hyper connecté ? Cela semble de plus en plus difficile avec la détermination des poids lourds du web (Facebook, Google) mais aussi de différentes marques high-tech d’analyser en permanence nos moindres faits et gestes ! Officiellement, le recueil de ces informations sert à améliorer leurs services.

Officieusement, cette énorme masse de données est exploitée pour proposer de la publicité très ciblée, ce que les services marketing appellent le « reciblage » comme l’explique Tristan Nitot (qui a été à l’initiative de la création de Mozilla Europe, éditeur de Firefox) dans son livre très accessible « Surveillance:// » (C&F Éditions).

Mais le plus inquiétant est la découverte de mouchards dans plus de… 700 millions de smartphones Android. Plusieurs fabricants chinois et des marques occidentales qui revendent ces smartphones à leurs couleurs s’appuient sur les services de la société Shanghai Adups Technology. Elle a développé un mouchard qui, à l’insu des personnes, peut récupérer quasiment tout le contenu de l’appareil. Ces informations sont ensuite stockées sur des serveurs chinois.

Plus surprenant ou inquiétant, il y a quelques jours, BitSight (une société spécialisée dans la sécurité informatique) a repéré une importante faille dans le code d’un firmware de la société Ragentek. Ce programme est intégré dans des modèles d’entrée de gamme des fabricants BLU Products, Infinix Mobility, Ragentek, Beeline, Doogee, IKU Mobile, Leagoo et Xolo. Ce firmware n’est pas anodin car, étrangement, il possède des spécificités d’un Rootkit. Il s’agit d’un ensemble de techniques de furtivité permettant de dissimuler des ressources ou des exécutions. L’un des procédés consiste à « agir » dès le démarrage de la machine (en l’occurrence ici un smartphone mais il peut s’agit aussi d’un PC) afin de prendre le contrôle du système d’exploitation et des logiciels de sécurité pour ne pas être détecté. Le Rootkit peut ainsi intercepter les communications entre l’OS et les applications pour les modifier ou les bloquer. Pour quelle raison a-t-il été installé ? Mystère.

Ces deux exemples ne sont pas exceptionnels. Ainsi, Lenovo a dû reconnaître que certains ordinateurs portables, vendus entre septembre et décembre 2015, étaient équipés d’un logiciel commercial baptisé « Superfish ». Officiellement, il devait « aider des clients à découvrir de nouveaux produits en faisant du shopping ». Mais selon des chercheurs d’Errata Security, il s’agissait d’un dangereux mouchard permettant d’injecter des publicités dans des connexions protégées. Pire, il faisait apparemment sauter le chiffrement des données, permettant potentiellement à des pirates de les intercepter

Mais les marques ne sont pas les seules à pratiquer cet espionnage. Selon Kaspersky Lab, un fournisseur d’antivirus basé à Moscou, des services d’espionnage seraient parvenus à intégrer des logiciels espions au cœur même des disques durs produits par Toshiba, Seagate, Western Digital et bien d’autres fabricants…

Philippe Richard

Fillon : sale temps pour les renouvelables !

François Fillon veut améliorer le marché européen du carbone (marché ETS) pour assurer un prix plancher de 30 € la tonne de CO2. Il souhaite faire de l’Europe un moteur de la lutte contre le changement climatique pour convaincre les Etats-Unis, la Chine et les autres pays de respecter ce prix plancher « au moins pour les secteurs les plus émetteurs de CO2 ». Objectif: atteindre le 0% d’énergie fossile le plus rapidement possible. Pour y parvenir, le programme du candidat républicain se repose sur le marché pour développer les énergies renouvelables.

Renforcer le nucléaire français

Pour François Fillon, le nucléaire est « notre filière d’excellence », une filière « propre car peu émettrice de CO2 » et constitue « un atout économique stratégique en terme d’indépendance ». Il est loin d’accepter la réduction de la part du nucléaire dans la production d’électricité de 75% à 50% en 2025, prévue par la loi de transition énergétique pour la croissance verte. Le candidat veut plutôt prolonger la durée d’exploitation des réacteurs existants de 40 à 60 ans, sur autorisation de l’Autorité de sûreté nucléaire (ASN). Il renoncera à la fermeture de la centrale de Fessenheim.

L’ancien Premier ministre de Nicolas Sarkozy souhaite renforcer la recherche sur les réacteurs nucléaires de quatrième génération et développer une gamme de petits et moyens réacteurs nucléaires. Il veut aussi développer la recherche sur le stockage de l’énergie, les réseaux intelligents et les technologies de captage/stockage de CO2.

Vers la fin des subventions aux énergies renouvelables ?

Néanmoins, sur les énergies renouvelables, François Fillon souhaite « sortir des objectifs chiffrés, pour donner la main au marché ». Il compte ainsi supprimer toutes les aides pour les nouvelles installations éoliennes ou solaires. Ces énergies ne doivent pas être « au centre d’un développement massif qui pèse très lourd sur les finances de la collectivité nationale pour une efficacité contestable ». Il propose plultôt de bâtir une filière industrielle en renforçant les pôles de compétitivité et en développant des programmes de recherche « ambitieux ». Pour inciter les Français à investir dans ces énergies renouvelables, l’obligation d’achat sera remplacée par la prolongation du crédit d’impôt.

Les filières éoliennes et solaires devraient donc voir rouge si François Fillon est élu. Le candidat se reposera plutôt sur le développement des énergies renouvelables thermiques, à savoir le bois énergie, les biocarburants, la méthanisation et le solaire thermique. « Les techniques relatives aux pompes à chaleur, au chaufe-eau thermodynamique, à l’incinération des déchets ou encore à l’amélioration des chaudières doivent être améliorées, ce qui est possible pour un coût maîtrisé, tout en créant des emplois», prévient le candidat, sans plus de détails.

Enfin, le candidat Fillon a une vision centralisée de l’énergie. Il privilégiera les appels d’offres pour les projets importants. Il autorisera néanmoins l’auto-consommation pour les particuliers et les entreprises, sans avoir à passer par EDF. Les excédents seront néanmoins vendus à des « prix conformes au marché de l’électricité », sans subventions.

Par Matthieu Combe, journaliste scientifique

Fraude à la CB : le cryptogramme devient dynamique

La dernière étude publiée cet été par l’observatoire de la sécurité des cartes de paiement a confirmé l’augmentation des fraudes à la carte bancaire : + 4,4 % en 2015, représentant 522,7 millions d’euros. Les séjours à l’étranger représentent la principale menace avec 57 % des fraudes commises pour un total de 297,9 millions d’euros.

Pas de quoi être rassuré et de nombreuses personnes le sont encore moins lorsqu’il s’agit de payer sur internet. 81 % des cyberacheteurs utilisent ce moyen de paiement, selon la Fevad. Mais, la moitié d’entre eux environ ressent de l’inquiétude en renseignant son numéro de carte sur un site marchand.

Pour les rassurer, la Société Générale a testé auprès de 500 personnes des cartes bancaires dotées d’un cryptogramme visuel dynamique. L’expérimentation ayant été concluante selon l’établissement, elles sont maintenant proposées à ses clients particuliers. Appelée « Motion code », cette solution a été développée par Oberthur Technologies. Poids lourds mondial des produits, solutions et services logiciels embarqués, OT a réussi à intégrer dans l’épaisseur de la carte un écran e-paper, une antenne NFC et une mini-pile (dont la durée de vie est supérieure à celle de la carte). Résultat, les 3 chiffres du cryptogramme imprimés au dos de la carte sont remplacés par ce petit écran affichant un nouveau code « dynamique » toutes les heures.

Selon Oberthur Technologie, « la solution est rassurante pour le client, puisqu’en cas de piratage des données de la carte bancaire, les 3 chiffres du cryptogramme deviennent rapidement obsolètes, empêchant les fraudeurs de réutiliser les données sur les sites de e-commerce. »

Cette solution est également simple puisqu’elle ne modifie en rien le parcours d’achat sur internet et elle est compatible avec tous les sites e-commerce du monde.

Cette offre vient en complément du Pass sécurité et de la e-carte bleue que proposent la Société Générale. Seul bémol, cette nouvelle solution implique une cotisation annuelle de 12 €, en plus de la cotisation de la carte Visa ou Premier. Or, la réglementation précise que la sécurisation des paiements est une obligation qui incombe aux banques…

Néanmoins, cette solution intéressante devrait être adoptée par d’autres banques. Le 16 novembre, Oberthur Technologies a en effet obtenu l’agrément du groupement des Cartes Bancaires (CB), qui regroupe près de 120 établissements prestataires de services de paiement, pour sa carte de paiement avec cryptogramme dynamique.

Philippe Richard

A la recherche de la glace la plus ancienne sur Terre

Trouver en Antarctique de la glace vieille d’au moins 1,5 million d’années, tel est l’objectif du projet “Beyond EPICA – Oldest Ice“ (BE-OI). Coordonné par l’institut Alfred Wegener en Allemagne, il implique au premier plan le CNRS et l’IPEV. Extraire une carotte de glace aussi ancienne permettrait d’élucider l’un des mystères de la paléoclimatologie. En effet, il y a environ un million d’années, le climat de la Terre a subi un changement de rythme majeur. « À ce jour, nous ne savons toujours pas pourquoi la périodicité des cycles glaciaire-interglaciaires a considérablement changé autour de 900 000 à 1 200 000 ans avant notre ère », précise Jérôme Chappellaz, directeur de recherche au CNRS, représentant l’organisme au sein du consortium BE-OI et responsable d’un des groupes de travail. Alors que les glaciations survenaient tous les 40 000 ans environ, leur fréquence est descendue à une tous les 100 000 ans, comme en témoignent les sédiments marins. Mais le déroulement et les causes de cette modification demeurent énigmatiques, et le resteront sauf si les scientifiques parviennent à disposer de glace datant de cette époque.

Cap-glace

Grâce aux carottes de glace, les scientifiques peuvent obtenir une multitude d’informations sur le fonctionnement du système climatique terrestre, dont l’évolution des gaz à effet de serre dans l’atmosphère. Seules ces archives glaciaires permettent de renseigner directement la composition de l’atmosphère par le passé et donc d’évaluer le rôle joué par les gaz à effet de serre lors de cette transition climatique majeure. Pour y parvenir, le projet BE-OI inclut une batterie de méthodes originales qui visent à déterminer le site où dénicher cette glace si convoitée, comme des mesures géophysiques et des méthodes de datation spécifiques. Il fait aussi appel à des technologies d’accès rapide à la glace profonde, comme Subglacior, une sonde qui date la glace en temps réel, développée par plusieurs laboratoires associés au CNRS2. Deux régions potentiellement intéressantes seront explorées : le secteur du dôme Fuji et une zone appelée « Little Dome C » située à environ 40 kilomètres de Concordia.

Dès l’été austral 2016/2017, les Allemands déploieront un radar aéroporté dans le secteur du Dôme Fuji, dans l’objectif de documenter les couches internes du glacier, caractériser le profil du socle rocheux, déterminer les propriétés physiques de la glace, et voir si des écoulements anormaux se sont produits en ayant mélangé les couches anciennes. De leur côté, des équipes italiennes et britanniques effectueront des mesures radar près de Concordia, avec le même objectif.

Du côté français, les premiers tests en Antarctique de la sonde Subglacior seront également réalisés durant la saison australe 2016/2017. Entièrement inédite, cette sonde doit permettre de mesurer au sein même du glacier, en continu et en temps réel, certains signaux géochimiques permettant d’évaluer l’âge de la glace et la bonne continuité stratigraphique au sein du glacier. Atout indéniable de la sonde, ces informations s’obtiennent sans carottage. « Tout est nouveau dans cette sonde, depuis l’instrument laser embarqué jusqu’à la façon dont on pénètre dans le glacier », indique Jérôme Chappellaz, qui la testera en compagnie de huit membres du projet. Elle sera déployée la saison suivante près de Concordia sur le site considéré comme le plus prometteur par le consortium BE-OI (sur la base des données géophysiques obtenues cette année).

Le CNRS contribue au projet par le déploiement de Subglacior mais aussi par ses expertises sur la modélisation de l’écoulement des glaciers et sur les datations radiochronologiques. Si les données géophysiques sont acquises par des partenaires étrangers, les chercheurs du CNRS sont fortement impliqués dans leur interprétation. « Nous avons développé des outils très performants de modélisation pour interpréter les échos radar, évaluer l’écoulement du glacier au cours du temps, et dater les couches en profondeur », explique Catherine Ritz, directeur de recherche CNRS et responsable de ce volet au sein du consortium BE-OI. Par ailleurs, deux chercheurs du Cerege (CNRS/AMU/IRD/Collège de France) étudieront les copeaux de glace remontés des grandes profondeurs par les outils de reconnaissance rapide, afin de valider les âges estimés par les autres outils.

L’apport financier européen servira en majeure partie à soutenir la logistique complexe et coûteuse au cœur de l’Antarctique. Ainsi l’Institut polaire français, avec son partenaire italien le PNRA, contribue de manière essentielle à cette logistique, dans la mise en place du programme et l’accueil des scientifiques grâce à ses moyens propres et ses personnels. Tous les deux opèrent la base franco-italienne Concordia, lieu de test pour la sonde mais aussi point de départ pour les sites prometteurs situés à « Little Dome C ». Les deux instituts mettront d’ailleurs en place des moyens spécifiques pour créer deux camps isolés afin que les chercheurs puissent étudier ces sites durant plus de deux mois, sans disposer de l’infrastructure habituelle d’une base scientifique.

Enfin, le projet a également pour ambition de mettre en place les expertises nécessaires autour du futur forage profond (en améliorant les technologies actuelles de forage), ainsi que le management scientifique et le plan de financement pour cette prochaine étape du consortium.

Au-delà du consortium européen BE-OI, cette quête de la glace la plus ancienne fait l’objet d’un engagement international. Ainsi des équipes américaines, chinoises, japonaises, russes et australiennes se sont engagées dans cet effort, en se reposant sur leurs propres moyens logistiques en Antarctique. Au niveau international, ces études sont coordonnées par le programme « International Partnerships in Ice Core Sciences ».

Source : cnrs

L’open source en France : un levier de croissance face aux géants américains

Sur le marché français, la part de l’open source a presque triplé en huit ans. Aujourd’hui, il représente 50 000 emplois dans le secteur des logiciels et services associés dont les principaux domaines sont le développement, le conseil et les infrastructures.

Grâce à un écosystème structuré en clusters, qui rassemblent près de 450 entreprises, la France apparaît comme un acteur majeur de l’open source en Europe.

Preuve du dynamisme des entreprises françaises, Linagora, un acteur majeur de cet écosystème, a remporté en octobre les deux principaux appels d’offres portant sur le support de logiciels libres dans les ministères. Le premier est un accord-cadre interministériel qui se repose sur le principe de mutualisation des prestations de support auprès de 42 ministères et autres entités administratives. Le second contrat de support avait à l’origine été mis en place pour favoriser la mise en concurrence et ne pas tout miser sur un unique acteur, précise le site lemagit.fr.

Malgré sa diffusion dans de nombreuses entreprises, l’open source est encore trop souvent confondu avec le logiciel libre. Selon la définition de la Free Software Foundation, le « logiciel libre » représente un mouvement social qui met en avant la liberté de l’utilisateur. L’Open source, qui fait référence à celle de l’Open Source Initiative, s’intéresse plus aux questions pratiques en termes de performance. Les logiciels Open source ont une vocation économique : réduction des coûts de développement, amélioration des codes, collaborations…

La bonne tenue de ce secteur s’explique par la mise en place de différents modèles économiques adaptés aux besoins spécifiques des entreprises. Les modèles les plus connus sont le « support et services » et « l’open-core ». Le premier s’appuie sur la fourniture de services pour les utilisateurs d’un produit open source : support, formation, conseil, travail de personnalisation… Dans le second modèle, le fournisseur de la solution open source offre une version améliorée comme un logiciel commercial propriétaire.  Parmi les fournisseurs qui se servent de ce modèle figurent Cloudera, SugarCRM et MongoDB.

Mais paradoxalement, le secteur open source français a du mal s’imposer dans l’hexagone sans avoir réussi auparavant son développement à l’étranger ! Des projets ont commencé leur carrière à l’étranger, et en particulier aux États-Unis où des capitaux risqueurs n’ont pas hésité à investir massivement. Le meilleur exemple est certainement Docker qui a levé 160 millions de dollars. Cette solution facilite les déploiements d’applications, car elle permet d’embarquer une application dans un conteneur virtuel qui pourra s’exécuter sur n’importe quel serveur. Cette start-up a rapidement noué des partenariats technologiques avec les éditeurs de distributions GNU/Linux comme Canonical (Ubuntu), Red Hat (Fedora) ainsi qu’avec OpenStack. En France, Alter Way a été l’une des premières SSII à signer un accord de partenariat avec Solomon Hykes, le fondateur de Docker.

Par Philippe Richard

L’origine du syndrome des cheveux incoiffables identifiée

Le syndrome des cheveux incoiffables est une maladie rare des cheveux dont la prévalence est mal connue. Elle débute généralement pendant l’enfance entre 3 mois et 12 ans. Secs et désordonnés, les cheveux des enfants atteints deviennent progressivement blonds argentés ou couleur paille. Les cheveux se dressent sur le cuir chevelu et poussent dans tous les sens. Il est impossible de les coiffer ou de les aplatir avec un peigne. En détail, l’analyse microscopique à balayage révèle une gouttière longitudinale sur toute leur longueur, avec une section triangulaire ou réniforme. Ce syndrome n’est toutefois pas invalidant et connaît une amélioration spontanée à la fin de l’enfance.

Les chercheurs, en collaboration avec une équipe de l’Institut de génétique humaine de l’Université de Bonn et des médecins dermatologues ou généticiens de 7 pays différents, ont découvert que la maladie est due à des mutations récessives d’un trio de gènes qui concourent à la formation du cheveu : le gène codant pour un de ses composants structuraux, la trichohyaline (TCHH) ; ou deux gènes à l’origine d’enzymes qui la prennent pour cible à tour de rôle : la peptidyl-arginine désiminase 3 (PAD3) et la transglutaminase 3 (TGase3). Par ailleurs, les chercheurs ont également montré, chez la souris, que l’inactivation du gène Pad3 altère la forme du pelage et des moustaches des animaux, comme cela avait déjà été rapporté concernant des souris dépourvues de TGase3.

En conclusion, l’absence de TCHH ou le défaut de la cascade biochimique qui aboutit à la rigidification de la tige pilaire sont responsables des anomalies de la formation du cheveu caractéristiques du syndrome des cheveux incoiffables ou « pili trianguli et canaliculi ». « Ces résultats, en plus de décrire l’origine moléculaire de la maladie et de permettre un meilleur diagnostic, apportent de nouvelles connaissances sur le cheveu et les mécanismes de sa formation » conclut Michel Simon, directeur de recherche à l’Inserm.

En savoir plus :
Bien qu’extrêmement rare, le syndrome est connu depuis longtemps. Il a acquis sa notoriété par le célèbre personnage littéraire « Struwwelpeter » (Pierre L’ébouriffé) créé en 1845 par l’auteur d’histoires pour enfants Heinrich Hoffmann. Le livre a été traduit par la suite en anglais par Mark Twain dans « Slovenly Peter ». Bien qu’il ne l’ait jamais dit, on peut même penser que le réalisateur Tim Burton s’en est inspiré pour son film Edward aux mains d’argent (Edward Scissorhands).

 Source : cnrs